Социально ориентированный нефинансовый институт развития, крупнейший организатор международных, конгрессных, выставочных, деловых, общественных, спортивных мероприятий и событий в области культуры.

Фонд Росконгресс – социально ориентированный нефинансовый институт развития, крупнейший организатор международных, конгрессных, выставочных, деловых, общественных, спортивных мероприятий и событий в области культуры.

Фонд учрежден в 2007 году с целью содействия развитию экономического потенциала, продвижения национальных интересов и укрепления имиджа России. Фонд всесторонне изучает, анализирует, формирует и освещает вопросы российской и глобальной экономической повестки. Обеспечивает администрирование и содействует продвижению бизнес-проектов и привлечению инвестиций, способствует развитию социального предпринимательства и благотворительных проектов.

Мероприятия Фонда собирают участников из 208 стран и территорий, более 15 тысяч представителей СМИ ежегодно работают на площадках Росконгресса, в аналитическую и экспертную работу вовлечены более 5000 экспертов в России и за рубежом. Установлено взаимодействие с 129 внешнеэкономическими партнерами, объединениями промышленников и предпринимателей, финансовыми, торговыми и бизнес-ассоциациями в 69 странах мира.

Вход в Единый личный кабинет
Восстановление пароля
Введите адрес электронной почты или телефон, указанные при регистрации. Вам будет отправлена инструкция по восстановлению пароля.
Некорректный формат электронной почты или телефона
10 октября 2019
Виталий Мильке

Виталий Мильке об этике в искусственном интеллекте

В стратегиях развития искусственного интеллекта (ИИ) многих стран есть отдельные главы с этическими принципами при разработке технологии Artificial Intelligence (AI). В разрабатываемой Стратегии развития ИИ в России также предусмотрена разработка этических правил взаимодействия человека и ИИ.

Наиболее подробно этические принципы AI описаны различными общественными организациями и конференциями разработчиков AI, такими как:


Европейская комиссия разрабатывает этические принципы AI, а палата лордов Великобритании создала документ «AI in the UK: ready, willing and able?».

Если суммировать предлагаемые этические принципы, то получим, что AI должен быть подконтролен и полезен обществу, безопасен для человека, надежен в эксплуатации и предсказуем в действиях. Все принятые решения и ошибки AI должны быть прозрачны для понимания и доступны для анализа. Частная жизнь и персональные данные граждан должны быть защищены. Работы по созданию AI должны вестись в дружественной открытой международной среде, без гонки вооружений и с соблюдением стандартов безопасности и анализа всех возможных рисков. Цели самообучаемых и самовоспроизводимых систем AI должны жестко контролироваться и соответствовать общечеловеческими ценностям, а также увеличивать благосостояние (экономическое, социальное и экологическое) человечества в целом, а не одного государства или организации.

Как совместить все эти разумные этические принципы (особенно жесткий контроль над самообучающимися системами AI) и не затормозить их развитие? Ответов пока нет.

Однако точно можно декларировать, что разработки в области AI должны быть подконтрольны обществу. Далее каждый может сделать вывод для себя: пользоваться конкретной технологией, покупать ее или нет. Реальность на данный момент пока другая. Например, согласно Independent , компания Амазон признала, что сотрудники компании прослушивали клиентские записи для улучшения и переобучения голосового помощника Alexa. Настройки конфиденциальности Amazon Alexa не позволяют отказаться от записи вашего голоса. Корпорация Apple столкнулась с коллективным иском в Калифорнии из-за отправки подрядчикам звуковых записей пользователей своего голосового помощника — Siri. Эксперты уже не боятся признавать, что умные технологии и социальные сети слушают больше, чем заявляют официально. Иногда подобные технологии помогают полиции. Например, в прошлом году Amazon передал записи с колонки Echo по запросу суда графства New Hampshire для доказательства двойного убийства. Ловить преступников и доказывать убийства помогают и данные с фитнес-браслетов, информация с которых часто хранится на серверах компаний-производителей. Эти примеры доказывают, что корпорации хранят чувствительные и персональные данные своих клиентов, собираемые устройствами с элементами AI, и достаточно вольно ими распоряжаются в своих целях. Очевидно, что необходимы законы, устанавливающие правила использования больших данных. С другой стороны, нельзя чрезмерно зарегулировать использование BigData, потому что это приведет к торможению развития технологий AI, так как BigData — это «корм» для AI. Выход — введение этических норм и стимулирующего, а не запрещающего законодательства.

Технологии DeepFake и Zao могут вставить ваше лицо, взятое с фотографий, в любое видео. Замена Арнольда Шварценеггера на Сильвестра Сталлоне в фильме Терминатор-1 — это самое безобидное, что можно сделать, используя эти генеративно-состязательные нейросети. На поддельных видео известные люди говорят то, что они никогда не стали бы говорить, и делают то, что они никогда не стали бы делать публично. Эта технология вызвала сильное беспокойство, и палата представителей конгресса США провела слушание по рискам, связанным с искусственным интеллектом и DeepFake, а штат Вирджиния расширил закон против порномести, наложив запрет на использование DeepFake.

Проблема взлома, продаж или несанкционированного и неэтичного использования Database не нова. Еще в 2010 году компания Netfix отменила конкурс с призом в US$ 1 млн на разработку простых (по сегодняшним меркам) рекомендательных алгоритмов из-за юридического предупреждения о невозможности передачи данных клиентов сторонним разработчикам. Сегодня при помощи алгоритмов AI для анализа BigData и больших нейросетей возможно получать новую чувствительную (sensitive) персональную информацию из вроде бы анонимизированных данных. Происходит ли здесь нарушение закона? Нет. Нарушены ли принципы этики? Да.

Еще пара примеров не совсем этичного использования AI-алгоритмов: таргетированная реклама с использованием рекомендательных систем с AI стала настолько персонифицированной, что балансирует на грани персональной безопасности. Через ваш мобильный телефон с включенным Wi-Fi можно точно идентифицировать вашу личность и определить, где вы находитесь в каждый конкретный момент. Используя данные с различных датчиков (таких как акселерометр и гироскоп) внутри вашего телефона, который вы носите с собой, несложные нейронные сети могут определить, что вы делаете и чем занимаетесь в любой момент времени.

Кабельное телевидение не только приносит огромное разнообразие каналов в ваш дом, но и фиксирует (в отличие от обычного эфирного телевидения), что вы смотрите. Далее алгоритмы машинного обучения добавляют общую демографическую информацию (количество взрослых и детей в вашей семье, ваш возраст и т. п.), анализируют информацию и выдают рекомендации по таргетированной рекламе, которая будет различной у вас и вашего соседа. Вроде ничего плохого? Однако общество не знает, как эти данные используются далее; будут ли они проданы кому-нибудь? У Facebook не было бы скандала с Cambridge Analytica, если бы они не пытались продать больше рекламы и увеличить свою прибыль. В отличие от коммерческих компаний, университеты уделяют большое внимание вопросам этики в исследованиях. Перед началом любого исследования в западном университете вам необходимо заполнить кучу бумаг в наблюдательный совет, в которых доказывается, что ваше исследование (включая разработку методов машинного обучения & AI) не противоречит принципам этичности.

Необходимо контролировать соблюдение этических норм AI в бизнесе. Это будет долгий путь по внедрению подобных норм в общество, возможно, длиной в поколение. В конце этого пути несанкционированное использование и анализ данных, в том числе с помощью AI, должны быть примерно приравнены к воровству кошельков или женских сумок в метро.

К сожалению, сегодня чрезмерное внимание со стороны медиа уделяется технологиям AI. У общества формируются завышенные ожидания, иногда граничащие с волшебством. Обе предыдущие «зимы искусственного интеллекта» были связаны как раз с разочарованием общества и инвесторов из-за чрезмерных ожиданий. В результате ажиотажа финансирование на разработки AI-систем часто получают компании без должной академической или практической компетенции, но умеющие себя подать, или просто мошенники. Например, одна китайская компания после получения значительного государственного финансирования на разработку систем нейросетевого перевода пользовалась услугами синхронных переводчиков — людей, выдавая их услуги за новые технологии.

Вывод: сегодня вопросы этики в использовании технологий AI прежде всего зависят от этического поведения разработчиков и пользователей AI.

Как соблюсти этические принципы в использовании AI и при этом создать рынок технологий искусственного интеллекта в России? Это тема для следующей статьи. Следите за обновлениями!

Материал подготовил:
Виталий Мильке,
Советник президента по экономике и финансам, АО «Бизнес Альянс»,
PhD reseacher in Computer Science & Machine Learning

Статьи на тему
Аналитика на тему
Интересное на портале
Исследование
Исследование облачного гейминга в России
Команда индустрии медиа и развлечений PwC Россия представляет первое исследование российского рынка облачного гейминга, в котором рассматриваются такие вопросы, как тренды и динамика развития глобального рынка, особенности российского рынка, его драйверы роста и др.
Статья
Проблемы перехода на дистанционное обучение в Российской Федерации глазами учителей
Исследование «Проблемы перехода на дистанционное обучение в Российской Федерации глазами учителей» проведено лабораторией медиакоммуникаций в образовании НИУ ВШЭ в конце марта — начале апреля 2020 г. Цель — выявить основные пробле¬мы и трудности, с которыми столкнулись учителя в этот период. Было опрошено 22600 учителей в 75 регионах страны. Удалось оценить обеспеченность учителей и детей техническими устрой¬ствами для проведения видео- и аудиоконференций и работы на онлайн-платформах.
Экспертное мнение
«Мы говорили про технологии солнца и ветра, но это технологии прошлого века»
Вице-председатель IHS Markit Дэниел Ергин — один из самых авторитетных экспертов в области энергетики и постоянный участник Петербургского международного экономического форума и других мероприятий Фонда Росконгресс. Приводим выдержки из его выступлений в 2016–2019 годах.
Аналитический дайджест
Отставка Абэ: гонка преемников и Токио-2020
Фонд Росконгресс представляет дайджест новостей «Мировой спорт в условиях пандемии COVID-19» за 27–31 августа.