Информационно-аналитическая система
Вход в Единый личный кабинет
Восстановление пароля
Введите адрес электронной почты или телефон, указанные при регистрации. Вам будет отправлена инструкция по восстановлению пароля.
Некорректный формат электронной почты или телефона
10 октября 2019
Виталий Мильке

Виталий Мильке об этике в искусственном интеллекте

В стратегиях развития искусственного интеллекта (ИИ) многих стран есть отдельные главы с этическими принципами при разработке технологии Artificial Intelligence (AI). В разрабатываемой Стратегии развития ИИ в России также предусмотрена разработка этических правил взаимодействия человека и ИИ.

Наиболее подробно этические принципы AI описаны различными общественными организациями и конференциями разработчиков AI, такими как:


Европейская комиссия разрабатывает этические принципы AI, а палата лордов Великобритании создала документ «AI in the UK: ready, willing and able?».

Если суммировать предлагаемые этические принципы, то получим, что AI должен быть подконтролен и полезен обществу, безопасен для человека, надежен в эксплуатации и предсказуем в действиях. Все принятые решения и ошибки AI должны быть прозрачны для понимания и доступны для анализа. Частная жизнь и персональные данные граждан должны быть защищены. Работы по созданию AI должны вестись в дружественной открытой международной среде, без гонки вооружений и с соблюдением стандартов безопасности и анализа всех возможных рисков. Цели самообучаемых и самовоспроизводимых систем AI должны жестко контролироваться и соответствовать общечеловеческими ценностям, а также увеличивать благосостояние (экономическое, социальное и экологическое) человечества в целом, а не одного государства или организации.

Как совместить все эти разумные этические принципы (особенно жесткий контроль над самообучающимися системами AI) и не затормозить их развитие? Ответов пока нет.

Однако точно можно декларировать, что разработки в области AI должны быть подконтрольны обществу. Далее каждый может сделать вывод для себя: пользоваться конкретной технологией, покупать ее или нет. Реальность на данный момент пока другая. Например, согласно Independent , компания Амазон признала, что сотрудники компании прослушивали клиентские записи для улучшения и переобучения голосового помощника Alexa. Настройки конфиденциальности Amazon Alexa не позволяют отказаться от записи вашего голоса. Корпорация Apple столкнулась с коллективным иском в Калифорнии из-за отправки подрядчикам звуковых записей пользователей своего голосового помощника — Siri. Эксперты уже не боятся признавать, что умные технологии и социальные сети слушают больше, чем заявляют официально. Иногда подобные технологии помогают полиции. Например, в прошлом году Amazon передал записи с колонки Echo по запросу суда графства New Hampshire для доказательства двойного убийства. Ловить преступников и доказывать убийства помогают и данные с фитнес-браслетов, информация с которых часто хранится на серверах компаний-производителей. Эти примеры доказывают, что корпорации хранят чувствительные и персональные данные своих клиентов, собираемые устройствами с элементами AI, и достаточно вольно ими распоряжаются в своих целях. Очевидно, что необходимы законы, устанавливающие правила использования больших данных. С другой стороны, нельзя чрезмерно зарегулировать использование BigData, потому что это приведет к торможению развития технологий AI, так как BigData — это «корм» для AI. Выход — введение этических норм и стимулирующего, а не запрещающего законодательства.

Технологии DeepFake и Zao могут вставить ваше лицо, взятое с фотографий, в любое видео. Замена Арнольда Шварценеггера на Сильвестра Сталлоне в фильме Терминатор-1 — это самое безобидное, что можно сделать, используя эти генеративно-состязательные нейросети. На поддельных видео известные люди говорят то, что они никогда не стали бы говорить, и делают то, что они никогда не стали бы делать публично. Эта технология вызвала сильное беспокойство, и палата представителей конгресса США провела слушание по рискам, связанным с искусственным интеллектом и DeepFake, а штат Вирджиния расширил закон против порномести, наложив запрет на использование DeepFake.

Проблема взлома, продаж или несанкционированного и неэтичного использования Database не нова. Еще в 2010 году компания Netfix отменила конкурс с призом в US$ 1 млн на разработку простых (по сегодняшним меркам) рекомендательных алгоритмов из-за юридического предупреждения о невозможности передачи данных клиентов сторонним разработчикам. Сегодня при помощи алгоритмов AI для анализа BigData и больших нейросетей возможно получать новую чувствительную (sensitive) персональную информацию из вроде бы анонимизированных данных. Происходит ли здесь нарушение закона? Нет. Нарушены ли принципы этики? Да.

Еще пара примеров не совсем этичного использования AI-алгоритмов: таргетированная реклама с использованием рекомендательных систем с AI стала настолько персонифицированной, что балансирует на грани персональной безопасности. Через ваш мобильный телефон с включенным Wi-Fi можно точно идентифицировать вашу личность и определить, где вы находитесь в каждый конкретный момент. Используя данные с различных датчиков (таких как акселерометр и гироскоп) внутри вашего телефона, который вы носите с собой, несложные нейронные сети могут определить, что вы делаете и чем занимаетесь в любой момент времени.

Кабельное телевидение не только приносит огромное разнообразие каналов в ваш дом, но и фиксирует (в отличие от обычного эфирного телевидения), что вы смотрите. Далее алгоритмы машинного обучения добавляют общую демографическую информацию (количество взрослых и детей в вашей семье, ваш возраст и т. п.), анализируют информацию и выдают рекомендации по таргетированной рекламе, которая будет различной у вас и вашего соседа. Вроде ничего плохого? Однако общество не знает, как эти данные используются далее; будут ли они проданы кому-нибудь? У Facebook не было бы скандала с Cambridge Analytica, если бы они не пытались продать больше рекламы и увеличить свою прибыль. В отличие от коммерческих компаний, университеты уделяют большое внимание вопросам этики в исследованиях. Перед началом любого исследования в западном университете вам необходимо заполнить кучу бумаг в наблюдательный совет, в которых доказывается, что ваше исследование (включая разработку методов машинного обучения & AI) не противоречит принципам этичности.

Необходимо контролировать соблюдение этических норм AI в бизнесе. Это будет долгий путь по внедрению подобных норм в общество, возможно, длиной в поколение. В конце этого пути несанкционированное использование и анализ данных, в том числе с помощью AI, должны быть примерно приравнены к воровству кошельков или женских сумок в метро.

К сожалению, сегодня чрезмерное внимание со стороны медиа уделяется технологиям AI. У общества формируются завышенные ожидания, иногда граничащие с волшебством. Обе предыдущие «зимы искусственного интеллекта» были связаны как раз с разочарованием общества и инвесторов из-за чрезмерных ожиданий. В результате ажиотажа финансирование на разработки AI-систем часто получают компании без должной академической или практической компетенции, но умеющие себя подать, или просто мошенники. Например, одна китайская компания после получения значительного государственного финансирования на разработку систем нейросетевого перевода пользовалась услугами синхронных переводчиков — людей, выдавая их услуги за новые технологии.

Вывод: сегодня вопросы этики в использовании технологий AI прежде всего зависят от этического поведения разработчиков и пользователей AI.

Как соблюсти этические принципы в использовании AI и при этом создать рынок технологий искусственного интеллекта в России? Это тема для следующей статьи. Следите за обновлениями!

Материал подготовил:
Виталий Мильке,
Советник президента по экономике и финансам, АО «Бизнес Альянс»,
PhD reseacher in Computer Science & Machine Learning

Статьи на тему
Аналитика на тему
Интересное на портале
Исследование
Доклад о мировом развитии 2020: Торговля как инструмент развития в эпоху глобальных производственно-сбытовых цепей
Эксперты Группы Всемирного банка (ВБ) подготовили один из основных докладов о мировом развитии в 2020 году. В издании рассмотрены причины и последствия замедления глобализации. Кроме того, аналитики ВБ обозначили некоторые угрозы результатам, достигнутым мировой экономикой в борьбе с бедностью в последнее десятилетие.
Статья
Интеллектуальное событие как часть общественной дипломатии
Сетевые взаимодействия обусловили развитие новых форм дипломатии. Появились такие виды международных отношений, которые позволяют создавать новые виртуальные пространства не только в технико-технологическом смысле, но и в трансграничном. Трансграничное взаимодействие с положительной коннотацией в международных отношениях в условиях «сетевой дипломатии» реализуется в формате диалоговых площадок. Общественная дипломатия международных диалогов использует событийный подход.
Экспертное мнение
Участники Форума Россия – Африка об алмазной отрасли
Аналитический дайджест
РОСКОНГРЕСС ИНСАЙДЕР. Специальный выпуск по итогам Экономического форума Россия – Африка
В информационно-аналитическом дайджесте эксперты Фонда Росконгресс подводят итоги первого экономического форума Россия – Африка, который прошёл 23–24 октября 2019 года в Сочи.