нефинансовый институт развития
крупнейший организатор конгрессно-выставочных мероприятий
Рады вас видеть
Восстановление пароля
Введите адрес электронной почты или телефон, указанные при регистрации. Вам будет отправлена инструкция по восстановлению пароля.
Некорректный формат электронной почты или телефона
10 Октября 2019
Виталий Мильке

Виталий Мильке об этике в искусственном интеллекте

В стратегиях развития искусственного интеллекта (ИИ) многих стран есть отдельные главы с этическими принципами при разработке технологии Artificial Intelligence (AI). В разрабатываемой Стратегии развития ИИ в России также предусмотрена разработка этических правил взаимодействия человека и ИИ.

Наиболее подробно этические принципы AI описаны различными общественными организациями и конференциями разработчиков AI, такими как:


Европейская комиссия разрабатывает этические принципы AI, а палата лордов Великобритании создала документ «AI in the UK: ready, willing and able?».

Если суммировать предлагаемые этические принципы, то получим, что AI должен быть подконтролен и полезен обществу, безопасен для человека, надежен в эксплуатации и предсказуем в действиях. Все принятые решения и ошибки AI должны быть прозрачны для понимания и доступны для анализа. Частная жизнь и персональные данные граждан должны быть защищены. Работы по созданию AI должны вестись в дружественной открытой международной среде, без гонки вооружений и с соблюдением стандартов безопасности и анализа всех возможных рисков. Цели самообучаемых и самовоспроизводимых систем AI должны жестко контролироваться и соответствовать общечеловеческими ценностям, а также увеличивать благосостояние (экономическое, социальное и экологическое) человечества в целом, а не одного государства или организации.

Как совместить все эти разумные этические принципы (особенно жесткий контроль над самообучающимися системами AI) и не затормозить их развитие? Ответов пока нет.

Однако точно можно декларировать, что разработки в области AI должны быть подконтрольны обществу. Далее каждый может сделать вывод для себя: пользоваться конкретной технологией, покупать ее или нет. Реальность на данный момент пока другая. Например, согласно Independent , компания Амазон признала, что сотрудники компании прослушивали клиентские записи для улучшения и переобучения голосового помощника Alexa. Настройки конфиденциальности Amazon Alexa не позволяют отказаться от записи вашего голоса. Корпорация Apple столкнулась с коллективным иском в Калифорнии из-за отправки подрядчикам звуковых записей пользователей своего голосового помощника — Siri. Эксперты уже не боятся признавать, что умные технологии и социальные сети слушают больше, чем заявляют официально. Иногда подобные технологии помогают полиции. Например, в прошлом году Amazon передал записи с колонки Echo по запросу суда графства New Hampshire для доказательства двойного убийства. Ловить преступников и доказывать убийства помогают и данные с фитнес-браслетов, информация с которых часто хранится на серверах компаний-производителей. Эти примеры доказывают, что корпорации хранят чувствительные и персональные данные своих клиентов, собираемые устройствами с элементами AI, и достаточно вольно ими распоряжаются в своих целях. Очевидно, что необходимы законы, устанавливающие правила использования больших данных. С другой стороны, нельзя чрезмерно зарегулировать использование BigData, потому что это приведет к торможению развития технологий AI, так как BigData — это «корм» для AI. Выход — введение этических норм и стимулирующего, а не запрещающего законодательства.

Технологии DeepFake и Zao могут вставить ваше лицо, взятое с фотографий, в любое видео. Замена Арнольда Шварценеггера на Сильвестра Сталлоне в фильме Терминатор-1 — это самое безобидное, что можно сделать, используя эти генеративно-состязательные нейросети. На поддельных видео известные люди говорят то, что они никогда не стали бы говорить, и делают то, что они никогда не стали бы делать публично. Эта технология вызвала сильное беспокойство, и палата представителей конгресса США провела слушание по рискам, связанным с искусственным интеллектом и DeepFake, а штат Вирджиния расширил закон против порномести, наложив запрет на использование DeepFake.

Проблема взлома, продаж или несанкционированного и неэтичного использования Database не нова. Еще в 2010 году компания Netfix отменила конкурс с призом в US$ 1 млн на разработку простых (по сегодняшним меркам) рекомендательных алгоритмов из-за юридического предупреждения о невозможности передачи данных клиентов сторонним разработчикам. Сегодня при помощи алгоритмов AI для анализа BigData и больших нейросетей возможно получать новую чувствительную (sensitive) персональную информацию из вроде бы анонимизированных данных. Происходит ли здесь нарушение закона? Нет. Нарушены ли принципы этики? Да.

Еще пара примеров не совсем этичного использования AI-алгоритмов: таргетированная реклама с использованием рекомендательных систем с AI стала настолько персонифицированной, что балансирует на грани персональной безопасности. Через ваш мобильный телефон с включенным Wi-Fi можно точно идентифицировать вашу личность и определить, где вы находитесь в каждый конкретный момент. Используя данные с различных датчиков (таких как акселерометр и гироскоп) внутри вашего телефона, который вы носите с собой, несложные нейронные сети могут определить, что вы делаете и чем занимаетесь в любой момент времени.

Кабельное телевидение не только приносит огромное разнообразие каналов в ваш дом, но и фиксирует (в отличие от обычного эфирного телевидения), что вы смотрите. Далее алгоритмы машинного обучения добавляют общую демографическую информацию (количество взрослых и детей в вашей семье, ваш возраст и т. п.), анализируют информацию и выдают рекомендации по таргетированной рекламе, которая будет различной у вас и вашего соседа. Вроде ничего плохого? Однако общество не знает, как эти данные используются далее; будут ли они проданы кому-нибудь? У Facebook не было бы скандала с Cambridge Analytica, если бы они не пытались продать больше рекламы и увеличить свою прибыль. В отличие от коммерческих компаний, университеты уделяют большое внимание вопросам этики в исследованиях. Перед началом любого исследования в западном университете вам необходимо заполнить кучу бумаг в наблюдательный совет, в которых доказывается, что ваше исследование (включая разработку методов машинного обучения & AI) не противоречит принципам этичности.

Необходимо контролировать соблюдение этических норм AI в бизнесе. Это будет долгий путь по внедрению подобных норм в общество, возможно, длиной в поколение. В конце этого пути несанкционированное использование и анализ данных, в том числе с помощью AI, должны быть примерно приравнены к воровству кошельков или женских сумок в метро.

К сожалению, сегодня чрезмерное внимание со стороны медиа уделяется технологиям AI. У общества формируются завышенные ожидания, иногда граничащие с волшебством. Обе предыдущие «зимы искусственного интеллекта» были связаны как раз с разочарованием общества и инвесторов из-за чрезмерных ожиданий. В результате ажиотажа финансирование на разработки AI-систем часто получают компании без должной академической или практической компетенции, но умеющие себя подать, или просто мошенники. Например, одна китайская компания после получения значительного государственного финансирования на разработку систем нейросетевого перевода пользовалась услугами синхронных переводчиков — людей, выдавая их услуги за новые технологии.

Вывод: сегодня вопросы этики в использовании технологий AI прежде всего зависят от этического поведения разработчиков и пользователей AI.

Как соблюсти этические принципы в использовании AI и при этом создать рынок технологий искусственного интеллекта в России? Это тема для следующей статьи. Следите за обновлениями!

Материал подготовил:
Виталий Мильке,
Советник президента по экономике и финансам, АО «Бизнес Альянс»,
PhD reseacher in Computer Science & Machine Learning

Статьи на тему
Аналитика на тему
Интересное на портале
Исследование
Состояние биоразнообразия в мире для производства продовольствия и ведения сельского хозяйства
В докладе Продовольственной и сельскохозяйственной организации ООН даётся первая глобальная оценка состояния биоразнообразия для производства продовольствия и ведения сельского хозяйства и описываются механизмы управления биоразнообразием во всём мире.
Статья
Национальные цели развития и пути их достижения
В статье рассмотрены острые экономические проблемы страны и обоснована необходимость ускорения социально-экономического развития; рассмотрены пути достижения национальных целей развития и показано, что национальные проекты являются важным, но далеко не единственным механизмом их достижения. Определена настоятельная потребность в формировании полноценной комплексной стратегии социально-экономического развития страны на перспективный период, с учетом имеющегося опыта разработки стратегических документов на федеральном и региональном уровне. Особое внимание уделено опыту стратегического планирования развития Санкт-Петербурга. Определена необходимость создания стимулов для развития бизнеса и формирования благоприятного инвестиционного климата. Определены методы активизации механизмов реализации национальных и региональных проектов и программ развития, включая конкретные методы достижения целей — проведение постоянного мониторинга их достижения, использование методов регуляторной гильотины, тройной спирали и др.
Экспертное мнение
Александр Свинин: Секреты эффективной работы на форумах
Экономические форумы — тусовка или работа? Увидел в ленте по итогам Форума в Сочи несколько постов на тему «зачем нужны экономические форумы — там все только тусуются и никто ничего не делает» и решил описать опыт #КомандаУдмуртии на таких мероприятиях.
Аналитический дайджест
«Зелёные» мероприятия: вызовы и возможности
На страницах специального издания Ассоциации «Национальное конгресс-бюро» (НКБ) раскрываются современные тренды устойчивого развития территорий, перечисляются мероприятия, необходимые для сохранения окружающей среды, и рассказывается об экологических проектах России и «зелёных» технологиях. Кроме того, в данном номере издания впервые представлен новый продукт, разработанный НКБ, — паспорт региона. В качестве примера публикуется резюме паспорта Камчатского края.