нефинансовый институт развития
крупнейший организатор конгрессно-выставочных мероприятий
Рады вас видеть
Восстановление пароля
Введите адрес электронной почты или телефон, указанные при регистрации. Вам будет отправлена инструкция по восстановлению пароля.
Некорректный формат электронной почты или телефона
10 Октября 2019
Виталий Мильке
Виталий Мильке об этике в искусственном интеллекте
В стратегиях развития искусственного интеллекта (ИИ) многих стран есть отдельные главы с этическими принципами при разработке технологии Artificial Intelligence (AI). В разрабатываемой Стратегии развития ИИ в России также предусмотрена разработка этических правил взаимодействия человека и ИИ.

Наиболее подробно этические принципы AI описаны различными общественными организациями и конференциями разработчиков AI, такими как:


Европейская комиссия разрабатывает этические принципы AI, а палата лордов Великобритании создала документ «AI in the UK: ready, willing and able?».

Если суммировать предлагаемые этические принципы, то получим, что AI должен быть подконтролен и полезен обществу, безопасен для человека, надежен в эксплуатации и предсказуем в действиях. Все принятые решения и ошибки AI должны быть прозрачны для понимания и доступны для анализа. Частная жизнь и персональные данные граждан должны быть защищены. Работы по созданию AI должны вестись в дружественной открытой международной среде, без гонки вооружений и с соблюдением стандартов безопасности и анализа всех возможных рисков. Цели самообучаемых и самовоспроизводимых систем AI должны жестко контролироваться и соответствовать общечеловеческими ценностям, а также увеличивать благосостояние (экономическое, социальное и экологическое) человечества в целом, а не одного государства или организации.

Как совместить все эти разумные этические принципы (особенно жесткий контроль над самообучающимися системами AI) и не затормозить их развитие? Ответов пока нет.

Однако точно можно декларировать, что разработки в области AI должны быть подконтрольны обществу. Далее каждый может сделать вывод для себя: пользоваться конкретной технологией, покупать ее или нет. Реальность на данный момент пока другая. Например, согласно Independent , компания Амазон признала, что сотрудники компании прослушивали клиентские записи для улучшения и переобучения голосового помощника Alexa. Настройки конфиденциальности Amazon Alexa не позволяют отказаться от записи вашего голоса. Корпорация Apple столкнулась с коллективным иском в Калифорнии из-за отправки подрядчикам звуковых записей пользователей своего голосового помощника — Siri. Эксперты уже не боятся признавать, что умные технологии и социальные сети слушают больше, чем заявляют официально. Иногда подобные технологии помогают полиции. Например, в прошлом году Amazon передал записи с колонки Echo по запросу суда графства New Hampshire для доказательства двойного убийства. Ловить преступников и доказывать убийства помогают и данные с фитнес-браслетов, информация с которых часто хранится на серверах компаний-производителей. Эти примеры доказывают, что корпорации хранят чувствительные и персональные данные своих клиентов, собираемые устройствами с элементами AI, и достаточно вольно ими распоряжаются в своих целях. Очевидно, что необходимы законы, устанавливающие правила использования больших данных. С другой стороны, нельзя чрезмерно зарегулировать использование BigData, потому что это приведет к торможению развития технологий AI, так как BigData — это «корм» для AI. Выход — введение этических норм и стимулирующего, а не запрещающего законодательства.

Технологии DeepFake и Zao могут вставить ваше лицо, взятое с фотографий, в любое видео. Замена Арнольда Шварценеггера на Сильвестра Сталлоне в фильме Терминатор-1 — это самое безобидное, что можно сделать, используя эти генеративно-состязательные нейросети. На поддельных видео известные люди говорят то, что они никогда не стали бы говорить, и делают то, что они никогда не стали бы делать публично. Эта технология вызвала сильное беспокойство, и палата представителей конгресса США провела слушание по рискам, связанным с искусственным интеллектом и DeepFake, а штат Вирджиния расширил закон против порномести, наложив запрет на использование DeepFake.

Проблема взлома, продаж или несанкционированного и неэтичного использования Database не нова. Еще в 2010 году компания Netfix отменила конкурс с призом в US$ 1 млн на разработку простых (по сегодняшним меркам) рекомендательных алгоритмов из-за юридического предупреждения о невозможности передачи данных клиентов сторонним разработчикам. Сегодня при помощи алгоритмов AI для анализа BigData и больших нейросетей возможно получать новую чувствительную (sensitive) персональную информацию из вроде бы анонимизированных данных. Происходит ли здесь нарушение закона? Нет. Нарушены ли принципы этики? Да.

Еще пара примеров не совсем этичного использования AI-алгоритмов: таргетированная реклама с использованием рекомендательных систем с AI стала настолько персонифицированной, что балансирует на грани персональной безопасности. Через ваш мобильный телефон с включенным Wi-Fi можно точно идентифицировать вашу личность и определить, где вы находитесь в каждый конкретный момент. Используя данные с различных датчиков (таких как акселерометр и гироскоп) внутри вашего телефона, который вы носите с собой, несложные нейронные сети могут определить, что вы делаете и чем занимаетесь в любой момент времени.

Кабельное телевидение не только приносит огромное разнообразие каналов в ваш дом, но и фиксирует (в отличие от обычного эфирного телевидения), что вы смотрите. Далее алгоритмы машинного обучения добавляют общую демографическую информацию (количество взрослых и детей в вашей семье, ваш возраст и т. п.), анализируют информацию и выдают рекомендации по таргетированной рекламе, которая будет различной у вас и вашего соседа. Вроде ничего плохого? Однако общество не знает, как эти данные используются далее; будут ли они проданы кому-нибудь? У Facebook не было бы скандала с Cambridge Analytica, если бы они не пытались продать больше рекламы и увеличить свою прибыль. В отличие от коммерческих компаний, университеты уделяют большое внимание вопросам этики в исследованиях. Перед началом любого исследования в западном университете вам необходимо заполнить кучу бумаг в наблюдательный совет, в которых доказывается, что ваше исследование (включая разработку методов машинного обучения & AI) не противоречит принципам этичности.

Необходимо контролировать соблюдение этических норм AI в бизнесе. Это будет долгий путь по внедрению подобных норм в общество, возможно, длиной в поколение. В конце этого пути несанкционированное использование и анализ данных, в том числе с помощью AI, должны быть примерно приравнены к воровству кошельков или женских сумок в метро.

К сожалению, сегодня чрезмерное внимание со стороны медиа уделяется технологиям AI. У общества формируются завышенные ожидания, иногда граничащие с волшебством. Обе предыдущие «зимы искусственного интеллекта» были связаны как раз с разочарованием общества и инвесторов из-за чрезмерных ожиданий. В результате ажиотажа финансирование на разработки AI-систем часто получают компании без должной академической или практической компетенции, но умеющие себя подать, или просто мошенники. Например, одна китайская компания после получения значительного государственного финансирования на разработку систем нейросетевого перевода пользовалась услугами синхронных переводчиков — людей, выдавая их услуги за новые технологии.

Вывод: сегодня вопросы этики в использовании технологий AI прежде всего зависят от этического поведения разработчиков и пользователей AI.

Как соблюсти этические принципы в использовании AI и при этом создать рынок технологий искусственного интеллекта в России? Это тема для следующей статьи. Следите за обновлениями!

Материал подготовил:
Виталий Мильке,
Советник президента по экономике и финансам, АО «Бизнес Альянс»,
PhD reseacher in Computer Science & Machine Learning

Статьи на тему
Аналитика на тему
Интересное на портале
Исследование
Об итогах деятельности Минэкономразвития России за 2018 год и задачах на 2019 год
Минэкономразвития России подвёл итоги своей годовой работы, рассказал про основные достижения и ключевые результаты за 2018 год и представил план действий на следующие годы, нацеленный на рост российской экономики и вывод её на новый уровень.
Статья
Набор отмычек: Как российский средний бизнес выходит на зарубежные рынки
Востребованность российских продуктов за рубежом еще недавно вызывала большие сомнения. Сейчас ситуация меняется. В 2018 году российский несырьевой экспорт вышел на рекордный уровень и достиг 150 млрд долларов США — против 134 млрд в предыдущем году. Журнал ПМЭФ решил на нескольких примерах понять, с какими продуктами российские компании выходят на зарубежные рынки и какие «отмычки» используют, чтобы завоевать себе место под солнцем.
Экспертное мнение
Амра Найду: Умные и устойчивые города
Аналитический дайджест
Роскошь индустрии встреч: личное общение как инвестиции
Специальное издание Национального конгресс-бюро Open to the World за сентябрь 2019 года посвящено мероприятиям, проводимым офлайн, и ценностям F2F-встреч. Также в номере представлены результаты опроса зарубежных организаторов мероприятий относительно интереса к Дальнему Востоку.