Искусственный интеллект все больше влияет на нашу повседневную жизнь и определяет будущее мира. С одной стороны, он решает огромное количество различных проблем человечества — это большое удобство во многих сферах жизни. С другой стороны, все чаще возникают опасения по поводу негативных сценариев его использования.
Еще несколько лет назад искусственный интеллект (ИИ) казался чем-то из научно-фантастических фильмов. Рассказы о холодильнике для покупок продуктов питания звучали как сказка. Сегодня ИИ (а вместе с ним и машинное обучение) присутствует практически везде. В 2018 году только 30% предприятий использовали ИИ в своей маркетинговой деятельности, в 2020 году — уже 85%. Мы задались вопросом, хорошо это или плохо? В этой статье мы узнаем ответ на этот вопрос.
Искусственный интеллект — угроза?
Нет сомнений в том, что искусственный интеллект, как и любую технологию, можно использовать в хороших и плохих целях. ИИ может представлять угрозу, потому что возможности, которые он открывает, могут помочь обмануть людей и манипулировать ими. Одним из самых известных примеров таких действий стали попытки повлиять на результаты президентских выборов в США через социальные сети. Таких случаев может стать намного больше.
Нам нельзя закрывать глаза на угрозы и быть ослеплены обещаниями о больших возможностях искусственного интеллекта. Более того, машины нельзя научить этичному поведению, а алгоритмы, на которые они полагаются, созданы человеком, поэтому они могут закодировать предубеждения своего создателя (например, в отношении пола). Процитируем исследование Women’s World Banking, согласно которому алгоритмы ИИ могут снизить кредитоспособность женщин в ситуации, когда алгоритмы будут запрограммированы дискриминационным образом.
Еще одним этически сомнительным применением искусственного интеллекта является deepfake, т. е. информационное сообщение, созданное с применением алгоритмов глубокого обучения, заключающееся в использовании изображения или звука с участием реального человека с целью получения переработанной ложной версии. Юстина Вильчинска, адвокат Baraniak, руководитель отдела интеллектуальной собственности, технологий и персональных данных в EY Law, утверждала, что как общество мы должны знать, откуда можно получить реальную информацию. Deepfake может уничтожить бизнес и людей. США уже выделили миллиарды долларов на разработку технологий, которые помогут идентифицировать deepfake. Она также вспомнила случай с deepfake, когда голосом президента компании манипулировали и дали указание финансовому директору сделать крупный перевод со счета компании. В результате компания потеряла четверть миллиона долларов.
Искусственный интеллект — спасение?
Одни из самых важных и положительных возможных ролей ИИ — его функциональность и применение в кибербезопасности. Он защищает нас, обычных пользователей, и помогает тем, кто профессионально борется с киберпреступниками. Методы биометрической верификации, в том числе сканирование лица или наблюдение за поведением пользователя с целью выявления аномалий, затрудняют, благодаря ИИ, несанкционированный доступ к мобильным устройствам или данным.
Везде, где мы имеем дело с анализом больших объемов данных, связанных с деятельностью человека, часто данных из различных источников, которые необходимо соотносить друг с другом, ИИ незаменим. Ни одна компания не сможет в будущем эффективно нанять столько людей для выполнения той работы, которую за нас будут выполнять ИИ и обучающиеся машины. Более того, благодаря ему можно обнаружить деятельность киберпреступников.
О преимуществах ИИ можно писать много, но ключевыми кажутся два его применения. Это образование и медицина. Вскоре вместо изучения подробностей наполеоновских войн студенты смогут поговорить с Наполеоном. Социальные кампании также являются положительной формой deepfake. В одном Дэвид Бекхэм говорил о малярии на 9 языках. Siri или Alexa тоже своего рода deepfake, потому что они могут говорить не только своим синтетическим голосом, но и голосами известных людей.
У ИИ самые большие достижения в медицине. Создание профилей пациентов, на которых тестируются новые лекарства, алгоритмы, позволяющие точно диагностировать рак молочной железы или легких, анализ рентгеновских снимков или анализ медицинских данных — это лишь некоторые из уже существующих приложений ИИ в медицине. И это только начало.
Добавим к этому совершенствование производства, логистики и противодействие терроризму. Во всех этих случаях с точки зрения общественных интересов искусственный интеллект имеет смысл на существование.
Правовое регулирование искусственного интеллекта
Правовые нормы необходимы для контроля алгоритмов и предотвращения угроз от ИИ. Жесткие или мягкие, но этически обоснованные. В их центре должен быть человек, потому что искусственный интеллект должен служить человеку.
Правовое регулирование имеет важное значение. Более того, эти законы должны быть сильными и обязательными. Многие компании уже сегодня делают все, чтобы обойти неудобные для них правила или стандарты. Таким образом, единственным решением является жесткое регулирование с драконовскими штрафами, например, в 5% от оборота компании за злоупотребления. Только этот тип регулирования заставляет компании использовать машинное обучение для вещей, полезных для человека.
С другой стороны, темпы развития технологий настолько высоки, что законодатели не успевают за ними. В качестве примера можно привести неудачную формулировку положений польского законодательства, когда было заморожено использование облачных сервисов в банковской сфере.
Важной проблемой, которую решают эксперты, является глобальный подход к классификации ИИ, который воплощается в правилах. С одной стороны — американская правовая система, с другой — европейская, с третьей — китайская. Общие правила не могут быть разработаны без соответствующего подхода отдельных стран.
Страны G7 во главе с США обязались координировать работу по выработке общих правил. В 2018 году они объявили об инициативе Глобального партнерства по искусственному интеллекту (GPAI). В 2020 году к ней присоединились некоторые страны ОБСЕ и ЮНЕСКО. Цель состоит в том, чтобы создать и продвигать глобальные стандарты подхода к ИИ. В то же время в 2021 году Еврокомиссия предложила свой регламент по ИИ.
Основная цель предлагаемых решений, учитывающих наиболее важные зоны риска, — формирование доверия граждан к ИИ и его более широкое использование в бизнесе.
Какие бы нормативные акты ни были приняты, они должны, как и все другие законы, иметь законную силу. GDPR ввел право на забвение, но как обычному человеку проверить, действительно ли цифровые поставщики удалили данные?
ИИ и нарушение конфиденциальности
Одним из рисков, связанных с внедрением ИИ, является нарушение конфиденциальности. Люди не знают, как много мы оставляем информации о себе, например, в социальных сетях. И хотя абсолютной конфиденциальности не существует, что также подчеркивал Европейский суд по правам человека, этот вопрос требует дополнительного регулирования.
Вопрос конфиденциальности следует рассматривать не только с точки зрения отдельного человека, но и с точки зрения законного общественного интереса. В какой-то момент мы как общество должны спросить себя, хотим ли мы чувствовать угрозу, сохраняя все наши данные только в сейфе для себя, или сделать их доступными в некоторой степени и разрешить их обработку извне, чтобы мы чувствовали себя в безопасности.
Итог
По мнению экспертов, нам нужно искать золотую середину защиты конфиденциальности при предоставлении данных, которые технологии будут использовать на благо отдельных людей и общества.