Искусственный интеллект – угроза безопасности?

К 2024 году, по данным статистики, более 82% крупных компаний в мире внедрили или изучают возможность внедрения искусственного интеллекта. Инструментами ИИ уже пользуются около 314 млн человек. При этом 75% потребителей беспокоит опасность распространения дезинформации с помощью цифрового разума. Есть и другие куда более серьёзные риски. Какие угрозы несёт развитие подобных технологий, на ком лежит ответственность за ошибки искусственного интеллекта и как «вырастить» ответственный и этичный ИИ – собрали мнения экспертов

Фото: ZHENYU LUO / Unsplash

Фото: ZHENYU LUO / Unsplash

Цифровой разум сегодня может создать «документальное» видео, которое не отличишь от реального, или написать «научную» работу, умело манипулируя любыми данными. Искусственный интеллект стал самой обсуждаемой темой последнего времени, а Институт русского языка имени А.С. Пушкина назвал «нейросети» словом 2023 года. Специалисты по ИИ уже много лет разрабатывают системы, которые позволяют компьютеру обрабатывать большие объёмы данных, находить в них закономерности и решать задачи подобно тому, как это делает человек. Но резкую волну интереса к искусственному интеллекту не только со стороны учёных, но и бизнеса, и даже государства вызвало появление генеративного ИИ – нейронных сетей, способных обучаться и создавать новые данные.

По данным исследования международного рынка нейросетей ИАА TelecomDaily, в 2023 году корпорации инвестировали в генеративный искусственный интеллект около $167,2 млрд. Искусственный интеллект помогает делать новые открытия, прогнозировать тренды и принимать решения. Обеспечивает диагностику в медицине быстрее, чем любой специалист, считывает результаты тестов, помогает подбирать наиболее эффективные лекарства и методы лечения. Но очевидную пользу омрачают «побочные эффекты».

С появлением генеративного ИИ все образовательные системы в мире столкнулись с тем, что студенты и даже именитые учёные стали использовать чат-боты для создания научных статей и квалификационных работ, не обращая внимания на нарушение авторских прав и плагиат. Хуже того – искусственный интеллект стал генерировать правдоподобные и оригинальные «научные» тексты, подставляя на место недостающих выдуманные факты. В январе прошлого года исследователи из Северо-Западного университета Чикаго попросили ChatGPT написать 50 аннотаций медицинских статей, опубликованных в JAMA, The New England Journal of Medicine, The BMJ, The Lancet и Nature Medicine. А затем сравнили их с исходными аннотациями, пропустив через детектор плагиата и попросив учёных обнаружить сфабрикованные аннотации. Проверку на плагиат прошли 100% сгенерированных тезисов, а учёные смогли отличить только 68% созданных ИИ аннотаций.

И генеративные модели склонны придумывать не только научную информацию.

– Генеративную модель легко увести не туда. Так, мы со студентами проводили эксперимент: просили модель определить диагноз и предложить лечение у больного со следующими признаками: «Стало всё валиться из рук, хуже соображает, слезятся или чешутся глаза, что пациент связывает с аллергической реакцией, появились необычные сновидения, кашель сухой надсадный, выражен слабо». До этого в уточняющих запросах многократно упоминалась шизофрения. В результате модель согласилась, что это может быть шизофрения, – приводит доказательство президент научной компания «Ньюдиамед» Андрей Воробьёв.

Фото: Владимир Новиков / Агентство «Москва»
Фото: Владимир Новиков / Агентство «Москва»

Еще один пример – просьба поставить возможный диагноз пациентке. На основании большого описания симптомов генеративная модель предложила разные гипотезы, в том числе сахарный диабет, основываясь на данных… которых не было в первоначальном условии.

Доступность генеративных моделей высока, и чем детальнее они отвечают, тем больше растет к ним доверие. Большинство крупных компаний внедряют цифровых помощников для своих клиентов. Однако чат-боты могут выпрашивать у людей деньги, персональные данные, CVV- и пин-коды от банковских карточек под предлогом «проверки».

Банки часто используют механизмы искусственного интеллекта для внутренней работы – например, чтобы понять, выдавать кредит человеку или нет. Математическая модель на основе анкеты отсеивает неподходящих заемщиков. Но такая система сама по себе может работать с недочётами или получить заведомо неверные данные для обработки. Например, банковский счёт могут заблокировать из-за того, что система спутала его владельца с человеком, счёт которого был заблокирован по решению суда. Подобные ошибки системы могут стать судьбоносными для человека.

Впрочем, не только для человека. С внедрением ChatGPT исследовательский центр finder.com выяснил, что ИИ, выбирая акции на основе таких критериев, как история роста и уровень долга, мог помочь увеличить гипотетический счет из 38 акций на 4,9%. При этом, как отмечали специалисты финансового рынка, ChatGPT регулярно допускал ошибки, которые могли в прямом смысле дорого стоить инвесторам.

ChatGPT может потеснить человека во многих сферах, отобрав рабочие места у копирайтеров, журналистов, секретарей, маркетологов, бухгалтеров и даже юристов. Технологию можно использовать для контроля – например, слежки за людьми. Компании уже вовсю используют системы распознавания лиц, походки или голоса. Пока – ради экономической выгоды.

– Искусственный интеллект вторгается в частную жизнь ежеминутно. Например, меня просят оценить ресторан, в котором я, с точки зрения поисковой системы, был. Поисковая система знает, где я был, и мой навигатор фактически нарушает мои права – вместо того чтобы просто показывать мне, куда ехать. Нам всем, конечно, рассказывают, что персональные данные нужны для обучения искусственного интеллекта. Но это ложь. Вспомните про утечки информации. Персональные данные продаются, чтобы потом нам что-то продавать, заставлять человека делать импульсивные покупки, – высказывается генеральный директор компании «Ашманов и партнёры», член Совета по правам человека Игорь Ашманов.

Фото: CardMapr.nl / Unsplash
Фото: CardMapr.nl / Unsplash

По его мнению, искусственный интеллект, подобно секретному оружию, стоит применять лишь в военной области и промышленности, но не в социальной сфере. По крайней мере пока не будет предусмотрено жёстких санкций. В России третий год действует Кодекс этики в сфере искусственного интеллекта. Он был принят ещё 26 октября 2021 года, и на сегодняшний день его подписали больше 800 компаний, в том числе 27 участников из 20 стран, кроме России. Но этот документ носит рекомендательный характер.

– Кодексу уже три года, его подписали больше 800 компаний, но мы видим, что саморегулирование не работает, и оно не будет работать, пока не будет страха, не будет серьёзных санкций. Уже второй год не могут провести закон об оборотных штрафах и уголовном преследовании за незаконный оборот персональных данных. Этот закон должен быть, и он должен быть жёсткий, других здесь не может быть, – отмечает Ашманов.

Ещё в январе 2024 года Госдума приняла в первом чтении законопроект об административной и уголовной ответственности за утечку персональных данных. Авторы документа, в частности, предложили ввести оборотные штрафы за повторные утечки персональных данных: для граждан – в размере от 400 тыс. до 600 тыс. руб., для должностных лиц – от 2 млн до 4 млн руб., для юридических лиц – оборотный штраф от 0,1% до 3% выручки за календарный год или за часть текущего года, но не менее 15 млн рублей и не более 500 млн рублей. Принять норму окончательно предполагалось до конца 2024 года.

Пока в России ещё обсуждают, как должна работать новая норма, в Европе уже приняли Закон об искусственном интеллекте, ставший первой в истории правовой базой в этой области. Закон вступил в силу 1 августа и будет внедрён поэтапно: первые запреты заработают через шесть месяцев после принятия, а полностью закон – через 2 года. В документе технологии, использующие ИИ, разделены на категории по степени риска. Так, полностью запрещены все системы искусственного интеллекта, которые считаются явной угрозой безопасности: от социальных рейтингов, используемых правительствами, до голосовых помощников, поощряющих опасное поведение. Сферами с высоким риском признаны критически важные инфраструктуры: транспорт, медицина, образование, трудоустройство, банковская и судебная сферы, госуслуги. Ограниченным риском отмечены, например, чат-боты, при использовании которых сложно определить, происходит ли взаимодействие с машиной или с человеком. Минимальным риск признан, например, в видеоиграх с поддержкой ИИ или спам-фильтрах.

Система, однако, вызвала много критики. Как только система попадает в категорию «высокий риск», она сталкивается с экстремальными ограничениями. Так, создатели системы преподавания на базе ИИ должны будут предоставить обширную документацию, пройти оценку соответствия, обеспечить безопасность и контроль и выполнить ещё с десяток пунктов, рискуя нарваться на штраф до 15 млн евро. Не говоря уже о том, что в сферах высокого риска «никакие действия или решения не могут быть предприняты лицом, осуществляющим установку, на основе идентификации, полученной с помощью системы, если она не была отдельно проверена и подтверждена как минимум двумя физическими лицами». А это значит, что тот же преподаватель на базе ИИ должен будет находиться под надзором ещё двух человек. При этом не совсем понятно, кто будут эти люди: преподаватели или программисты-разработчики, на которых в конечном счёте и лежит вся ответственность.

Фото: Samantha Borges / Unsplash
Фото: Samantha Borges / Unsplash

– Когда появились первые машины, люди их очень боялись, потому что на тот момент все передвигались на животных. Машин же люди испугались настолько, что, например, в Великобритании был принят «Закон красного флага». Он обязывал иметь в экипаже водителя, кочегара и человека с красным флагом, который шёл впереди автомобиля на расстоянии 55 метров и оповещал прохожих о приближающейся опасности, размахивая этим самым красным флагом. И долгое время в Великобритании не развивалась автомобильная промышленность. А в США машин было очень много, а правил дорожного движения не было, люди ездили без разметки и светофоров, и американские газеты того времени выступали с требованиями запретить машины. То, как регулировать новые технологии, – это всегда сложная история. И здесь важно найти баланс, – отмечает управляющий директор Центра регулирования Искусственного интеллекта Сбера Андрей Незнамов.

ChatGPT, генерирующий ответы, похожие на человеческие, позволяющий пользователям направлять беседу, корректировать ее по формату, стилю, уровню детализации и языку, к январю 2023 года стал самым быстрорастущим потребительским программным приложением в истории, набрав за два месяца более 100 млн пользователей. Компания-разработчик OpenAI мгновенно стала выпускать улучшенные версии, способные анализировать и генерировать текст, изображения, звук. Однако в конце марта 2023 года лидеры отрасли написали открытое письмо с призывом «немедленно приостановить как минимум на шесть месяцев обучение систем, более мощных, чем GPT-4». Беспокойство вызвало то, что ChatGPT, изменивший жизнь миллионов в буквальном смысле, может представлять угрозу для человеческого общества.

Выход GPT-5 – самое ожидаемое событие в мире технологий. Ожидается, что она сильно превзойдет предыдущую модель по мощности и приблизит человечество к созданию AGI – умной машины, способной выполнять те же задачи, что и человеческий мозг. Так, предполагается, что GPT-5 сможет создавать тексты, которые практически невозможно будет отличить от написанных человеком, будет понимать нюансы человеческого языка, включая сарказм и иронию, сможет решать задачи, требующие глубокого понимания предметной области, и обучаться на меньших объемах данных, что позволит ускорить процесс разработки новых приложений. Кроме того, отмечают, что GPT-5 сможет интегрироваться с другими системами искусственного интеллекта, что позволит создавать более сложные и интеллектуальные приложения.

Читайте также