«Интеллект, превосходящий человеческий»

Как далеко может зайти умная машина, если ей не ставить преграды?

Фото: Aidin Geranrekab/Unsplash

Фото: Aidin Geranrekab/Unsplash

28 июня в американском городке Шайенн было покончено с одним из самых перспективных кандидатов в мэры. При этом он лучше других разбирался в проблемах города, так как изучил огромное количество архивных документов и умел находить наиболее грамотные решения.  На пути к власти его останавливало только одно: он был искусственным интеллектом.  Виртуального кандидата создал житель Шайенна Виктор Миллер. Он начал предвыборную кампанию виртуальной личности, созданной на основе нейросети GPT-4, и скоро его цифровой кандидат стал популярнее всех кандидатов-людей. В конце концов из-за жалоб компания OpenAI, которая владеет технологией ИИ, отключила виртуального кандидата. Он прекратил существование, а в прессе возмущение не затихает. Главный аргумент противников –  ИИ не должен принимать решения самостоятельно: чат-ботам на общественных работах нужен контроль людей!

Вопрос контроля ИИ – наиболее спорный и наименее продуманный. Так, в мае 2024 года OpenAI  расформировала группу по обеспечению безопасности искусственного интеллекта для человечества.  Сотрудники OpenAI, частью уже бывшие, опубликовали открытое письмо, в котором выразили обеспокоенность по поводу быстрого развития индустрии искусственного интеллекта при отсутствии эффективного надзора и защиты.

Авторы письма привели очень серьёзный аргумент, который не оставляет сомнений в обоснованности  этих опасений:  «У компаний, занимающихся разработкой искусственного интеллекта, есть серьёзные финансовые стимулы избегать эффективного надзора». Напомним, это пишут люди, находящиеся внутри ситуации, им можно верить, тем более когда речь идёт об алчности: в письме приводятся данные о том, что OpenAI, Google, Microsoft и другие компании «находятся у руля гонки вооружений в сфере генеративного ИИ – рынка, выручка которого, по прогнозам, превысит 1 триллион долларов в течение десятилетия».   

И хуже того, считают подписанты письма, эти компании располагают «закрытой информацией» о том, на что способны их технологии, о степени мер безопасности, которые они приняли, и об уровнях риска. И не собираются делиться этой информацией с человечеством.

«В настоящее время у этих компаний есть лишь слабые обязательства делиться частью этой информации с правительствами, но не с гражданским обществом. Мы не думаем, что на них можно положиться в плане добровольного обмена сведениями».  

Если уж так считают люди, которые сами работают в области ИИ, то к ним стоит, видимо, прислушаться. Тем более что этому письму предшествовало событие, которое действительно заставляет усомниться в том, что большие компании озабочены безопасностью искусственной нейронной сети, а не собственной прибылью.

Год назад – летом 2023 года – в OpenAI была создана специальная группа  Superalignment,  основным назначением которой было изучение долгосрочных рисков, или, говоря другими словами, обеспечение безопасности искусственного интеллекта для человечества. В мае 2024 года эта группа была расформирована. 

Решение о роспуске команды безопасности было принято после ухода её руководителей – Ильи Суцкевера, сооснователя OpenAI, и Яна Лейке, специалиста по поведению ИИ. 

Сообщения Лейке в Twitter выявили скрытые конфликты между отделом безопасности и остальной OpenAI. Он заявил, в частности, что команде Superalignment приходилось «плыть против ветра». Группа испытывала трудности с получением необходимых ресурсов на «выяснение того, как управлять и контролировать системы искусственного интеллекта, которые намного умнее нас».

Фото: BoliviaInteligente/Unsplash
Фото: BoliviaInteligente/Unsplash

«Разработка искусственного интеллекта, превосходящего человеческий ум, несёт в себе риски, и OpenAI осознаёт величину ответственности, которую она несёт перед человечеством, – написал Ян Лейке. – Однако в последнее время внимание культуры безопасности и процессов уступило место созданию привлекательных продуктов». 

В ходе скандала выяснилось, что разногласия группы с  руководством OpenAI нарастали давно, а сейчас достигли апогея. Так, в последние месяцы работы команда Superalignment потеряла несколько сотрудников, в том числе исследователей Леопольда Ашенбреннера и Павла Измайлова, которые были уволены по обвинению в утечке информации.  

«Пока за этими корпорациями не будет эффективного государственного надзора, нынешние и бывшие сотрудники являются одними из немногих, кто может привлечь их к ответственности перед обществом», – говорится в открытом письме, опубликованном 4 июня.

Обращение, которое подписали тринадцать сотрудников OpenAI,  часть из которых уже бывшие, а другая предпочла остаться анонимными, а также три учёных-компьютерщика: Джеффри Хинтон, Йошуа Бенгио и Стюарт Рассел, содержит требования к ИИ-компаниям взять на себя ряд обязательств, а именно: не заключать и не исполнять соглашения о неразглашении информации; создать анонимные процедуры для нынешних и бывших сотрудников, чтобы они могли высказать свои опасения совету директоров компании, регулирующим органам и другим лицам; поддерживать культуру открытой критики; не принимать ответных мер в отношении публичных разоблачений, если внутренние процессы отчётности не работают.

В OpenAI отреагировали на критику собственных сотрудников, заявив, что компания согласна с крайней важностью строгих дебатов, учитывая значимость этой технологии, и они будут продолжать взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру.  Также стало известно о создании вместо распущенной группы комитета по безопасности во главе с руководителями высшего звена. Таким образом, забота о безопасности человечества будет делом всей компании.

Похожие изменения в политике  безопасности произошли в последнее время и  у других лидеров разработки ИИ, включая Google и Meta:  в результате реорганизации группы безопасности были тоже распущены, а люди и ответственность разделены между остальными подразделениями.

Однако авторы письма уверены, что у компаний, занимающихся искусственным интеллектом, есть сильные финансовые стимулы избегать эффективного надзора, а специально разработанные структуры корпоративного управления недостаточны, чтобы изменить это.

А риски эти, если верить сотрудникам OpenAI, написавшим письмо, нешуточные: они варьируются «от дальнейшего усиления существующего неравенства, манипуляций и дезинформации – до потери контроля над автономными системами ИИ, что потенциально может привести к исчезновению человечества».

Читайте также