28 июня в американском городке Шайенн было покончено с одним из самых перспективных кандидатов в мэры. При этом он лучше других разбирался в проблемах города, так как изучил огромное количество архивных документов и умел находить наиболее грамотные решения. На пути к власти его останавливало только одно: он был искусственным интеллектом. Виртуального кандидата создал житель Шайенна Виктор Миллер. Он начал предвыборную кампанию виртуальной личности, созданной на основе нейросети GPT-4, и скоро его цифровой кандидат стал популярнее всех кандидатов-людей. В конце концов из-за жалоб компания OpenAI, которая владеет технологией ИИ, отключила виртуального кандидата. Он прекратил существование, а в прессе возмущение не затихает. Главный аргумент противников – ИИ не должен принимать решения самостоятельно: чат-ботам на общественных работах нужен контроль людей!
Вопрос контроля ИИ – наиболее спорный и наименее продуманный. Так, в мае 2024 года OpenAI расформировала группу по обеспечению безопасности искусственного интеллекта для человечества. Сотрудники OpenAI, частью уже бывшие, опубликовали открытое письмо, в котором выразили обеспокоенность по поводу быстрого развития индустрии искусственного интеллекта при отсутствии эффективного надзора и защиты.
Авторы письма привели очень серьёзный аргумент, который не оставляет сомнений в обоснованности этих опасений: «У компаний, занимающихся разработкой искусственного интеллекта, есть серьёзные финансовые стимулы избегать эффективного надзора». Напомним, это пишут люди, находящиеся внутри ситуации, им можно верить, тем более когда речь идёт об алчности: в письме приводятся данные о том, что OpenAI, Google, Microsoft и другие компании «находятся у руля гонки вооружений в сфере генеративного ИИ – рынка, выручка которого, по прогнозам, превысит 1 триллион долларов в течение десятилетия».
И хуже того, считают подписанты письма, эти компании располагают «закрытой информацией» о том, на что способны их технологии, о степени мер безопасности, которые они приняли, и об уровнях риска. И не собираются делиться этой информацией с человечеством.
«В настоящее время у этих компаний есть лишь слабые обязательства делиться частью этой информации с правительствами, но не с гражданским обществом. Мы не думаем, что на них можно положиться в плане добровольного обмена сведениями».
Если уж так считают люди, которые сами работают в области ИИ, то к ним стоит, видимо, прислушаться. Тем более что этому письму предшествовало событие, которое действительно заставляет усомниться в том, что большие компании озабочены безопасностью искусственной нейронной сети, а не собственной прибылью.
Год назад – летом 2023 года – в OpenAI была создана специальная группа Superalignment, основным назначением которой было изучение долгосрочных рисков, или, говоря другими словами, обеспечение безопасности искусственного интеллекта для человечества. В мае 2024 года эта группа была расформирована.
Решение о роспуске команды безопасности было принято после ухода её руководителей – Ильи Суцкевера, сооснователя OpenAI, и Яна Лейке, специалиста по поведению ИИ.
Сообщения Лейке в Twitter выявили скрытые конфликты между отделом безопасности и остальной OpenAI. Он заявил, в частности, что команде Superalignment приходилось «плыть против ветра». Группа испытывала трудности с получением необходимых ресурсов на «выяснение того, как управлять и контролировать системы искусственного интеллекта, которые намного умнее нас».
«Разработка искусственного интеллекта, превосходящего человеческий ум, несёт в себе риски, и OpenAI осознаёт величину ответственности, которую она несёт перед человечеством, – написал Ян Лейке. – Однако в последнее время внимание культуры безопасности и процессов уступило место созданию привлекательных продуктов».
В ходе скандала выяснилось, что разногласия группы с руководством OpenAI нарастали давно, а сейчас достигли апогея. Так, в последние месяцы работы команда Superalignment потеряла несколько сотрудников, в том числе исследователей Леопольда Ашенбреннера и Павла Измайлова, которые были уволены по обвинению в утечке информации.
«Пока за этими корпорациями не будет эффективного государственного надзора, нынешние и бывшие сотрудники являются одними из немногих, кто может привлечь их к ответственности перед обществом», – говорится в открытом письме, опубликованном 4 июня.
Обращение, которое подписали тринадцать сотрудников OpenAI, часть из которых уже бывшие, а другая предпочла остаться анонимными, а также три учёных-компьютерщика: Джеффри Хинтон, Йошуа Бенгио и Стюарт Рассел, содержит требования к ИИ-компаниям взять на себя ряд обязательств, а именно: не заключать и не исполнять соглашения о неразглашении информации; создать анонимные процедуры для нынешних и бывших сотрудников, чтобы они могли высказать свои опасения совету директоров компании, регулирующим органам и другим лицам; поддерживать культуру открытой критики; не принимать ответных мер в отношении публичных разоблачений, если внутренние процессы отчётности не работают.
В OpenAI отреагировали на критику собственных сотрудников, заявив, что компания согласна с крайней важностью строгих дебатов, учитывая значимость этой технологии, и они будут продолжать взаимодействовать с правительствами, гражданским обществом и другими сообществами по всему миру. Также стало известно о создании вместо распущенной группы комитета по безопасности во главе с руководителями высшего звена. Таким образом, забота о безопасности человечества будет делом всей компании.
Похожие изменения в политике безопасности произошли в последнее время и у других лидеров разработки ИИ, включая Google и Meta: в результате реорганизации группы безопасности были тоже распущены, а люди и ответственность разделены между остальными подразделениями.
Однако авторы письма уверены, что у компаний, занимающихся искусственным интеллектом, есть сильные финансовые стимулы избегать эффективного надзора, а специально разработанные структуры корпоративного управления недостаточны, чтобы изменить это.
А риски эти, если верить сотрудникам OpenAI, написавшим письмо, нешуточные: они варьируются «от дальнейшего усиления существующего неравенства, манипуляций и дезинформации – до потери контроля над автономными системами ИИ, что потенциально может привести к исчезновению человечества».