Нейробиологи из Сиднейского университета предложили на сайте Amazon Mechanical Turk нехитрое онлайн-развлечение – посмотреть на фото и угадать, видят они лицо реального человека или оно создано генеративной сетью. Каждому из сотен откликнувшихся показали по 50 портретов, половина которых – искусственные. Учёные затем сложили все ответы и получили картину: люди часто принимали дипфейки за реальные снимки.
Причём эти люди ошибались интересным образом – в категорию живых лиц они относили чаще фейки, чем настоящие фото. Это удивило учёных: словно нейросеть сделала свои картинки реальнее, чем сама реальность. Они провели второй эксперимент, пригласив студентов своего университета поиграть в ту же игру, только в этот раз им на голове разместили электроды для записи активности мозга (ЭЭГ). Студенты ошибались в той же манере, но вот их мозг угадывал фальшивые фото лучше, чем они! По сигналам ЭЭГ можно было понять, видит ли мозг подделку. Мозг её видел, но не сообщал сознанию.
Дипфейк для общения с мозгом
В скором будущем мы уже не скроемся от обилия синтетических персонажей, они будут настигать всюду, в любых цифровых медиа. Причём не всегда злонамеренно – их будут использовать и открыто, например, в рекламе или для «общения» с умершими родственниками. Но сама технология открывает широкий простор для манипуляций. Фейки могут влиять на мнения людей, формировать их картину мира, и поэтому умение распознать подделку будет цениться. Пожалуй, главное испытание, что нас ждёт на этом пути, – даже не фейковые картинки или видео, а фейковый разум.
Первый звонок прозвучал в июне 2022 года, когда инженер Google Блейк Лемойн заявил, что нейросетевая модель LaMDA, с которой он долго общался, разумна. Он верит, что она обладает душой, что она тревожится за свою судьбу и боится, что её отключат. Лемойн настаивает, что обращаться с ней следует как с сознательной личностью, и даже нанял ей адвоката. Модели подобного типа будут развиваться и дальше, и таких лемойнов может стать много. Хорошо бы знать, как выявить дипфейк разума.
Возможно, здесь нас выручит мозг, если к нему прислушаться. Как показывает недавнее исследование, люди могут обманываться, принимая бот за человека, но их нервная система всё ещё «знает правду». Учёные измеряли ЭЭГ и ЭКГ у людей, которые в условиях эксперимента вели переговоры как «пилот» и «диспетчер». Иногда их визави был программой, о чём они не догадывались, и это никак не влияло на их сотрудничество. Но вот что поразительно: по данным активности мозга и сердца можно было отличить те случаи, когда люди общались с ботом. Можно обмануть человека, пишут авторы, но не его физиологию.
О том, что реакции организма бывают точнее, чем оценка сознания, учёным известно давно. Они даже выделили особый тип сигнала на энцефалограмме, Error-Related Negativity, как признак ошибки, которую человек пропустил, в отличие от его мозга. Однако запись подобных сигналов в сочетании с машинным обучением выводит игру на новый уровень – так можно вести диалог с психикой, минуя сознание.
Например, искусственные нейросети умеют генерировать лица, которые лично вы сочтёте привлекательными. Главное, что делает такая сеть, опираясь на биометрию, – находит в обучающих данных паттерн, который вызывает желаемую реакцию мозга, и затем воссоздаёт тот же паттерн в своих синтетических данных. В картинке, видео, тексте и в чём угодно.
Добавив в эту схему обратную связь, получим нейроадаптивное генеративное моделирование, своего рода творческий тандем человека и машины. Нейросеть создаёт картинку, которую вы задумали, ничего не зная о ваших мыслях. Программа лишь немного меняет узор пикселей, смотрит на реакцию мозга, снова меняет узор и так далее, как в игре «горячо-холодно», пока наконец дипфейк не воссоздаст нужный вам образ. Иные идеи словами точно не описать, а тут слов и не нужно: вы просто молча смотрите на экран, и на нём проступает образ, который в точности отражает ваш замысел.
Полезно ли знать о себе больше
Такое сопряжение нейроинтерфейса (BCI) с генеративно-состязательной сетью (GAN) позволяет извлечь скрытое, субъективное из психического пространства человека. Или, если угодно, более полно отобразить его представления, предпочтения и ассоциации, даже если он сам не вполне их осознаёт. Творческим людям или исследователям такая технология сулит большие возможности. Вероятно, её можно приспособить и для психотерапии. Но есть и опасение: технология проста и может стать широко доступной.
Это большой риск. Дело не только в подрыве права на приватность и автономию мыслей – специалисты по этике давно рассматривают чтение сигналов мозга как одну из потенциальных угроз, которую нужно учитывать. Даже если отбросить сценарии злого умысла, связка BCI+GAN добавляет озвученной угрозе новое измерение: если люди таким путём узнают о себе то, что было скрыто от сознания, не нанесут ли они себе вред?
Известно, например, что в виртуальной реальности люди с более высокими аватарами ведут себя более агрессивно и уверенно; если же их аватары привлекательны, они становятся дружелюбнее. Такие эффекты протея, как их называют, показывают, что мы ведём себя в соответствии со своими представлениями о себе, причём даже когда знаем, что это представление фальшивое. Вывод наружу скрытого в глубинах психики определенно влияет на наши представления о себе. Это может изменить поведение и структуру личности.
Если этого мало, то сочетание BCI+GAN способно не только выявлять скрытое, но и воздействовать на мозг напрямую. Например, генеративную сеть обучили создавать картинки, которые управляют активностью нейронов у обезьян. Если макака смотрит на такую картинку, клетки в её мозге возбуждаются сильнее, чем когда-либо в её жизни. Говоря проще, нейросеть сочиняет для этих клеток сверхстимул. И выглядит он вовсе не так, как вы могли бы заподозрить.
Картинки ничем не напоминают обезьян или же их лица и части тела и выглядят вот так. Нейросеть синтезирует их для конкретных клеток конкретного мозга, то есть выдаёт очень персонализированное решение, и никаким иным путём такой точности не добиться. Весь фокус тут именно в связке естественных и искусственных нейросетей. Такое пока не испробовали на людях, но технических препятствий нет. Останавливает лишь этика.
Этика: надзирать или запретить
Об угрозах ИИ говорят много, пытаясь придумать нормы и правила, чтобы и права людей соблюсти, и технический прогресс не застопорить, и позволить компаниям получать прибыль. В прошлом году Европейский союз обнародовал проект Акта об искусственном интеллекте (Artificial Intelligence Act). После обсуждения он должен стать первым законом, где будут закреплены стандарты использования ИИ-систем. Проект предлагает в том числе запретить «практики, которые имеют значительный потенциал для манипулирования людьми с помощью подпороговых методов в обход их сознания».
Это тонкий момент, поскольку доказать злой умысел не так легко. Как мы видели, в случае BCI+GAN речь идёт о быстром извлечении неявных знаний и мыслеобразов и о создании тонко настроенных сверхстимулов. И, как мы также видели, порой именно сознание ошибается, а верный ответ находится где-то «ниже», в мозге. Так что здесь намечаются трудности с трактовкой, и специалистам по этике будет над чем поломать голову.
Не всякий ущерб, даже если он реален, можно быстро выявить, эффект может быть отсрочен на годы, накапливаясь медленно и незаметно. И даже не всегда можно чётко и однозначно разграничить пользу и вред, они вполне могут сочетаться. Скажем, если пациент получает терапию, минуя сознание, и исцеляется от душевной травмы – это манипуляция?
Проблема использования ИИ связана с разделением ответственности: чем умнее интеллект, тем он менее прозрачен и предсказуем. Его решения могут быть непонятны, непостижимы, и вопрос в том, кто виноват, если решение неудачное, пока висит в воздухе. Эксперты предлагают оставить окончательный выбор за людьми, и проект Акта продвигает ту же идею: установить человеческий надзор за поведением ИИ-систем. Но это звучит утопично, ведь люди тоже склонны к ошибкам, да и просто не в состоянии объять сложность данных, с которыми имеет дело машина.
Бен Грин из Мичиганского университета, изучающий этику алгоритмов и регулирование ИИ, считает, что «политики и компании, стремящиеся найти “нормативное решение”, должны признать ограничения человеческого контроля, а не представлять участие человека в качестве противоядия от вреда, наносимого алгоритмами». Грин вместе с Амба Как, директором по глобальной политике и программам Института AI Now при Нью-Йоркском университете, критикуют сам подход купировать риски за счёт человека. Это просто не сработает, проблема куда глубже и серьёзнее.
Они считают, что прежде чем взваливать ответственность на людей, стоит изучить, как вообще могут взаимодействовать человек и машина, какие свойства и ограничения присущи такому сотрудничеству. Возможно, стоит вовсе воздержаться от использования ИИ в чувствительных сферах, пока мы не разберёмся, как нейросети думают, почему ведут себя определённым образом и как нам их понимать. Позиция радикальная и вряд ли будет поддержана, но и ставки здесь очень высоки.