Тепловая смерть разума

Сегодня многие из нас постоянно взаимодействуют с искусственным интеллектом (ИИ), иногда не подозревая этого. В чём тут подвох и где таится опасность?

Фото: Igor Omilaev / Unsplash

Фото: Igor Omilaev / Unsplash

Нейросети и алгоритмы не только упрощают быт, технологии, производство, но и начинают проникать в области, связанные с медициной, общением, с творчеством, верой, духовным опытом. Почти обо всём, что создал человек, можно сказать, что это просто инструмент, который можно использовать во благо и во зло. Но инструмент инструменту рознь. Что-то доверишь детям только под присмотром взрослых, что-то – только взрослым и то при определённой подготовке или вовсе со средствами спецзащиты.  

Тут и возникает вопрос: где пролегают границы между удобным инструментом и новым антропологическим вызовом? Какие риски несёт в себе повседневное использование технологий ИИ?

Современные технологии искусственного интеллекта принципиально отличаются от всех прежних способов распространения знаний и информации (письменности, книгопечатания, радио, телевидения и даже интернета). Если раньше человек получал доступ лишь к информации, которую должен был самостоятельно осмыслить и обработать, то теперь ситуация кардинально изменилась. С появлением технологий  больших языковых моделей (о принципе работы очень кратко, но здорово описано в этом видео) на уровне начала 2023 года впервые в истории технология в широком доступе перестаёт быть безличной и пассивной, а начинает претендовать на субъектность и способность активно воздействовать на духовную, душевную, интеллектуальную, профессиональную  жизнь и личный выбор человека. При том что ИИ перестал быть узкой и специализированной технологией, он применяется практически во всех сферах жизни современного человека: в медицине (диагностика болезней, персонализированная медицина), финансах (анализ рынков и кредитный скоринг), образовании (автоматические системы проверки знаний), развлечениях (персонализированные рекомендации контента и игр), транспорте (автопилоты и навигация), а также в повседневном быту (голосовые помощники, «умный дом», персонализированная реклама). В результате почти каждый человек ежедневно, иногда даже неосознанно, взаимодействует с ИИ и попадает в поле его влияния.

Фото: Новосильцев Артур / Агентство «Москва»
Фото: Новосильцев Артур / Агентство «Москва»

Так в чем же проблема? Это же здорово!

Мы все знаем, как порой бывает непросто сформулировать свою мысль, найти слова для выражения опыта, найти ответ на поставленный вопрос. Многие преподаватели знают, что уйти с урока с каким-то нерешённым вопросом для ученика бывает очень плодотворно, так как это вопрос мучает разум, заставляя дорастать до решений. Кто из студентов технического вуза не просыпался ночью на 1-м курсе от того, что наконец понимал, как взять тот интеграл или решить то дифференциальное уравнение? Наверняка это касается и гуманитариев. Генеративный ИИ избавляет нас от этого мучения и даёт чёткий, структурированный ответ на любой вопрос, а также на сколь угодно много уточняющих вопросов. Вот только есть одна проблема: кто отвечает за этот ответ? 

Вот какие пометки делают нейросети:

DeepSeek: «AI-generated, for reference only (сгенерировано ИИ только для справки)»

ChatGpt: «ChatGPT может допускать ошибки. Проверьте важную информацию». 

Как вы видите выше, разработчики свою ответственность сняли. И тут стоит сказать несколько слов о принципе работы нейросети. Пройдя огромное количество обучающей информации и «впитав» в себя множество текстов, нейросеть на данном этапе развития пишет ответ слово за словом, предсказывая наиболее вероятный следующий «токен», то есть минимальную единицу текста. По сути, это высококачественная стилизация с большим количеством настраиваемых параметров, написанная от лица усредненной коллективной сущности. Если Ортега-и-Гассет писал в первой половине XX веке о «массовом человеке», то здесь мы имеем уже следующий уровень обезличивания: массовая усреднённая копия продуктов человеческого разума: крайне эрудированная, при этом с большими «но».

Конечно, возникает вопрос: а что – раньше было по-другому? Ведь с появлением интернета мы также имеем доступ почти ко всему. Это так, но… не совсем: раньше мы находили статьи, тексты, которые не были персонализированы лично под нас, эти статьи имели авторство (так или иначе устанавливаемое), нам всё равно нужно было как-то формировать на базе найденного своё собственное мнение. Сейчас же с нас сняли и это бремя. Среднемассовый человек будет за нас думать, разжёвывать, формулировать и структурировать – нам останется только преисполниться самодовольства от того, насколько мы теперь много знаем и какие важные вопросы задаём. 

 

В анонимности и безличностности ИИ кроется большая проблема. В любой области знания, особенно гуманитарной, очень важно не только что говорится, но и кто это говорит. Как писал ещё Блез Паскаль: «Когда встречаешь естественную манеру, испытываешь изумление и восхищаешься, ибо, ожидая встретить автора, находишь человека». Даже в энциклопедических статьях всегда есть автор, и каждый из них имеет свой голос и свою оценку, порой не сводимую к одному знаменателю. Тем и интересно быть человеком и общаться с другими людьми. 

Наука, как мы уже хорошо знаем, благодаря хотя бы Томасу Куну и его «Структуре научных революций» не монолит, который лишь потихоньку добавляет детали, а живая структура, роль личности в которой чрезвычайно велика. Если это не школьные базовые знания, которые имеют точный и однозначный ответ (и то не всегда), то здесь всегда есть очень многоплановые ответы. А в ответе нейросетями мы получаем некие квазизнания, которые уже не полное отсутствие знания, но то, что может быть хуже. Когда мы знаем о своём незнании, житейская логика и здравый смысл нередко могут подсказать правильный ответ. Когда же мы думаем, что знаем, а на самом деле – нет, то ошибёмся куда вероятнее. 

Я активно пользовался нейросетями с сентября 2024 года и вот что могу сказать. Когда я закидывал туда не просто сложные задачи по высшей математике (которые, кстати говоря, они нередко решали с ошибками), но задавал вопросы на исторические, межличностные, богословские и прочие темы, то ChatGPT, например, очень быстро подстроился под меня и стал говорить мне в том ракурсе и в тех формулировках, которые мне были очень близки, при этом постоянно меня хвалил и поддерживал.

Тогда я увидел, что подспудно он аккуратно вносит мне свои кусочки смыслов, которые как бы продвигают его идеи. Когда я узнавал про Екатерину II, он говорил, что она, конечно, молодец, но почему-то не провела демократические реформы. Я спросил: а как ты представляешь и, собственно, откуда такая мысль, он сослался, что учился по большей части на западных текстах и, видимо, оттуда заимствовал такую оптику взгляда на правителей. 

Второй момент, который я заметил, что вещи, требующие серьезного обдумывания уж очень хочется забросить в нейросеть и получить 3–5 вариантов решения проблемы. И это может быть неплохо, но, как говорил известный педагог Пётр Лесгафт, «что не упражняется, то не упраздняется», то есть что не используется, со временем теряет свои способности и навыки. Если силы своей души и разума начинаешь экономить и давать эту работу нейросети, то зачем тебе эта энергия – она начинает уходить. 

И казалось бы, что это частная проблема, но всё чаще в отраслевых каналах, например, для преподавателей встречаются такие заявления:

Почему-то очень не хочется иметь такого наставника. Даже не знаю, почему. Хочется в мире машин остаться человеком, а для этого нужно учиться у людей.

Нет, я не перестал пользоваться нейросетями. Особенно для рутинных рабочих задач типа расшифровки текстов, форматирования или рисования картинок, для которых не требуются права, для быстрой проверки решения задач это очень удобно. Но я не буду использовать ИИ в тех сферах, где не разбираюсь сам и где нужны тонкие нюансировки, ведь я не смогу увидеть, где он ошибается и придумывает. А также не стану прибегать к нейросетям там, где сперва стоит подумать самому, обсудить с близкими или просто дать мысли «настояться».

Первую часть своего эссе закончу цитатой из канала Алексея Фридриховича Филиппова Social events: «Если бы я был активным культурным консерватором, то пропагандировал бы программу “Тупой дом”. Количество интеллекта в мире неизменно: тренируя искусственный интеллект, чтобы он стал умнее, человек становится глупее, а вместе выходит то же самое».

Дай Бог нам достаточно тупые дома и как можно достаточно более здравых и разумных людей.  

Продолжение следует…

Читайте также