Нейросети и алгоритмы не только упрощают быт, технологии, производство, но и начинают проникать в области, связанные с медициной, общением, с творчеством, верой, духовным опытом. Почти обо всём, что создал человек, можно сказать, что это просто инструмент, который можно использовать во благо и во зло. Но инструмент инструменту рознь. Что-то доверишь детям только под присмотром взрослых, что-то – только взрослым и то при определённой подготовке или вовсе со средствами спецзащиты.
Тут и возникает вопрос: где пролегают границы между удобным инструментом и новым антропологическим вызовом? Какие риски несёт в себе повседневное использование технологий ИИ?
Современные технологии искусственного интеллекта принципиально отличаются от всех прежних способов распространения знаний и информации (письменности, книгопечатания, радио, телевидения и даже интернета). Если раньше человек получал доступ лишь к информации, которую должен был самостоятельно осмыслить и обработать, то теперь ситуация кардинально изменилась. С появлением технологий больших языковых моделей (о принципе работы очень кратко, но здорово описано в этом видео) на уровне начала 2023 года впервые в истории технология в широком доступе перестаёт быть безличной и пассивной, а начинает претендовать на субъектность и способность активно воздействовать на духовную, душевную, интеллектуальную, профессиональную жизнь и личный выбор человека. При том что ИИ перестал быть узкой и специализированной технологией, он применяется практически во всех сферах жизни современного человека: в медицине (диагностика болезней, персонализированная медицина), финансах (анализ рынков и кредитный скоринг), образовании (автоматические системы проверки знаний), развлечениях (персонализированные рекомендации контента и игр), транспорте (автопилоты и навигация), а также в повседневном быту (голосовые помощники, «умный дом», персонализированная реклама). В результате почти каждый человек ежедневно, иногда даже неосознанно, взаимодействует с ИИ и попадает в поле его влияния.

Так в чем же проблема? Это же здорово!
Мы все знаем, как порой бывает непросто сформулировать свою мысль, найти слова для выражения опыта, найти ответ на поставленный вопрос. Многие преподаватели знают, что уйти с урока с каким-то нерешённым вопросом для ученика бывает очень плодотворно, так как это вопрос мучает разум, заставляя дорастать до решений. Кто из студентов технического вуза не просыпался ночью на 1-м курсе от того, что наконец понимал, как взять тот интеграл или решить то дифференциальное уравнение? Наверняка это касается и гуманитариев. Генеративный ИИ избавляет нас от этого мучения и даёт чёткий, структурированный ответ на любой вопрос, а также на сколь угодно много уточняющих вопросов. Вот только есть одна проблема: кто отвечает за этот ответ?
Вот какие пометки делают нейросети:
DeepSeek: «AI-generated, for reference only (сгенерировано ИИ только для справки)»
ChatGpt: «ChatGPT может допускать ошибки. Проверьте важную информацию».