Можно ли воцерковить ИИ?

Мало что в последние годы звучит громче искусственного интеллекта (ИИ) и связанных с ним достижений. Стремительно развивающаяся технология уже названа главным технологическим прорывом XXI века. Некоторые говорят о научной революции и новом технологическом укладе, вызывающих восторг и ужас одновременно. Оставив в стороне технологический и экономический аспект развития и проникновения в нашу жизни ИИ и генеративного искусственного интеллекта (ГИИ), отметим, что технология формирует новые вызовы и для области духовной жизни – в частности, для религиозных организаций

Особенно актуальна проблема этики ИИ, связанная с ситуациями, в которых машина, наделённая ИИ, способна самостоятельно принимать важные решения, влияющие на экономику, быт или даже здоровье человека. Для решения этой проблемы необходимо ответить на вопрос: можно ли возлагать на сложные технические системы с ИИ риски, связанные с принятием важных решений, чья и какой будет ответственность за возможные ошибки и последствия? И, наконец, самый важный для религии вопрос: какое влияние окажет массовое использование и делегирование задач от человека к ИИ на человеческую личность? И не подменит ли ИИ человека? Как относиться к ИИ – творению не Божьему, но человеческому?

Католицизм. Сотрудничество с техногигантами и продвижение Algorethics

Католическая церковь, как и почти по всем вопросам, находится в авангарде обсуждения актуальных проблем. В 2020 году Папская академия жизни и главы крупнейших ИТ-корпораций (Microsoft, IBM и др.) подписали «Римский призыв к этике ИИ», который, по словам архиепископа В. Пальи (Vincenzo Paglia), президента Папской академии жизни, подписавшего документ от Святого Престола, стал «первой совместной попыткой соединить в формулировках критерии этики с бытовыми представлениями о ценностях».

В документе акцентируется внимание на необходимости обеспечить прозрачность моделей ИИ и обеспечении деятельности моделей ИИ исключительно в интересах человеческой личности, оставляющих свободному индивиду возможность для самовыражения и саморазвития. Римская церковь отметила и такие волнующие общественность вопросы, как обеспечение нейтральности ИИ во взглядах и оценках, исключающей дискриминацию и гарантирующей уважение человеческого достоинства, а также соблюдение нейросетями и людьми, их контролирующими, приватности и неприкосновенности частной жизни. При этом самый важный вопрос – вопрос ответственности – остаётся на разработчике и владельце нейросети, что лишает ИИ права на субъектность.

В соответствии с генеральной линией папы Франциска, католических иерархов прежде всего беспокоит влияние новых технологий на дискриминацию в обществе, их способствование углублению имущественного и социального расслоения. Сам покойный понтифик отмечал, что бесконтрольное внедрение интеллектуальных систем, позволяющих контролировать ментальные и поведенческие привычки людей в политических или коммерческих целях (часто без их ведома), рискует усугубить социальные противоречия, поскольку уже сегодня пользователи интернета и ИИ-систем сведены до положения потребителей, обслуживающих частные интересы «немногих избранных, знающих о нас всё, тогда как мы о них не знаем ничего».

Это стало продолжением другой линии папы Франциска, восходящей ещё к папе Павлу VI, о том, что наука должна осознать и признать собственные границы.

Папа римский Франциск. Фото: Casa Rosada/Wikipedia
Папа римский Франциск. Фото: Casa Rosada/Wikipedia

Кроме «Римского призыва» Ватикан продвигает концепцию Algorethics – этики алгоритмов, основанной на прозрачности, справедливости и подотчётности. 

Основные положения концепции следующие:

  • Принцип достоинства человеческой личности (imago Dei). ИИ не должен подменять или обесценивать человека – человек важнее технологии. ИИ не обладает личностью, совестью или моральной ответственностью, а является лишь инструментом.
  • Принцип ответственности создателя. Ответственность за решения ИИ всегда несут люди – разработчики, владельцы, государства. Перекладывание вины на техническую систему недопустимо. Особенно это касается автономных систем в военной сфере.
  • ИИ должен служить общему благу (помощь в медицине, образовании, выполнении рутинных рабочих операций), а не максимизации прибыли его создателей. Недопустимо использование ИИ для тотального наблюдения и контроля над людьми, манипуляции сознанием.
  • Принцип прозрачности и истины. Недопустимо использование технологий по принципу «чёрного ящика» – влияние на жизнь и судьбы людей без объяснений, генерация с помощью ИИ лжи, дипфейков и т.д. Истина является моральной категорией, а значит, технологии, искажающие реальность, недопустимы.
  • Принцип ограничения ИИ в сфере морали и духовности. ИИ может помогать в поиске информации, но не может быть духовным авторитетом. ИИ не может исповедовать, отпускать грехи, заменять пастыря, поскольку молитва, совесть, любовь, покаяние не поддаются алгоритмизации.

     

Православие: воздействие через власти

Восточные церкви, в частности РПЦ, пока более осторожны (или отстают от актуальных вопросов). Но и в Московском патриархате создана объединённая рабочая группа Синодальной комиссии по биоэтике и Технического комитета 164 «Искусственный интеллект» по вопросам предотвращения угроз негативного влияния ИИ на духовно-нравственные ценности, первое заседание состоялось 17 декабря 2025 года. Сопредседателями комиссии стали секретарь Синодальной комиссии по биоэтике протоиерей Александр Абрамов и и.о. директора Всероссийского института научной и технической информации (ВИНИТИ) РАН, председатель Технического комитета по стандартизации ТК 164/МТК 566 «Искусственный интеллект» С.В. Гарбук.

Священник Александр Абрамов отметил, что вклад Синодальной комиссии по биоэтике в деятельность объединённой рабочей группы по стандартизации вопросов, связанных с предотвращением угроз негативного влияния ИИ на духовно-нравственные ценности, может состоять в «предложении нравственного подхода, связанного с многовековыми традициями Церкви». В свою очередь С.В. Гарбук отметил, что особенностью современных технологий ИИ, основанных на методах машинного обучения, является высокая субъективная правдоподобность выдаваемых результатов для человека. Это правдоподобие влечёт за собой зачастую не подкреплённое объективными техническими основаниями доверие к системам ИИ.

В этом видится кардинальное различие в методах Ватикана и Данилова монастыря. Если Римская церковь налаживает сотрудничество с техногигантами, стремясь совместно разработать необходимые этические нормы, Русская церковь предпочитает действовать через государственные органы и установленные сверху обязательные для всех стандарты.

Кроме того, РПЦ разграничивает этику ИИ и этику ИИ-сферы. С точки зрения иерархов РПЦ, поскольку ИИ – инструмент, созданный человеком, он не может являться моральным субъектом и не имеет собственных сознания и этики. В январе 2026 года свящ. Александр Абрамов подчеркнул, что «этика ИИ – само по себе сочетание бессмысленное. У искусственного интеллекта не может быть этики, как не может быть этики у очков. А вот этика в области искусственного интеллекта, именно так называется национальная комиссия, имеет глубокий смысл. Это и этика разработчика, и этика тех решений, которые вкладываются в машину». Отдельный вопрос об одухотворённости ИИ. Священник Александр Абрамов категоричен в в этом вопросе: раз ИИ – не творение Божие, то и души у него быть не может. А следовательно, он не может быть ответственен за решения, требующие морального выбора: «Такое невозможно ни при каких обстоятельствах. Ни при каких обстоятельствах о душе у искусственного интеллекта речи быть не может… Душа дана человеку и только человеку Богом, и никаких других вариантов здесь быть не может. Здесь уже есть подмена: как у интеллекта может быть душа и при чём здесь душа, вообще говоря? Это или сознательный обман, или добросовестное заблуждение. И в том и в другом случае это не имеет отношения к реальности», – отметил Александр Абрамов.

Что касается других православных церквей, то в мае 2025 года патриарх Константинопольский Варфоломей выразил уверенность, что человека как образ Божий нельзя заменить машиной. Более того, по мнению патриарха Варфоломея, нет ничего священнее человека, а технологический прогресс должен оставаться человекоцентричным, а не «роботократическим». В свою очередь глава Кипрской церкви архиепископ Георгий в интервью Greek News Today подчеркнул, что «истинный прогресс измеряется защитой человеческого достоинства, а не только техническими возможностями, и важно задавать вопрос не “что технология может делать”, а “что она должна делать”».

Фото: scbioethics.ru
Фото: scbioethics.ru

При этом православные богословы отмечают, что новые технологии не нейтральны духовно, поскольку влияют не только на образ жизни, но и на сознание людей. Основные угрозы, исходящие от бесконтрольного использования ИИ, православные иерархи связывают с перспективой разрушения или полной утраты межличностного общения и – более того – потерей смирения и свободы.

Протестантизм: плюралистичный прагматизм

Протестантский подход ожидаемо отличается разнообразием и максимальной прагматичностью. А одной из наиболее обсуждаемых сфер относительно ИИ оказалось здравоохранение и возможность применения нейросетей в работе врачей. Здесь протестантские мыслители указывают, что «умные технологии» могут быть инструментом улучшения жизни и уменьшения страданий, однако этические вопросы должны оцениваться не только с утилитарной точки зрения, а через богословское представление о служении и человечности. Так, А.Л. Ридер (Adriaan L. Rheeder) указывает, что «ИИ, когда он этично реализован, может служить инструментом Царства Божьего, способствуя улучшению жизни, облегчая страдания и продвигая Божьи искупительные цели в мире. Церковь призвана критически и конструктивно взаимодействовать с ИИ, гарантируя, что его использование отражает ценности Евангелия и способствует процветанию всего творения».

Кроме того, на уровне религиозных организаций Швейцарский евангелический альянс в июле-августе 2025 года подготовил доклад по этике ИИ «Сообщество и цифровизация: искусственный интеллект (ИИ) в церкви» (Gemeinde & Digitalisierung: Künstliche Intelligenz (KI) in der Kirche), где подчёркивается «необходимость этичного использования ИИ, акцентируется внимание на ценностях честности, целостности и любви к ближнему как фундаментальных ориентирах для разработки и применения технологий. Кроме того, авторы доклада призывают христиан участвовать в формулировании правил, чтобы ИИ служил благу людей и обществу».

Российские протестантские общины пока не выступали с публичными заявлениями касательно развития новых технологий и этики ИИ. Однако в январе 2024 года в программе «По всему миру» на сайте protestant.ru протестантский пастор отметил, что стремительное развитие технологий является предметом дискуссии внутри христианской среды.

Ислам: ИИ как инструмент через призму шариата

Исламская традиция не наделяет ИИ моральным статусом или субъектностью, а рассматривает «умные» технологии как часть техники и инструмент, а ответственность всегда остаётся за человеком-разработчиком и пользователем. В исламской этике технологии рассматриваются через призму целей Шариата (maqāsid al-Sharīʿah) – сохранения веры, жизни, разума, потомства и имущества. Эти цели помогают оценивать, служит ИИ благу людей или приносит вред (принцип la darar wa la dirar).

Поскольку ключевой этической категорией в исламе является ответственность человека перед Богом, то моральную ответственность за действия ИИ – инструмента в руках человека – несёт человек. Кроме того, принцип amānah (ответственное отношение к доверенному) накладывает обязанность использовать ИИ на благо, избегая злоупотреблений.

Российские муфтияты пока не сформировали официальную позицию по этике ИИ, но в конце января 2026 года при подписании Документа о создании консультативного совета по этике искусственного интеллекта глава ДСМР муфтий А. Крганов коснулся темы цифровых двойников умерших и предостерёг от их создания с помощью искусственного интеллекта для общения с ними: «Люди будут заказывать себе домой роботов с образом лиц своих умерших родителей, дедушек, бабушек, которые тем же голосом будут у них дома общаться. <…> Мы, религиозные организации, не преследуем каких-то интересов экономических, нам важно, чтобы про душу никто не забыл. И не надо строить эйфорию, что сейчас искусственный интеллект всё нам сделает».

Индуизм. Метафизическая гибкость и внимание к эмпатии

Индуистский подход к проблеме, в соответствии с традицией, плюралистичен и метафизически гибок. В индуистской традиции мораль и этика прочно связаны с такими понятиями, как дхарма (праведный путь/обязанность), карма (закон действия и следствия) и Vasudhaiva Kutumbakam (весь мир – единая семья). Эти идейные конструкции служат этической основой для обсуждения ИИ – особенно в контексте его воздействия на человека, общество и природу.

Согласно взглядам некоторых индуистских авторов, интеллект без эмпатии и внутреннего понимания нельзя считать полноценным. Эмоции, сострадание и мораль – неотъемлемая часть интеллектуальной деятельности живого существа, а ИИ в своей основе лишён этих качеств. Это приводит к критике чисто функционального подхода к ИИ-этике.

Буддизм: встраивание нейросетей в метафизическую картину мира

Буддизм легче других принимает ИИ, не находя в его появлении и влиянии на человеческую жизнь противоречия с буддийскими основаниями, выражая, однако, обеспокоенность возможным влиянием ИИ на клеши (привязанности) человека. Буддийский авторы предлагают глубокие философские и этические ориентиры, которые можно адаптировать для анализа и регулирования ИИ-технологий:

  • Взаимозависимость и непостоянство. Буддизм подчёркивает, что всё существует в сети взаимосвязей и нет постоянной сущности («анатта», अनात्मन्  или отсутствие самости). Это может помочь понять ИИ как условное и зависимое явление, а не как нечто самостоятельное или автономное.
  • Осознанность. Практика внимательности важна для того, чтобы люди не становились пассивными потребителями технологий, а уважительно относились к их возможностям и ограничениям.
  • Каруна-сострадание. Сострадание является центральным буддийским идеалом. В контексте ИИ это означает стремление с помощью новых технологий уменьшить страдания людей и других живых существ, а не просто максимизировать прибыль или эффективность.
  • Правильное намерение и этическая ответственность. Основано на принципах Восьмеричного пути: мотивация действий важнее самих технологий, что требует ответственной разработки и применения ИИ.

     

На важный вопрос о возможной субъектности ИИ буддийская психология отвечает, что, поскольку ключом к моральным действиям является намерение (cetana), ИИ не обладает истинным сознанием или волей, он не может генерировать карму в буддийском смысле.

Фото: Аркадий Зарубин/Wikipedia
Фото: Аркадий Зарубин/Wikipedia

Иудаизм: раввинские интерпретации и легенда о Големе

Иудаизм через раввинские интерпретации не склонен преувеличивать значимость угроз от ИИ, но ставит вполне прагматичные вопросы о рисках, связанных с использованием ИИ в конкретных сферах и жизненных ситуациях. Так, легенда о Големе – искусственном существе, оживлённом через мистические практики, – служит иудейским символом этического предостережения: технологии не должны выходить из-под контроля, а создатель должен нести ответственность за последствия.

Рассуждая о границах использования ИИ в медицине, иудаизм использует принцип pikuach nefesh (спасение жизни): технологии должны проектироваться так, чтобы минимизировать опасность для людей, например, в автономных системах принятия решений. Кроме того, иудейские авторы акцентируют внимание на важности сохранения человеческого достоинства: ИИ-системы должны не умалять, а защищать человеческое достоинство, не превращая людей в объекты и не нарушая их право на уважение и автономию.

Что касается свободы воли и субъектности, то иудейская мысль подчёркивает свободу воли как уникальную человеческую черту. Хотя ИИ умеет принимать решения, он не обладает свободой выбора в смысле, присущем человеку, и потому не может быть моральным субъектом в полном смысле этого слова. При этом отдельные еврейские мыслители, такие как П. Гольдшмидт, выражают опасение, что чрезмерное использование ИИ может ослабить человеческую способность к самостоятельному мышлению и принятию решений, что воспринимается как угроза концепции tzelem Elokim – человеческому образу Бога.

Таким образом, практически все религиозные системы и движения сходятся в одном: искусственный интеллект не является моральным субъектом, а этика ИИ – это прежде всего этика человека, который его создаёт и использует. Правда, здесь возникает другой, более давний, но так и не нашедший однозначного ответа вопрос: о свободе воли человека. Ведь если мы отрицаем свободу воли ИИ, перекладывая ответственность за последствия его действий на человека, то этим мы утверждаем свободную человеческую волю, с которой тоже всё непросто в свете актуальных аргументов либертарианцев и представителей аналитической философии.

Кроме того, развитие ИИ-экосистемы может пойти собственным путём, формируя собственные цифровые религии со своими догмами и собственной этикой. Ещё в 2018 году известный программист и один из создателей блокчейн-платформы Augur Мэтт Листон объявил о создании новой религии, которую он назвал «Зеро экс омега», заявив: «Мы повысим уровень индивидуального взаимодействия с религиозной структурой по принципу группового участия в коллективном сознании, где сама структура является богом».

Единственное положение, не вызывающее сомнений, – это то, что ИИ должен быть строго контролируем и работать в заданных пределах, чтобы не нанести вреда человеческой личности и обществу в целом. В то же время важно понимать, что нельзя слишком жёстко ограничивать новую технологию, дабы не убить её развитие в зародыше. Это же касается и этики новых технологий. Так, некоторые исследователи предупреждают, что чересчур жёсткие этические стандарты для всех систем искусственного интеллекта будут означать окончание развития технологии. Кроме того, отмечается сложность формализации этических систем, неопределённость этических критериев решений, принятых искусственным интеллектом в ряде ситуаций. Учёные предлагают для решения этой проблемы обращение к многозначным логикам и так называемой нечёткой логике, которую можно считать некоторым обобщением многозначной логики.

Несомненно одно: вопросы и беспокойства, связанные с развитием и распространением ИИ, будут волновать человечество – как светское атеистическое, так и религиозное – всё больше и больше. Делегирование не только сложных вопросов в конкретной профессиональной области, но и повседневного быта ИИ-агентам может рассматриваться как шаг к ноосфере, так и как этап деградации человека как свободной личности. Религиозные организации, богословы и проповедники будут и дальше углубляться в проблему, разрабатывать тему, предлагать новые подходы и ответы на встающие перед человечеством и верующими вопросы. Но уже сейчас важно зафиксировать стартовые позиции и продвижение на этом пути различных религиозных традиций и организаций.

Читайте также