Особенно актуальна проблема этики ИИ, связанная с ситуациями, в которых машина, наделённая ИИ, способна самостоятельно принимать важные решения, влияющие на экономику, быт или даже здоровье человека. Для решения этой проблемы необходимо ответить на вопрос: можно ли возлагать на сложные технические системы с ИИ риски, связанные с принятием важных решений, чья и какой будет ответственность за возможные ошибки и последствия? И, наконец, самый важный для религии вопрос: какое влияние окажет массовое использование и делегирование задач от человека к ИИ на человеческую личность? И не подменит ли ИИ человека? Как относиться к ИИ – творению не Божьему, но человеческому?
Католицизм. Сотрудничество с техногигантами и продвижение Algorethics
Католическая церковь, как и почти по всем вопросам, находится в авангарде обсуждения актуальных проблем. В 2020 году Папская академия жизни и главы крупнейших ИТ-корпораций (Microsoft, IBM и др.) подписали «Римский призыв к этике ИИ», который, по словам архиепископа В. Пальи (Vincenzo Paglia), президента Папской академии жизни, подписавшего документ от Святого Престола, стал «первой совместной попыткой соединить в формулировках критерии этики с бытовыми представлениями о ценностях».
В документе акцентируется внимание на необходимости обеспечить прозрачность моделей ИИ и обеспечении деятельности моделей ИИ исключительно в интересах человеческой личности, оставляющих свободному индивиду возможность для самовыражения и саморазвития. Римская церковь отметила и такие волнующие общественность вопросы, как обеспечение нейтральности ИИ во взглядах и оценках, исключающей дискриминацию и гарантирующей уважение человеческого достоинства, а также соблюдение нейросетями и людьми, их контролирующими, приватности и неприкосновенности частной жизни. При этом самый важный вопрос – вопрос ответственности – остаётся на разработчике и владельце нейросети, что лишает ИИ права на субъектность.
В соответствии с генеральной линией папы Франциска, католических иерархов прежде всего беспокоит влияние новых технологий на дискриминацию в обществе, их способствование углублению имущественного и социального расслоения. Сам покойный понтифик отмечал, что бесконтрольное внедрение интеллектуальных систем, позволяющих контролировать ментальные и поведенческие привычки людей в политических или коммерческих целях (часто без их ведома), рискует усугубить социальные противоречия, поскольку уже сегодня пользователи интернета и ИИ-систем сведены до положения потребителей, обслуживающих частные интересы «немногих избранных, знающих о нас всё, тогда как мы о них не знаем ничего».
Это стало продолжением другой линии папы Франциска, восходящей ещё к папе Павлу VI, о том, что наука должна осознать и признать собственные границы.
Папа римский Франциск. Фото: Casa Rosada/WikipediaКроме «Римского призыва» Ватикан продвигает концепцию Algorethics – этики алгоритмов, основанной на прозрачности, справедливости и подотчётности.
Основные положения концепции следующие:
- Принцип достоинства человеческой личности (imago Dei). ИИ не должен подменять или обесценивать человека – человек важнее технологии. ИИ не обладает личностью, совестью или моральной ответственностью, а является лишь инструментом.
- Принцип ответственности создателя. Ответственность за решения ИИ всегда несут люди – разработчики, владельцы, государства. Перекладывание вины на техническую систему недопустимо. Особенно это касается автономных систем в военной сфере.
- ИИ должен служить общему благу (помощь в медицине, образовании, выполнении рутинных рабочих операций), а не максимизации прибыли его создателей. Недопустимо использование ИИ для тотального наблюдения и контроля над людьми, манипуляции сознанием.
- Принцип прозрачности и истины. Недопустимо использование технологий по принципу «чёрного ящика» – влияние на жизнь и судьбы людей без объяснений, генерация с помощью ИИ лжи, дипфейков и т.д. Истина является моральной категорией, а значит, технологии, искажающие реальность, недопустимы.
- Принцип ограничения ИИ в сфере морали и духовности. ИИ может помогать в поиске информации, но не может быть духовным авторитетом. ИИ не может исповедовать, отпускать грехи, заменять пастыря, поскольку молитва, совесть, любовь, покаяние не поддаются алгоритмизации.
Православие: воздействие через власти
Восточные церкви, в частности РПЦ, пока более осторожны (или отстают от актуальных вопросов). Но и в Московском патриархате создана объединённая рабочая группа Синодальной комиссии по биоэтике и Технического комитета 164 «Искусственный интеллект» по вопросам предотвращения угроз негативного влияния ИИ на духовно-нравственные ценности, первое заседание состоялось 17 декабря 2025 года. Сопредседателями комиссии стали секретарь Синодальной комиссии по биоэтике протоиерей Александр Абрамов и и.о. директора Всероссийского института научной и технической информации (ВИНИТИ) РАН, председатель Технического комитета по стандартизации ТК 164/МТК 566 «Искусственный интеллект» С.В. Гарбук.
Священник Александр Абрамов отметил, что вклад Синодальной комиссии по биоэтике в деятельность объединённой рабочей группы по стандартизации вопросов, связанных с предотвращением угроз негативного влияния ИИ на духовно-нравственные ценности, может состоять в «предложении нравственного подхода, связанного с многовековыми традициями Церкви». В свою очередь С.В. Гарбук отметил, что особенностью современных технологий ИИ, основанных на методах машинного обучения, является высокая субъективная правдоподобность выдаваемых результатов для человека. Это правдоподобие влечёт за собой зачастую не подкреплённое объективными техническими основаниями доверие к системам ИИ.
В этом видится кардинальное различие в методах Ватикана и Данилова монастыря. Если Римская церковь налаживает сотрудничество с техногигантами, стремясь совместно разработать необходимые этические нормы, Русская церковь предпочитает действовать через государственные органы и установленные сверху обязательные для всех стандарты.
Кроме того, РПЦ разграничивает этику ИИ и этику ИИ-сферы. С точки зрения иерархов РПЦ, поскольку ИИ – инструмент, созданный человеком, он не может являться моральным субъектом и не имеет собственных сознания и этики. В январе 2026 года свящ. Александр Абрамов подчеркнул, что «этика ИИ – само по себе сочетание бессмысленное. У искусственного интеллекта не может быть этики, как не может быть этики у очков. А вот этика в области искусственного интеллекта, именно так называется национальная комиссия, имеет глубокий смысл. Это и этика разработчика, и этика тех решений, которые вкладываются в машину». Отдельный вопрос об одухотворённости ИИ. Священник Александр Абрамов категоричен в в этом вопросе: раз ИИ – не творение Божие, то и души у него быть не может. А следовательно, он не может быть ответственен за решения, требующие морального выбора: «Такое невозможно ни при каких обстоятельствах. Ни при каких обстоятельствах о душе у искусственного интеллекта речи быть не может… Душа дана человеку и только человеку Богом, и никаких других вариантов здесь быть не может. Здесь уже есть подмена: как у интеллекта может быть душа и при чём здесь душа, вообще говоря? Это или сознательный обман, или добросовестное заблуждение. И в том и в другом случае это не имеет отношения к реальности», – отметил Александр Абрамов.
Что касается других православных церквей, то в мае 2025 года патриарх Константинопольский Варфоломей выразил уверенность, что человека как образ Божий нельзя заменить машиной. Более того, по мнению патриарха Варфоломея, нет ничего священнее человека, а технологический прогресс должен оставаться человекоцентричным, а не «роботократическим». В свою очередь глава Кипрской церкви архиепископ Георгий в интервью Greek News Today подчеркнул, что «истинный прогресс измеряется защитой человеческого достоинства, а не только техническими возможностями, и важно задавать вопрос не “что технология может делать”, а “что она должна делать”».
Фото: scbioethics.ruПри этом православные богословы отмечают, что новые технологии не нейтральны духовно, поскольку влияют не только на образ жизни, но и на сознание людей. Основные угрозы, исходящие от бесконтрольного использования ИИ, православные иерархи связывают с перспективой разрушения или полной утраты межличностного общения и – более того – потерей смирения и свободы.
Протестантизм: плюралистичный прагматизм
Протестантский подход ожидаемо отличается разнообразием и максимальной прагматичностью. А одной из наиболее обсуждаемых сфер относительно ИИ оказалось здравоохранение и возможность применения нейросетей в работе врачей. Здесь протестантские мыслители указывают, что «умные технологии» могут быть инструментом улучшения жизни и уменьшения страданий, однако этические вопросы должны оцениваться не только с утилитарной точки зрения, а через богословское представление о служении и человечности. Так, А.Л. Ридер (Adriaan L. Rheeder) указывает, что «ИИ, когда он этично реализован, может служить инструментом Царства Божьего, способствуя улучшению жизни, облегчая страдания и продвигая Божьи искупительные цели в мире. Церковь призвана критически и конструктивно взаимодействовать с ИИ, гарантируя, что его использование отражает ценности Евангелия и способствует процветанию всего творения».
Кроме того, на уровне религиозных организаций Швейцарский евангелический альянс в июле-августе 2025 года подготовил доклад по этике ИИ «Сообщество и цифровизация: искусственный интеллект (ИИ) в церкви» (Gemeinde & Digitalisierung: Künstliche Intelligenz (KI) in der Kirche), где подчёркивается «необходимость этичного использования ИИ, акцентируется внимание на ценностях честности, целостности и любви к ближнему как фундаментальных ориентирах для разработки и применения технологий. Кроме того, авторы доклада призывают христиан участвовать в формулировании правил, чтобы ИИ служил благу людей и обществу».
Российские протестантские общины пока не выступали с публичными заявлениями касательно развития новых технологий и этики ИИ. Однако в январе 2024 года в программе «По всему миру» на сайте protestant.ru протестантский пастор отметил, что стремительное развитие технологий является предметом дискуссии внутри христианской среды.
Ислам: ИИ как инструмент через призму шариата
Исламская традиция не наделяет ИИ моральным статусом или субъектностью, а рассматривает «умные» технологии как часть техники и инструмент, а ответственность всегда остаётся за человеком-разработчиком и пользователем. В исламской этике технологии рассматриваются через призму целей Шариата (maqāsid al-Sharīʿah) – сохранения веры, жизни, разума, потомства и имущества. Эти цели помогают оценивать, служит ИИ благу людей или приносит вред (принцип la darar wa la dirar).
Поскольку ключевой этической категорией в исламе является ответственность человека перед Богом, то моральную ответственность за действия ИИ – инструмента в руках человека – несёт человек. Кроме того, принцип amānah (ответственное отношение к доверенному) накладывает обязанность использовать ИИ на благо, избегая злоупотреблений.
