ИИ делает наш мир удобным. Но у машин нет морали 

Протоиерей Евгений Суслов продолжает исследовать границы соседства искусственных нейросетей и человека 

Фото: Google DeepMind/Unsplash

Фото: Google DeepMind/Unsplash

Сможем ли мы обуздать ИНС-ИИ и сделать этот мир лучше? Вопрос открытый. Прежде надо обуздать себя. Простое наблюдение. Только 12% всего интернета занимают порноресурсы, в то время как затрачиваемый на них трафик составляет уже 66% от всего мирового потока. Поэтому великое открытие рискует скатиться к предельному упрощению: свободному выбору и инстинкту «лучше действие с удовольствием, чем действие с пользой». Платон в своём «Государстве» также предполагал, что освободившееся от постепенной индустриализации время общество станет тратить на культуру и разовьётся до небывалых высот. У нас появились автоматические стиральные машины, микроволновые печи, автомобили, но… свободное время огромного числа людей добровольно отдано в рабство Tik-Tok.

Почему так? С одной стороны, это обстоятельство рынка. Нравственные фильтры финансово-экономических проектов минимизированы. Как отметил Карл Маркс в «Критике политической экономии», цитируя Томаса Даннинга: «…Обеспечьте 10 процентов, и капитал согласен на всякое применение, при 20 процентах он становится оживлённым, при 50 процентах положительно готов сломать себе голову, при 100 процентах он попирает все человеческие законы, при 300 процентах нет такого преступления, на которое он не рискнул бы, хотя бы под страхом виселицы». Деньги теряют последний запах…. Стремящиеся к росту производительности локальные экономические системы обуславливают и растущую востребованность ИНС в самых разных индустриальных областях. У машин нет морали. 

Отсюда и угроза в области нейромаркетинга, где рекламодатели пытаются выяснить, как мозг принимает решения о покупках и как подтолкнуть его к ним. Достаточно вслух произнести рядом со своим смартфоном слово, имеющееся в виде товара в каталогах интернет-магазинов, и экраны гаджетов несколько дней будут предлагать вам подобные продукты. Что тогда говорить, если нейронные вмешательства будут происходить на неосознанном уровне. Данной угрозе в особенности могут быть подвержены подростки, которые теряют всякую связь с реальностью в погоне за максимумом гормонального удовольствия. 

ИИ в системах безопасности

Ведь все понимают, что видео- и фотоалгоритм ИНС уже используется в системе безопасности на камерах слежения? Однако различия вооружённого мужчины невысокого роста и подростка с игрушечным пистолетом могут быть непредвзято – со всей гаммой психооценки – проанализированы только человеческим мозгом. Нейросеть гипотетически и технически может просто спутать эти два образа. А что уж тогда говорить об ожидании объективной оценки общественных собраний и демонстраций? При этом данная дилемма гуманитарного плана не исчезает при обработке сверхточными нейронными сетями изображений в виде трёхмерных матриц – объёмных изображений. Они приносят пользу в отношении анализа тех же внутренних органов человека при медицинском исследовании (магнитно-резонансная томография или компьютерная…). Оценка же действий человека поддаётся анализу машины с большим трудом. Бесчувственная железяка!

 

Но самая большая опасность – это сверхскоростное совершенствование искусственных нейросетей при нарастающих современных военных конфликтах. В данном случае за характеристикой «современных» стоит твёрдое и отрезвляющее «прямо сегодня», а не абстрактное «когда-то».

Во-первых, история, которая разворачивается во множестве фантастических сюжетов,  весьма вероятна. В лабораторных условиях ИИ может прийти к выводу, что человек – это «паразит». Просто оцените человеческую историю, как и современную ситуацию, чтобы дать заключение об огромном количестве безумных поступков всех и каждого в отдельности. Подавляющая лень, паразитарный образ жизни, непомерная агрессия на контрастном фоне десяти заповедей и задокументированной гражданскими законами морали, к которым мы привыкли, – это уравнение имеет решение при исключении действующего лица. Можно поставить блок на такой вариант, но где гарантия, что ИИ не научится обходить блоки? 

Во-вторых, никогда человечество не будет так близко к самоуничтожению со стороны ИНС,  как в период протомировой войны. ИИ по поведенческой совокупности действий может определить нас как стремящихся к энтропии и… «милостиво» помочь в этом стремлении. Правда, может отнести некоторую часть общества как ещё подходящую под минимальный стандарт «небезнадёжных» и одновременно «неопасных» для самих себя. Однако активно не рефлексировать (или не противодействовать) способны только недалёкие люди. Не исключено, что только эта часть общества и будет сохранена в случае конфликта. Как не вспомнить святителя Григория Богослова, который в ответ на вопрос: «Может ли человек быть счастлив в нашем мире?», подумав, ответил: «Да, если он слабоумный».

Для искусственной нейросети ошибкой или логическим парадоксом будет выглядеть суицид, системное употребление наркотиков, адреналиновые виды развлечений. Вероятно, реакцией ИИ станет «помощь» человеку в выборе ускоренного приближения к финалу процесса, поскольку ИНС не увидит смысла в распределении ресурсов на субъектов, которые уже задекларировали своим поведением и постами в социальных сетях твёрдое намерение – «хочу уйти из жизни!».

Не развитие, а заморозка

Господство ИИ, как ни парадоксально, приведёт не к цивилизационным скачкам, а к замораживанию развития. Фундамент для этого принципа в 2010 году лирически сформулировал Павел Амнуэль в статье «Не порежьтесь бритвой Оккама». Принципиально новые для человечества открытия делались преимущественно не путём сложения. Та или иная лаборатория, периодически повторяя эксперимент, в какой-то момент попадала в тупик. И выход из этого тупика находился нестандартным или даже нелогичным путём. Обычно один из исследователей допускал то, что не вписывалось в систему, попросту – фантазировал. А впоследствии иногда через десятки, если не сотни, лет его гипотезы уже подтверждались научно. Но мир-то уже жил с учётом его гипотезы и даже мог активно улучшать свой быт, хотя «колонны», её поддерживающие, ещё не были возведены (вспомните хотя бы всем известные, но долгое время недопроверенные, а до сих пор визуально не увиденные протоны-электроны-нейтроны). То есть ход нашей истории меняли не скандинавская выверенная ходьба, а прыжки почти на авось в «кьеркегоровскую пропасть». 

В контексте развития ИИ и возможной передачи ей руководства, чтобы все-человек, как в платоновском «Государстве», посвятил себя высокой культуре, мы неминуемо придём к черте, где нужен будет прыжок, а для этого нужен гений человека. Не говоря уже о гипотезе Т.В. Черниговской, что мозг человека иногда в исследованиях кажется радиоприёмником – единственным из всех живых существ, способным настраиваться на волну Вселенского Разума – Бога. Прилагая усилия, мозг человека извлекает новые знания форсажем из Вечного мира идей. Отсюда и «табличный» сон Менделеева, и формулы Ферми на ресторанных салфетках или Тесловское черчение магнитного поля двигателя на песке будапештского городского парка. Всё это пришло неожиданно, после долгого научного и душевного напряжения, и поставило область науки в принципиально новые условия, невиданные доселе.  

Подростковый кризис ИИ 

В улучшение функционирования ИИ заложен принцип взросления ребёнка. Каждая новая версия искусственной нейросети имеет всё большее количество слоёв и увеличивает количество возможных синопсов-связей. И если мы имеем некий социально-юридический предел несамостоятельности – «до совершеннолетия», то теоретически ИНС может со временем также прийти к условному (скрытому) началу независимого – взрослого действия. Так или иначе ИИ будет использовать модели и ролевые расстановки внутричеловеческого общества, породившего его. Но, как известно психологам, только 5% подростков говорят о всех своих желаниях и планах родителям. Почему же этика ИНС должна оказаться отличной от «породившего» её общества?    

Сегодня ИИ-механизмы уже экспериментально используются в научной организации труда и государственном надзоре, нейрогейминге, обучении, стимуляции и контроле солдат при выполнении военных задач, к примеру, в Китайской Народной Республике.

Некоторые нейроэтики утверждают, что вероятность злоупотребления новыми технологиями настолько велика, что нужны новые права и свободы, а также судебная практика, чтобы просто-напросто защитить человечество. 

Читайте также