ИИ впервые создал вирус

Учёные спорят: эта работа открывает новые возможности или таит неконтролируемые риски?

Бактерии E. coli. Фото: Eric Erbe, digital colorization by Christopher Pooley, both of USDA, ARS, EMU

Бактерии E. coli. Фото: Eric Erbe, digital colorization by Christopher Pooley, both of USDA, ARS, EMU

Впервые учёные из Стэнфордского университета при помощи искусственного интеллекта создали вирусы, нацеленные на уничтожение кишечной палочки E. coli.  Для этого использовались две версии алгоритма искусственного интеллекта под названием Evo. Он работает по принципу уже всем известного ChatGPT. Только вместо текстов Evo должен был проанализировать геномы миллионов бактериофагов – так называются вирусы, которые убивают бактерии. Варианты геномов, выбранные нейросетью, учёные преобразовали в цепочки ДНК и интегрировали их в бактерии в чашке Петри. Из 300 сгенерированных ИИ вирусов десяток оказался эффективным. Эксперимент признали успешным, когда белки начали самособираться в вирус и этот вирус стал уничтожать бактерии.

Кто такие бактериофаги?

Свой эволюционный путь вирусы и бактерии проходят вместе, являясь друг для друга то антагонистами, то мутуалистами. В одних случаях фаговые вирусы ищут различные способы закрепиться на бактериях, чтобы создать как можно больше своих копий. Бактерии, в свою очередь, ищут способы защититься от них. В других фаги внедряют свои гены в хромосомы бактерий, таким образом защищая микроорганизмы не только от других вирусов, но и от антибиотиков, и обеспечивая устойчивость к ним.

Вообще, о фагах стало известно ещё в начале ХХ века, но через несколько лет после их открытия началось массовое производство антибиотиков, и о бактериофагах не то что забыли, но в целом их несколько игнорировали.

По мере развития антибиотиков и широкого их применения стала очевидна и большая проблема, связанная  с тем, что бактерии научились противостоять этим препаратам. Сегодня антибиотики широко применяются не только в медицине, но и в пищевой промышленности, сельском хозяйстве. Дополнительный вклад в эту проблему вносит и каждый конкретный человек – когда бросает на полпути курс антибактериальной терапии или безосновательно назначает себе лечение антибиотиками. А в результате совокупного использования этих препаратов мы получаем бактериальные инфекции, которые трудно, а иногда и невозможно лечить.  

Не случайно сегодня всё чаще говорят о супербактериях – микроорганизмах, которые не реагируют на антибактериальные препараты. Та же кишечная палочка E. coli – она постоянный обитатель кишечной микрофлоры, которая помогает пищеварению. Но при неправильном употреблении антибиотиков она мутирует и может вызвать воспалительные процессы, на которые не действуют препараты.

Какие перспективы?

Исследователи полагают, что генетически модифицированные бактериофаги – это будущее медицины. Во-первых, это реальная возможность бороться с резистентными к антибиотикам бактериями, при этом не затрагивая клетки человека. А если бактериофаги дополнить возможностями ИИ, то таким образом появляется возможность прицельно воздействовать на конкретного возбудителя и повысить эффективность лечения.

Множественные бактериофаги, прикрепленные к клеточной стенке бактерии. Фото: Professor Graham Beards
Множественные бактериофаги, прикрепленные к клеточной стенке бактерии. Фото: Professor Graham Beards

Кроме того, бактериофаги могут использоваться для разрушения бактериальной биоплёнки на различных поверхностях – так фаговые ферменты могут войти в состав средств для стерилизации продуктов питания и медицинских приборов. Могут быть созданы и кремы для лечения кожных инфекций.

Какие риски?

Фаготерапия обладает огромным потенциалом, но только если использовать правильные вирусы для атаки на бактериальную инфекцию.

Правильными являются литические вирусы – это как раз те, которые вторгаются в репродуктивные процессы бактерий, чтобы воспроизводить свои копии.

Но есть и неправильные, которые представляют опасность и для инфицированных пациентов, и для общей микробной среды. Речь идёт о лизогенных фаговых вирусах, которые проникают в бактерию и не уничтожают её, а встраиваются в её хромосому. Таким образом они побуждают бактерии проявлять новые свойства, в том числе устойчивость к другим вирусам и антибиотикам.

Более того, в процессе интеграции в бактерию фаговые вирусы становятся обладателями её ДНК и при размножении передают эти кусочки другим бактериям, делая их более патогенными для человека.

Так что если фаготерапия не проводится должным образом, её использование может вызвать устойчивость к фагам и антибиотикам и только усугубить существующую проблему резистентных бактерий.

– Бесплатных обедов в природе не бывает, – говорит Джонатан Аномали, академический исследователь из Университета Пенсильвании. – В отличие от антибиотиков широкого спектра действия, фаги имеют тенденцию нацеливаться на специфические бактерии. И если пациенту поставлен неправильный диагноз, или выбран неправильный коктейль, или механизм доставки не работает, то вылечить не получится.

Есть и более глобальные риски. Неизвестно, как поведут себя искусственно созданные бактериофаги и какое влияние будут оказывать на отдельные микроорганизмы и микробиом в целом.

Нельзя исключать и намеренное использование опасных патогенов.

В исследовании, о котором идёт речь сегодня, не случайно была выбрана кишечная палочка: учёные специально оговаривали, что выбран вирус, безвредный для человека.

Но многим очевидно, что сначала необходимо  установить этические и правовые нормы, чтобы объектом экспериментов не стал вирус сибирской язвы или какой-либо ещё смертельно опасный патоген.  

Именно эту мысль примерно год назад высказала целая группа учёных, опубликовав призыв ограничить использование ИИ в подобных областях. «Мы предлагаем национальным правительствам, включая правительства США, принять законы и установить обязательные правила, которые не позволят передовым биологическим моделям внести существенный вклад в возникновение масштабных опасностей, таких как создание новых или усовершенствованных патогенов, способных вызывать крупные эпидемии или даже пандемии». Один из экспертов в области ИИ Пол Пауэрс писал, что развитие искусственного интеллекта происходит быстрее, чем ожидалось. Он подчеркнул, что регуляторы не успевают за развитием искусственного интеллекта, и предложил начать с контроля за доступом к основным компонентам, необходимым для создания потенциально опасных патогенов.

Но в этот раз наука опередила этику.

Читайте также