В центр скандала на минувшей неделе попал телеведущий Андрей Малахов и приглашённая на его программу белорусская певица Алёна Тарасенко. Зрители заметили, что её голос звучит подозрительно похоже на Suno – нейросеть для создания музыки. Комментарии под видео, обвиняющие певицу в использовании ИИ, были удалены, но люди не поленились докопаться до истины и нашли старый комментарий Алёны, где она сама призналась в том, что песню написала нейросеть. Сотни зрителей возмутились: «Нам впаривают ИИ под видом живого артиста, а люди в студии хлопают, кивают и делают вид, что всё так и должно быть». И народный гнев понятен: а если бы зритель заплатил немаленькую сумму за билет на концерт исполнителя, который оказался заменён ИИ-фонограммой? За что платить?
Человек дышит. Дыхание человека неровное, прерывистое. Неровен человеческий голос во время речи и пения: он переключается между регистрами, богато интонирует, играет с тембром и динамикой, усиливаясь и затихая, делает люфты, чтобы взять дыхание и продолжить новую фразу. Нейросеть неживая, она не умеет дышать, в нейросети этой прерывистости нет. Голос певицы на шоу Малахова звучит ровно и слишком гладко, и это первым делом улавливает даже неискушённый слух. Эксперты-музыканты моментально определяют, поёт человек или робот, утверждая, что у нейросетевого голоса есть характерное «механическое» расщепление, которое не спутаешь ни с чем.
Но дыхание чувствуется во всём, что мы делаем, – не только в пении. Живая речь прерывиста: то замедляется, то ускоряется в зависимости от эмоций. Движение мысли так же неравномерно: мы думаем наплывами, потоками, не всегда последовательно, то возвращаемся к одной мысли, то перескакиваем на другую, порой мысль соскальзывает и обрывается и нам приходит в голову что-то ещё. Поэтому так бросаются в глаза тексты, написанные при помощи нейросети: сухие, шаблонные, «механически» логические и с характерным инфантильным «голосом».
«Это не про идеальность. Это про экспрессию»
Один пользователь запрещённой в России соцсети написал: «Устал от ИИ-текстов. Они однообразны. Скучны. Бездушны. Пишите живые тексты. Они другие. Настоящие. Неидеальные».
Люди массово считали иронию: человек пишет, что устал от ИИ-текстов, но его пост выглядит именно так, будто он был сгенерирован нейросетью. В комментариях под этим постом разыгрался настоящий флешмоб живых людей, которые пытались писать в стиле ChatGPT. И получалось до боли правдоподобно и поэтому смешно.
Например:
«Окей. Давай напишем живой текст. Чётко. Без соплей. По фактам».
Или:
«Спасибо, что заметил. И, честно – на это мало кто способен».
Глядя на подобное народное творчество, понимаешь: нейросети не заменят нас никогда. Начитанный человек – непревзойдённый стилист: играя, иронизируя, мы легко считываем характерные интонации речи или текста и «передразниваем» их, чему нейросетям ещё учиться и учиться. Как человек, который очень много общается с ИИ, я могу воспроизвести этот пафосный стилёк даже во сне. Ему свойственна возвышенная интонация, которая усиливается за счёт парцелляций – вот этого «рубления» одного предложения на кучу коротких через точки, из-за чего, когда мы их читаем, возникает ощущение глубокомысленных пауз. А длинные тире, которыми любит злоупотреблять ChatGPT, недавно даже стали темой для дискуссий: некоторые пользователи сети считали, что длинные тире – явный признак того, что текст писала нейросеть. С ними спорили редакторы издательств и медиа, которые используют длинные тире в работе. Я сама автоматически предпочитаю ставить длинные тире. И иногда ловлю себя на том, что переживаю: вдруг мой текст примут за сгенерированный?
Ещё ChatGPT обожает использовать оборот: «Это не про X. Это про Y». Если встречаете его в тексте, будьте уверены: автор применял нейросеть с вероятностью, стремящейся к бесконечности.
В статье от сберовского ИИ-сервиса GigaChat «Как отличить текст, написанный нейросетью» также сказано, что нейросеть может «галлюцинировать», генерируя недостоверные факты, противоречить сама себе, и абзацы у такого текста не перетекают логически из одного в другой, а их можно свободно менять местами. У сгенерированных текстов похожая структура: они абстрактны и полны воды, а также иногда в них встречаются нелепые метафоры вроде «она танцевала, как медуза, выброшенная на берег».
ИИ как соавтор
Всё, что создано нейросетью и используется в каких-то жизненных и коммерческих целях, кажется нам, живым людям, высшей степенью неуважения. Рекламный контент, созданный с помощью ИИ, кажется дешёвкой. Обложка книги, нарисованная нейросетью, – «бездушной». И особенно нас злит, когда мы невооружённым глазом видим «косяки» нейросети, которые живой сотрудник не доработал «ручным трудом»: лишние пальцы, неестественные позы, нереалистичные пропорции и прочие эффекты «зловещей долины»: когда изображение на первый взгляд кажется реалистичным, но при более внимательном рассмотрении оказывается, что в нём есть что-то, чего не должно быть, либо отсутствует нечто обязательное.
Фото: Solen Feyissa/UnsplashПреподаватели вузов и школьные учителя приходят в ужас, проверяя олимпиадные задания выпускников и находя в них такие характерные парцелляции, выдуманные факты и банальные выводы. Они говорят, что использование ИИ в учёбе – это масштабная катастрофа, ведь даже во втором классе, где учится мой сын, школьные доклады родители пишут с помощью искусственного интеллекта. Особенно «палится» ИИ в списках литературы, с «серьёзным лицом» генерируя сотни несуществующих научных трудов несуществующих авторов. Однажды я ради эксперимента попросила ChatGPT посоветовать мне современных немецких авторов, которые пишут автофикшн: из всего списка реально существующих личностей была ровно половина. Каждое имя пришлось проверять вручную.
Редакторы издательств, объявляя опен-коллы, выдвигают строгое требование: «Без использования ИИ». Кстати, в комментариях к постам про опен-коллы всегда находятся авторы, которые вот-вот да и спросят: «А что, ИИ совсем нельзя? Даже чуть-чуть?». Писатели пытаются постепенно примирить читателей с новой реальностью и понемногу внедрять тексты, написанные в соавторстве с ИИ. Среди таких произведений – выходивший в 2024 году в «Альпине» сборник современных российских писателей в соавторстве с YandexGPT «Механическое вмешательство», скандальный роман японки Риэ Кудан «Симпати Тауэр Токио» (Inspiria, 2025), породивший дискуссию о правомерности использования ИИ в творчестве, а также пьеса Василия Сигарева «Придурок», опубликованная в журнале «Урал» (июнь 2025-го) и написанная при помощи ChatGPT в виде диалога героини с нейросетью. Но опыт показывает, что доверия читателей к таким текстам пока мало. Все желают, чтобы работа над произведением от и до была проведена писателем самостоятельно: только тогда его текст будет иметь право на читательскую любовь да и вообще на существование.
Стыдно, когда видно?
Но как на самом деле обстоят дела с применением ИИ? В народе так хейтят применение ИИ, что оно считается чем-то недостойным и стыдным и переходит в подполье. Не берусь говорить за всех писателей, но немало моих знакомых авторов, включая меня саму, применяют ИИ в работе. Мы не делегируем нейросети святая святых, то есть написание текста, потому, что нейросеть попросту пока не умеет писать хорошо и без клише и не способна заменить голос автора. Авторы используют ИИ в основном как критика и советчика: какой сюжетный ход лучше применить, нет ли «дыр» в синопсисе, какие слабые и сильные места в тексте. Также ИИ помогает при первичной ловле «блох» – ляпов и писательских огрехов, прежде чем отправлять рукопись редактору. Естественно, тут нужно помнить, что ИИ никогда полноценно не заменит ни редактора, ни критика. Авторам, которые приходят ко мне на консультации, я настоятельно советую не увлекаться нейросетевыми разборами, а пользоваться ими «в моменте», «на первое время». Однако DeepSeek так глубоко и подробно проанализировал проблемы моих героев, что я чуть не прослезилась: мне казалось, что никто не способен понять этот текст и его героев более точно, как поняла нейросеть. Я даже скопировала себе этот анализ и периодически обращаюсь к нему. То есть иногда это бывает полезным – вопрос лишь в чувстве меры. Чем чаще вы будете обращаться к ИИ за консультацией, тем чаще это будет вас раздражать и тем вероятнее вы будете получать глупые и поверхностные ответы.
Что касается использования ИИ-текста в творчестве – признаюсь честно: однажды у меня был большой соблазн применить в работе текст, сгенерированный ChatGPT. По сюжету, героиня моего произведения работала в московском глянце в эпоху гламура нулевых. Я попросила для вдохновения сгенерировать текст в стилистике женских журналов 2000-х годов, сама придумала тему и задала структуру. Текст получился отличным: ироничным, изящно-остроумным и гламурным, словно читаешь старые колонки Марты Кетро. Я показывала его знакомым писательницам и журналисткам, и все сокрушались, что нейросеть написала такой живой текст, который не отличить от авторской колонки, но кажется неправомерным присвоить его себе и добавить в рукопись.
Юрист по авторскому праву Наталья Левених в своём телеграм-канале ведёт рубрику «Нейросреда», посвящённую использованию ИИ в творчестве писателя. Дела обстоят так, что чёткого правового регулирования по вопросу нейросетей в российском законодательстве сейчас нет. И поэтому говорить о соавторстве с нейросетью можно только в бытовом, а не в юридическом смысле, подчёркивает Наталья. Однако зная, как негативно относятся издательства современной прозы к применению ИИ, и особенно учитывая то, что детектор ИИ-текстов от Сбер GigaCheck идентифицирует ту «глянцевую колонку» как сгенерированную нейросетью, конечно, я откажусь от заманчивой идеи использовать удачную текстовую генерацию в своей книге.
Вывод: преступление или нет?
Читатели не хотят чувствовать себя обманутыми. Они хотят точно знать, был ли написан текст с помощью ИИ, и злятся, когда подозревают автора в этом «грехе». Однако назревает вопрос: если ты автор, которому по тем или иным причинам кажется необходимым делегировать написание фрагмента текста нейросети, то «проканает» ли, если этого никто не заметит? Если автор бесшовно отредактирует текст и убедительно интегрирует сгенерированные фрагменты в рукопись так, что об этом никто не догадается? Или если студент напишет при помощи ИИ текст курсовой, но будет собственными мозгами причастен к её созданию: самостоятельно проработает структуру, будет знать, что должно быть в каждой главе, внимательно прочитает и отредактирует текст? Преступление или нет? Ведь недаром говорят: «Не пойман – не вор».
Юридически – пока можно. А вот где проходит моральная граница – я ещё не знаю. Много думаю об этом. Подумайте и вы.
