Не пойман – не бот?

Российские учёные разработали метод выявления роботов в социальных сетях – тех «ботов», которые маскируются под людей и используются для искусственной накрутки рейтингов и написания «нужных» комментариев

Фото: mos.ru

Фото: mos.ru

Чем бот отличается от живого человека, «Столу» рассказал один из разработчиков метода, младший научный сотрудник Санкт-Петербургского Федерального исследовательского центра РАН Максим Коломеец.

– Вы ставили перед собой какие-то конкретные задачи, когда начинали исследование? 

 –  Мы занимаемся этим исследованием с 2018-го года. Изначально проект был направлен на выявление и анализ информационных атак в социальных сетях (распространения дезинформации, манипуляции мнением и т.п.), но сейчас мы сосредоточились на характеризации ботов, потому что сегодня именно они являются важным инструментом работы сети. Я занимаюсь классификацией видов ботов и проблемами их обнаружения. Это часть общей концепции защиты социальных сетей. 

Младший научный сотрудник Санкт-Петербургского Федерального исследовательского центра РАН Максим Коломеец. Фото: spcras.ru

–  Как понять, комментарий написан ботом или человеком? 

– Это зависит от типа бота. Наше исследование отличается тем, что мы считаем ботами не только аккаунты, которые управляются машинами. Мы рассматриваем различные виды ботов, которые могут иметь отличные друг от друга стратегии создания и управления, включая управление человеком. Самый простой пример – это биржи, где пользователям платят деньги за комментарии. Поэтому обычный человек вряд ли сможет обнаружить такого бота на глаз, тем более по небольшому фрагменту текста. Мы же специально обучили нейросеть, создав группы в социальных сетях и пустив туда ботов разного типа, как автоматизированных, так и управляемых реальными пользователями.

Точность распознавания ботов нашей программой варьируется от 60 до 90% при 5–10% ложных срабатываний. Кроме того, мы можем оценить качество бота и примерно рассчитать стоимость атаки. Сами по себе услуги ботов очень дешёвые. На российском рынке большинство предложений варьируется от 10 копеек до 5 рублей в зависимости от социальной сети, качества бота и совершаемого им действия. Таким образом, итоговая стоимость атаки зависит от масштаба: количества ботов, их качества и совершаемой активности. В этом плане наш проект поможет бизнесу эффективно реагировать на атаки. 

– И всё же какие признаки указывают на то, что перед нами бот, а не человек? 

– Если кратко, то обнаружение бота сводится к обнаружению аномалий в поведении аккаунта. Люди, сами того не осознавая, подчиняются естественным законам, которые проявляются в тональности речи, а также особенностях взаимодействия. Боты с различной степенью успешности пытаются имитировать эти естественные законы, чтобы быть похожими на людей и вызывать доверие. И уже по «отклонениям от естественности» искусственный интеллект принимает решение, является ли аккаунт ботом. Простейший пример такого отклонения – это различие в структурах сети друзей. У реальных пользователей друзья – это несколько пересекающихся сильно связанных сетей (родственники, одноклассники, коллеги по работе и т.п.). К тому же с каждой группой пользователь имеет некоторую корреляцию: друзья с одного города, одного возраста, один уровень образования и т.п. Мы рассчитываем множество характеристик такой сети, и искусственный интеллект принимает решение, предварительно обучившись на реальных пользователях и ботах. 

Конечно, бот может попытаться имитировать структуру друзей, но на практике соблюсти сразу множество параметров крайне тяжело, в то время как у пользователей такие структуры образуются естественным образом. В целом решение будет приниматься по нескольким сотням параметров.

Также мы обращаем внимание на активность ботов в соцсетях и то, как они взаимодействуют друг с другом и другими пользователями. Таким образом, мы анализируем общие входные данные о ботах, которые есть в любой социальной сети. Поэтому в отличие от других подходов, которые основаны на анализе текста, профиле бота и сгенерированного контента, у нас есть ряд преимуществ: нашей программе не важен язык, на котором написан комментарий бота. Кроме того, у нас есть возможность анализа скрытых учётных записей. 

– Что на данный момент не умеют боты? 

– Им сложнее всего создавать контент и формировать естественные структуры взаимоотношений. Теоретически они уже могут это делать с помощью искусственного интеллекта: это и генерация изображений, и ведение диалогов, и создание профилей поведения бота. Но это слишком дорого и не очень надежно, поэтому может применяться только в специфических атаках. Скорее всего, боты будут идти в сторону большей автоматизации по мере развития методов машинного обучения.

Фото: Kaspars Grinvalds/Shutterstock/FOTODOM

Если говорить не теоретически, а исходя из наблюдаемых трендов, куда большую опасность представляет всё большее распространение ботов за пределами классических социальных сетей. Это и новостные сайты, где боты могут оставлять комментарии, и маркетплейсы, где боты могут накручивать отзывы на товары, и даже сервисы знакомств, где они могут заниматься шантажом. Словом, любые сервисы, в которых присутствуют социальные функции.

– Как, на ваш взгляд, обстоят дела с атаками ботов в мире и в России? 

– Эта проблема актуальна для всех стран. Схожие исследования ведутся и в Америке, и в Европе, и даже в Африке. Конечно, наибольший толчок направлению дали политики, которые стремятся защитить электоральные процессы. Россия по этой причине считается одной из стран с наиболее развитым рынком ботов.

Читайте также