Питерские ученые натренировали нейросеть выявлять нежелательные боты в соцсетях

Материал из Викиновостей, свободного источника новостей
Перейти к навигации Перейти к поиску

22 августа 2021 года

Бот

Сотрудники Санкт-Петербургского федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН) обучили нейронную сеть выявлять в социальных сетях группы вредоносных ботов через анализ публичных данных о них, независимо от того, на каком языке они пишут посты и комментарии.

Данный подход может использоваться компаниями, которые используют соцсети в коммерческих целях, для выявления и противодействия информационным атакам. Результаты исследования опубликованы в международном журнале JoWUA.

Программа поможет выследить бота по неявным «социальным связям». При этом программе будет абсолютно неважно, на каком языке и в какой социальной сети придется работать — от сможет легко подстроиться под любую из них.

Ведущий научный сотрудник СПИИРАН Андрей Чечулин прокомментировал:

«Проблема в том, что в мире существует большое количество соцсетей, все они отличаются друг от друга и содержат информацию на разных языках. Однако мы разработали прототип системы для контроля над групповой деятельностью ботов на основе анализа общих входных данных о самих ботах, который не зависит от языка общения и структуры соцсетей. Такие данные присутствуют в любой соцсети, исходя из принципа ее работы.»

Точность распознания варьируется от 60 % до 90 %, а на лживые срабатывания приходятся 5-10 %. Зависеть это будет от заполненности социальной сети ботами. Что же касается сложных программ, которые интеллект не сможет распознать, то тут тоже все продумано — проверка всех аккаунтов проводится регулярно и в одну из них бот точно даст о себе знать.

Младший научный сотрудник СПб ФИЦ РАН Максим Коломеец объяснил:

«Обмануть систему можно, создав очень реалистичный аккаунт. Однако со временем в нем все равно накопится достаточно аномалий, которые наше средство сможет обнаружить. Точность распознавания варьируется от качества ботов - от 60% до 90% при 5-10% ложных срабатываний.»

Метод, созданный учеными СПб ФИЦ РАН, может не только определять ботов, но и оценивать их качество и примерно рассчитать стоимость атаки. Эти данные могут использоваться для расследования инцидентов безопасности.

Например, если в аккаунте соцсети какого-нибудь ресторана оставлена масса негативных комментариев. Новый метод поможем выявить, боты их оставили или реальные люди. В случае, если комментарии оставили боты, ресторан поймет, что на него осуществляется атака.

Кроме того, программа может определить качество и возможности ботов и понять, сколько денег было вложено в эту атаку. Исходя из этих данных, бизнесу будет проще принять меры чтобы эффективно отреагировать на инцидент.

Источники[править]


Комментарии[править]

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.