В Telegram обнаружили создающие порнографические дипфейки чат-боты

Материал из Викиновостей, свободного источника новостей

21 октября 2020 года

Фальшивые изображения более чем 100 тыс. «обнажённых» женщин были созданы из фотографий в соцсетях при помощи искусственного интеллекта и распространены в чат-ботах Telegram. Об этом пишет BBC со ссылкой на компанию по кибербезопасности Sensity. Некоторые из затронутых людей оказались несовершеннолетними.

I'm not linking to the bot, because I'm not a dirtbag, but many of the fake nudes are sadly convincing. The original photos came from unsuspecting women's selfies, Instagram and TikTok accounts. And some of those targeted were girls younger than 18 https://t.co/d3rbIb9g5F

— Drew Harwell (@drewharwell) October 20, 2020

Для создания изображений боты используют технологию DeepNude, которая с помощью нейросетей может убирать одежду с фотографии, дорисовывая вместо неё части обнажённого тела. Получаются deepfakes. В BBC проверили с согласия испытуемых несколько изображений: ни одно из них не вышло полностью реалистичным, а иногда ошибки были довольно серьёзными, например, пупок отображался между животом и грудью.

Приложение DeepNude появилось летом 2019 года. Сервис закрыли, однако, уже спустя сутки: создатели заявили, что «мир ещё не готов к DeepNude», так как слишком высока вероятность злоупотребления им. Но позднее исходный код программы появился в интернете в открытом доступе на торрент-трекерах.

Нынешний чат-бот получил широкую рекламу во «ВКонтакте», а около 70% пользователей оказались россиянами и жителями стран бывшего СССР. В ходе опроса в одном из каналов большинство людей (63%) заявили, что используют сервис для создания порнографических изображений своих знакомых; 16% загружают туда фотографии знаменитостей, 7% — фото случайных людей из интернета.

Эксперты Sensity опасаются, что фейковые изображения в будущем могут использовать для шантажа, унижения и дискредитации девушек. «Будем реалистами: движущими силами такого рода исследований ИИ почти всегда являются мужчины, а жертвы таких исследований — почти все женщины. Были бы  мужчины такими надменными, если бы это дерьмо происходило с ними, а не с какой-то женщиной с улицы?», — написал у себя в Twitter журналист The Washington Post Дрю Харвелл, который находит фальшивые картинки достаточно правдоподобными.

Специалисты Sensity заявили, что передали результаты исследования администрации Telegram и «ВКонтакте», но не получили ответа. Однако представители «ВКонтакте» рассказали, что письма им не приходили и они свяжутся с компанией сами. Они также заверили, что выступают против такого контента и публикаций ссылок на ресурсы с ним: «Наша команда блокирует сообщества, которые распространяют таких ботов. Мы проведём дополнительную проверку и заблокируем сообщества, которые нарушают правила».

Автор книги Deep Fakes and the Infocalypse Нина Шик рассказала, что правовые системы пока не готовы решить вопрос с deepfakes и что юридическая защита играет с технологиями в догонялки. По её словам, общество меняется быстрее, чем можно представить, и люди ещё не придумали, как регулировать такие вещи.

Ссылки[править]

Источники[править]

Эта статья загружена автоматически ботом NewsBots и ещё не проверялась редакторами Викиновостей.
Любой участник может оформить статью: добавить иллюстрации, викифицировать, заполнить шаблоны и добавить категории.
Любой редактор может снять этот шаблон после оформления и проверки.

Комментарии[править]

Викиновости и Wikimedia Foundation не несут ответственности за любые материалы и точки зрения, находящиеся на странице и в разделе комментариев.