ИИ теперь может находить владельцев скрытых аккаунтов в соцсетях

10.03.2026, 13:14 , Евгений Жегулов

Искусственный интеллект, который широко рассматривается как удобный инструмент для выполнения рабочих задач и поиска информации, также демонстрирует потенциал в области деанонимизации. Согласно результатам недавнего исследования, крупные языковые модели способны существенно облегчить процесс выявления владельцев анонимных аккаунтов в социальных сетях.

Функционирование данной технологии основывается на анализе текстов, опубликованных в анонимных профилях, с целью выявления характерных особенностей и последующего сопоставления с информацией, доступной на других платформах, где пользователь может быть идентифицирован под своим реальным именем или с меньшей степенью анонимности. В ходе тестирования методика продемонстрировала высокую эффективность.

Авторы исследования, Саймон Лермен и Даниэль Палека, подчеркивают, что применение больших языковых моделей делает подобные атаки не только технически осуществимыми, но и экономически целесообразными. Это обстоятельство вызывает необходимость пересмотра подходов к обеспечению конфиденциальности в цифровом пространстве. В рамках эксперимента исследователи использовали модели для анализа содержания анонимных аккаунтов и сопоставления выявленных деталей с открытыми источниками информации.

Примером, иллюстрирующим возможности технологии, может служить ситуация, когда пользователь описывает проблемы в школе и прогулки с собакой по кличке Бисквит в парке Мишен Долорес. Для системы искусственного интеллекта данная информация может служить основой для идентификации личности. Модель осуществляет поиск совпадений в других источниках и с высокой вероятностью устанавливает связь между анонимным аккаунтом и конкретным человеком.

Исследователи обращают внимание на потенциальные риски, связанные с использованием данной технологии. Она может быть применена не только злоумышленниками, но и государственными органами для мониторинга деятельности активистов и других лиц, выражающих свои мнения анонимно. Для киберпреступников это предоставляет возможность проведения персонализированных атак, таких как фишинг, когда текст сообщения представляется как исходящий от знакомого человека.

Технология искусственного интеллекта делает массовый сбор данных с помощью открытых источников (OSINT) более доступным. Ранее этот процесс требовал значительных временных затрат, специальных навыков и терпения. Теперь для его осуществления достаточно публично доступных моделей и доступа к интернету, что вызывает обеспокоенность среди специалистов по кибербезопасности. Однако авторы исследования отмечают, что системы искусственного интеллекта не являются абсолютно надежными. Крупные языковые модели могут допускать ошибки и генерировать вымышленные данные, что может приводить к ложным совпадениям, особенно в контексте политических дискуссий или публичных обвинений.

Для минимизации рисков деанонимизации рекомендуется ограничить массовый сбор данных платформами. Это может включать введение лимитов на экспорт информации, мониторинг автоматического скрейпинга и контроль за экспортом данных. Пользователям следует проявлять осторожность при размещении личной информации в открытом доступе.