Интернет давно живет по правилу: «В сети никто не знает, что ты собака». Анонимность и псевдонимы считались достаточной защитой, потому что для целенаправленной деанонимизации требовались серьезные усилия и доступ к спецсредствам. Исследователи из ETH Zurich, MATS и Anthropic утверждают: это правило больше не работает.
Ученые проверили, способны ли большие языковые модели определять реальных владельцев фейковых аккаунтов по косвенным признакам. Оказалось, что да. Модели анализируют фрагменты данных, совпадения в текстах и, главное, устойчивые паттерны поведения, которые человек не контролирует сознательно.
Результаты впечатляют. В 68 процентах случаев ИИ распознал, что учетная запись фейковая. А в 90 процентах из этих случаев — правильно назвал настоящего владельца. То есть система не просто говорит «это фейк», а привязывает его к конкретному человеку.
Среднестатистический пользователь долгое время считал, что псевдонимы защищают, потому что деанонимизация требует усилий. Большие языковые модели опровергают это предположение.
— пишут авторы исследования.
Последствия касаются не только троллей и ботов. Теоретически ИИ способен вычислять хакеров, публикующих украденные данные, и сотрудников, задающих неудобные вопросы на форумах. Бизнесмены, которые под фейками поливают конкурентов или продвигают свои компании — как это делал Илон Маск — тоже попадают в зону риска. Самое страшное — под ударом информаторы, активисты в авторитарных странах и жертвы насилия, чья жизнь буквально зависит от анонимности.
Ученые предлагают меры защиты: ограничить доступ к данным через API, усилить антибот-системы и запретить массовый экспорт пользовательской информации. Но они честно признают: стопроцентной гарантии это не даст. В ближайшие годы — а возможно, и месяцы — удерживать ИИ от деанонимизации станет все труднее.
Анонимность в интернете, какой мы ее знали, может исчезнуть быстрее, чем мы думали. И следующей жертвой прогресса станет не только конфиденциальность, но и безопасность тех, кто на нее полагался.















