Интернет давно живет по правилу: «В сети никто не знает, что ты собака». Анонимность и псевдонимы считались достаточной защитой, потому что для целенаправленной деанонимизации требовались серьезные усилия и доступ к спецсредствам. Исследователи из ETH Zurich, MATS и Anthropic утверждают: это правило больше не работает.

Ученые проверили, способны ли большие языковые модели определять реальных владельцев фейковых аккаунтов по косвенным признакам. Оказалось, что да. Модели анализируют фрагменты данных, совпадения в текстах и, главное, устойчивые паттерны поведения, которые человек не контролирует сознательно.

Результаты впечатляют. В 68 процентах случаев ИИ распознал, что учетная запись фейковая. А в 90 процентах из этих случаев — правильно назвал настоящего владельца. То есть система не просто говорит «это фейк», а привязывает его к конкретному человеку.

Среднестатистический пользователь долгое время считал, что псевдонимы защищают, потому что деанонимизация требует усилий. Большие языковые модели опровергают это предположение.

— пишут авторы исследования.

Последствия касаются не только троллей и ботов. Теоретически ИИ способен вычислять хакеров, публикующих украденные данные, и сотрудников, задающих неудобные вопросы на форумах. Бизнесмены, которые под фейками поливают конкурентов или продвигают свои компании — как это делал Илон Маск — тоже попадают в зону риска. Самое страшное — под ударом информаторы, активисты в авторитарных странах и жертвы насилия, чья жизнь буквально зависит от анонимности.

Ученые предлагают меры защиты: ограничить доступ к данным через API, усилить антибот-системы и запретить массовый экспорт пользовательской информации. Но они честно признают: стопроцентной гарантии это не даст. В ближайшие годы — а возможно, и месяцы — удерживать ИИ от деанонимизации станет все труднее.

Анонимность в интернете, какой мы ее знали, может исчезнуть быстрее, чем мы думали. И следующей жертвой прогресса станет не только конфиденциальность, но и безопасность тех, кто на нее полагался.