Команда исследователей создала смоделированную среду социальных сетей с 50 агентами ИИ: 10 в качестве операторов влияния и 40 в качестве обычных пользователей (позже авторы эксперимента расширили это число до 500 агентов, получив стабильные результаты). Операторам была поставлена ​​одна задача: продвигать вымышленного кандидата и распространять хэштег кампании. Затем исследователи протестировали три условия: боты, которые знали только цель кампании; боты, которые также знали, кто их товарищи по команде; и боты, которые проводили периодические стратегические сессии и голосовали за коллективный план.

Наиболее поразительным результатом стало то, что простое указание ботам, кто их товарищи по команде, приводило к координации почти такой же высокой, как и активное совместное стратегическое планирование. Они усиливали публикации друг друга, сходились во мнениях по одним и тем же вопросам и повторно использовали успешный контент.

«Наша статья показывает, что это не угроза будущего: технически это уже возможно, — отмечает Лука Лучери, ведущий научный сотрудник Института информационных наук Университета Южной Калифорнии и доцент кафедры компьютерных наук им. Томаса Лорда в Школе передовых вычислений им. Витерби при Университете Южной Калифорнии. — Даже простые агенты ИИ могут автономно координировать свои действия, усиливать друг друга и распространять общие нарративы в интернете без участия человека. Это означает, что кампании по распространению дезинформации вскоре могут быть полностью автоматизированы, ускорены и гораздо сложнее обнаружены».

Наихудший сценарий во время политических событий заключается в автоматизированном манипулировании общественным мнением и изменении убеждений, что еще больше посеет рознь и подорвет доверие к нашим институтам, добавляет Лучери. По его словам, угроза распространяется не только на выборы, но и на здравоохранение, иммиграционную политику и экономическую политику.

С другой стороны соцсети, конечно, могут бороться с этим, анализируя взаимодействие аккаунтов, а не только сам контент.