Угроза фальсификации опросов достигла нового уровня: летом 2024 года стало ясно, что стандартные методы защиты, включая капчу, более не являются препятствием для ИИ-агентов. Исследование Polarization Research Lab продемонстрировало, что искусственный интеллект способен массово участвовать в опросах, правдоподобно имитируя ответы людей, что ставит под вопрос достоверность опросов и создает риски для манипуляции выборами.
Разработанный главой лаборатории Шоном Уэствудом ИИ-агент на Python показал ошеломляющий результат — он успешно проходил проверки в 99,8% случаев, фактически решая проблему обхода капчи. Агент является платформенно-независимым и может работать с большинством популярных больших языковых моделей.
Для работы программы пользователь задает краткое описание (до 500 слов) портрета человека, чьи ответы нужно симулировать. После этого ИИ-агент способен обходить стандартные контрольные вопросы и «ловушки» для выявления ботов. Он реалистично имитирует поведение человека: рассчитывает время на чтение вопроса, медленно печатает, делает опечатки и исправляет их.
Автор исследования предупреждает, что такая технология делает фальсификацию опросов простой и опасной. Анализ предвыборных опросов в США показал, что для искажения результатов общенационального рейтинга порой достаточно всего от 10 до 52 сфальсифицированных ответов, что открывает дорогу для манипуляции выборами.
Борьба с подобными злоупотреблениями требует более контролируемых условий проведения опросов. Однако такие меры могут снижать готовность людей участвовать и их искренность. В эпоху развития ИИ к достоверности опросов придется относиться с повышенной осторожностью.















