Киберпреступность обретает новое лицо — и это лицо сгенерировано нейросетью. В свежем отчете Microsoft Threat Intelligence говорится, что хакеры всех мастей начали массово применять генеративный ИИ для ускорения и масштабирования атак. Технический барьер снижается, эффективность растет.

ИИ-инструменты используются на всех этапах: от разведки до финального запуска вредоносного ПО. С их помощью злоумышленники пишут фишинговые письма, переводят их на нужные языки, обобщают украденные данные, создают и отлаживают вредоносные скрипты, а также разворачивают инфраструктуру для атак. «В этих сценариях ИИ выступает в качестве усилителя возможностей, уменьшая технические сложности и ускоряя выполнение, при этом человек сохраняет контроль над целями и выбором мишеней», — поясняют в Microsoft.

Особое внимание в отчете уделено северокорейским группировкам Jasper Sleet (Storm-0287) и Coral Sleet (Storm-1877). Они используют ИИ для создания реалистичных поддельных личностей, которые затем пытаются трудоустроиться в западные IT-компании на удаленку. Нейросети помогают генерировать правдоподобные резюме, списки имен, соответствующие культуре страны, и даже анализировать вакансии, чтобы адаптировать навыки «кандидата» под требования работодателя.

Jasper Sleet, по данным Microsoft, также применяет ИИ для анализа вакансий на профессиональных платформах — алгоритмы извлекают востребованные навыки и обобщают их, чтобы подделать личность под конкретную роль. Coral Sleet, в свою очередь, использует нейросети для быстрого создания поддельных корпоративных сайтов, развертывания инфраструктуры и отладки инструментов.

При этом хакеры научились обходить встроенные механизмы защиты ИИ-платформ с помощью специально сформированных запросов.

Microsoft рекомендует компаниям рассматривать схемы с поддельными IT-специалистами как инсайдерские риски. Поскольку сами атаки с использованием ИИ структурно не отличаются от традиционных, специалистам по безопасности советуют сосредоточиться на базовых вещах: выявлять аномальное использование учетных данных, усиливать защиту от фишинга и следить за безопасностью самих ИИ-систем, которые сами могут стать следующей целью.