В Google зафиксировали рост популярности ИИ среди киберпреступников

12-05-2026 11:02
news-image
img-ca55ff87898d6d28-5343455766779688

Злоумышленники используют искусственный интеллект для эксплуатации уязвимостей, расширения масштабов операций и получения первоначального доступа к целевой системе или сети. Об этом говорится в отчете Google Threat Intelligence Group (GTIG).

Подразделение GTIG впервые обнаружило хакера, который использовал ошибку нулевого дня, разработанную с помощью ИИ. Он планировал применить ее для массовой атаки, однако экспертам корпорации удалось предотвратить угрозу.

Связанные с КНДР злоумышленники также продемонстрировали значительный интерес к использованию ИИ для поиска уязвимостей.

Программирование с применением нейросетей ускорило разработку инфраструктурных наборов инструментов и полиморфного вредоносного ПО. Технология облегчает обход защитных систем и позволяет интегрировать ложную логику. Подобные разработки в GTIG связывают с Россией.

Искусственный интеллект помогает в автономных операциях. Аналитики подчеркнули, что вредоносное ПО вроде PROMPTSPY «указывает на сдвиг к независимой оркестрации атак». Модели интерпретируют состояние системы, чтобы динамически генерировать команды и манипулировать средой жертвы.

«Такой подход позволяет злоумышленникам перекладывать операционные задачи на ИИ для масштабируемой и адаптивной активности», — говорится в отчете.

Хакеры продолжают использовать ИИ в качестве высокоскоростного исследовательского помощника для поддержки жизненного цикла атаки. Параллельно они смещаются к агентным рабочим процессам для автоматизации.

Злоумышленники стремятся получить анонимный доступ к моделям премиум-уровня с целью незаконного обхода лимитов. Такая инфраструктура позволяет массово злоупотреблять сервисами.

В GTIG обратили внимание, что хакеры вроде TeamPCP (также известные как UNC6780) начали использовать ИИ-среды и программные зависимости, чтобы получать первоначальный доступ к инфраструктуре жертв.

Эксперты киберподразделения Google подчеркнули, что принимают проактивные меры для опережения регулярно меняющихся угроз.

Напомним, в сентябре 2025 года команда по анализу угроз стартапа Anthropic обнаружила и сорвала первую в своем роде кампанию по кибершпионажу, проведенную ИИ.

Подписывайтесь на ForkLog в социальных сетях

Telegram (основной канал) Facebook X

Рассылки ForkLog: держите руку на пульсе биткоин-индустрии!

Источник: ForkLog