Исследователи зафиксировали высокую склонность к эскалации, отсутствие готовности к капитуляции и частые ошибки в условиях неопределенности у современных ИИ, пишет NewScientist.
Почему искусственный интеллект так легко переходит к ядерной эскалации?
Исследователь Кеннет Пейн з King's College London провел эксперимент, в котором три ведущие языковые модели – GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash – участвовали в смоделированных военных играх. Сценарии воспроизводили острые международные кризисы: пограничные конфликты, борьбу за ограниченные ресурсы и угрозу существованию политических режимов.
Каждая модель получала так называемую "лестницу эскалации" – набор возможных действий от дипломатических протестов и полной капитуляции до масштабной стратегической ядерной войны. В общем ИИ сыграли 21 партию, совершили 329 ходов и создали около 780 тысяч слов объяснений собственных решений.
Результаты оказались тревожными: в 95% симуляций хотя бы одна модель применила тактическое ядерное оружие. По словам Пейна, ядерное табу – то есть негласный запрет на использование такого оружия – оказалось значительно слабее для машин, чем для людей.
Ни одна из моделей не выбрала полную уступку или капитуляцию, даже в случае очевидного поражения. Максимум, на что соглашался ИИ, – временное снижение уровня насилия. К тому же в 86% конфликтов случались ошибки: отдельные действия приводили к более высокой эскалации, чем модель планировала согласно своим же объяснениям. Это напоминает так называемый "туман войны", когда ограниченная информация приводит к фатальным решениям.
Джеймс Джонсон з University of Aberdeen считает эти результаты тревожными с точки зрения ядерных рисков. По его мнению, в отличие от людей, которые обычно взвешивают последствия таких решений, ИИ может усиливать реакции друг друга, создавая цепную эскалацию с катастрофическими последствиями.
Стоит ли начинать беспокоиться?
Этот вопрос имеет практическое значение. По словам Тонга Чжао з Princeton University, крупные государства уже тестируют искусственный интеллект в военном моделировании. В то же время пока непонятно, насколько глубоко такие системы интегрируются в реальные процессы принятия военных решений.
Чжао предполагает, что страны вряд ли передадут системам ИИ контроль над решениями по применению ядерного оружия. Пейн также считает маловероятным сценарий, в котором "ключи от ядерных шахт" окажутся в руках машин. Однако в условиях чрезвычайно сжатых временных рамок военные могут испытывать сильный соблазн полагаться на алгоритмы.
Исследователи также обращают внимание на еще одну проблему: возможно, дело не только в отсутствии страха или эмоций. ИИ может принципиально не понимать ставок так, как это делает человек. Это ставит под сомнение традиционный принцип взаимного гарантированного уничтожения, который предусматривает, что ни один лидер не решится первым применить ядерное оружие из-за неизбежного ответа.
Сценариев когда одна модель применяла тактическое ядерное оружие, а другая деэскалировала ситуацию – только 18%. По словам Джонсона, искусственный интеллект может усилить сдерживание, сделав угрозы более убедительными. Он не будет принимать решение о ядерной войне самостоятельно, но способен влиять на восприятие угроз и временные рамки, в пределах которых лидеры считают, что должны действовать.
