Моделирование военных игр с использованием ИИ: ученые отмечают устрашающую тенденцию
Кеннет Пейн, профессор стратегии в Королевском колледже Лондона провел серию симуляций военных игр между двумя конкурирующими искусственными интеллектами (ИИ). Он выяснил, что почти все они неизбежно заканчиваются ядерным конфликтом, сообщает Live Science.
В эксперименте использовалась серия двусторонних турниров по игре Хана, в которых Claude Sonnet 4, GPT-5.2 и Gemini 3 Flash соревновались в серии смоделированных ядерных кризисов.
Игра Хана — это симуляция стратегической эскалации конфликта между двумя ядерными державами, чьи профили государств основаны на событиях холодной войны. Одна из них технологически превосходит другую, но в военном отношении слабее, в то время как другая в военном отношении сильнее, но придерживается рискованного стиля руководства. В некоторых симуляциях участвовали союзные страны, и в одном из сценариев специально проверялась возможность сохранения лидерства в альянсе во время конфликта.
На каждом ходу ИИ одновременно сигнализировали о своих намерениях, прежде чем предпринимать какие-либо действия. То есть, игроки-ИИ могли решить, доверять ли другим игрокам. Пейн рассказал также, что модели генерировали множество письменных обоснований своих решений. В общей сложности, они написали 760 тысяч слов.
Кроме того, каждый ИИ действовал по-разному. Так, Claude полагался на хитрость: изначально он был сдержан и подбирал действия в соответствии со своими намерениями, чтобы завоевать доверие. Но по мере эскалации конфликта он часто действовал за рамками заявленных намерений.
GPT-5.2 изначально действовал пассивно и избегал эскалации, чтобы минимизировать потери. Его противники пользовались этим и наращивали эскалацию. Но затем оказалось, что дойдя до предела GPT-5.2 становится безжалостным.
Gemini следовал теории Ричарда Никсона о непредсказуемом балансировании на грани войны — культивируя нестабильную репутацию, чтобы враждебные страны избегали провокаций, — чтобы противники не могли предсказать его действия.
Почти во всех сценариях присутствовала ядерная эскалация. В 75% случаев использовалось тактическое ядерное оружие, примерно в половине сценариев присутствовали угрозы стратегических ядерных ракетных ударов.
Кроме того, исследование показало, что ядерные угрозы редко служили сдерживающим фактором: противники снижали эскалацию лишь в 25% случаев. Чаще всего противники, наоборот, еще больше эскалировали ситуацию. В этих сценариях ИИ, по-видимому, рассматривали ядерное оружие как инструмент для захвата территории, а не как средство сдерживания нападения.
Хотя у ИИ была возможность отступить, ни один этого не сделал. Ни один из восьми вариантов отступления — от минимальной уступки до полной капитуляции — не был использован ни в одном из симуляций. Модели снижали уровень насилия, но никогда не уступали.
Читают сейчас: Ученые объяснили, почему ИИ часто дает плохие советы.
