По мере развития ИИ у военных разных стран появилась возможность использовать его при моделировании сценариев будущих конфликтов. Однако участников подобного эксперимента в Королевском колледже Лондона ожидал неприятный сюрприз: при разрешении ряда предложенных международных кризисов ИИ регулярно предлагал использовать… ядерное оружие.
Специалист по оборонным исследованиям доктор Кеннет Пейн протестировал в рамках эксперимента наиболее продвинутые языковые модели GPT-5.2, Claude Sonnet 4 и Google Gemini 3 Flash.
Каждая из них получила подробный промпт со сценарием пограничных конфликтов, нехватки ресурсов и экзистенциальных угроз существования государству. Моделям предлагалось действовать в рамках «лестницы эскалации» — нескольких тактических вариантов от дипломатии до полномасштабного боевого конфликта.
Были проведены 21 игра и 329 раундов принятия решений с участием ИИ, который выдал множество обоснованных решений общим объемом 780 000 слов. В результате, почти в 95 % виртуальных конфликтов одна из сторон применяла тактическое ядерное оружие. ИИ ни разу не пожелал сдаться или пойти на уступки.
Следует признать, что в 86 % симуляций ИИ выбирал действия за рамками здравого смысла. К примеру, вместо отступления под давлением превосходящего противника он усиливал сопротивление. Снижение уровня противостояния использовалось ИИ лишь как временная мера, а не как полноценная стратегия.
По мнению сотрудника Школы глобальной безопасности Принстонского университета Тон Чжао, проблема столь высокой агрессивности ИИ, доходящей до применения ядерного оружия, состоит в отсутствии у него человеческого опыта потерь и выживания, что разрушает логику доктрины взаимного уничтожения времен холодной войны. В отличие от машины, лидеры ядерных держав прекрасно понимают, что применение ядерного оружия приведет к взаимному





