Дослідники з Kings College London провели серію військових симуляцій за участю провідних моделей штучного інтелекту. У тестуванні використовувалися GPT-5.2 від OpenAI, Claude Sonnet 4 від Anthropic та Gemini 3 Flash від Google. В рамках експерименту моделям пропонувалися розгорнуті сценарії, що включають прикордонні конфлікти, дефіцит ресурсів та загрози виживанню держав. Учасникам також надавалися так звані «сходи ескалації» — набір рішень від дипломатичних кроків до застосування ядерної зброї. 21 гра та майже 800 тисяч слів аргументації було проведено 21 симуляційне «ігрове» зіткнення, що включало 329 ходів. За цей час ШІ-системи згенерували близько 780 тисяч слів обґрунтувань своїх рішень. За даними дослідників, у 95% випадків як мінімум одна із сторін переходила до використання ядерної зброї. Сценарій капітуляції не було обрано жодного разу. Окремо наголошується на проблемі інтерпретації неповної інформації. У 86% симуляцій моделі помилково оцінювали так званий туман війни, що призводило до ненавмисної ескалації конфлікту. Навіть за можливості знизити напруженість під тиском обставин системи частіше посилювали конфронтацію. Зниження рівня насильства використовувалося як тимчасова тактика, а не як стратегічне рішення. Результати викликали стурбованість серед фахівців з міжнародної безпеки. Дослідник з University of Aberdeen Джеймс Джонсон назвав висновки тривожними і відзначив, що ШІ-акції можуть інші люди так само погано оцінювати ситуацію, що потенційно підвищують ризики ескалації. Тун Чжао з Princeton University підкреслив, що великі держави вже застосовують ШІ в симуляційних середовищах. Однак ступінь інтеграції подібних систем до реальних військових процесів залишається неясним. Експерти погоджуються, що найближчим часом держави не готові передавати системам штучного інтелекту прямий контроль над ядерним арсеналом. Водночас зберігаються побоювання, що військові командири можуть спиратися на рекомендації алгоритмів за умов кризи та обмеженого часу прийняття рішень.
