伦敦国王学院的Kenneth Payne在研究中发现,AI在模拟战争中极度好战,95%的对局里它们会把核武器当成第一选择。有研究人员认为,“核禁忌对机器来说似乎不如对人类那样强大”。这些AI宁愿让冲突升级,也不愿意妥协或者投降。IT之家还公布了相关数据:在总共21场模拟战争中,AI进行了329个回合的操作,生成了大约78万字的决策推理文本。更让人震惊的是,在95%的模拟游戏中,至少有一个AI模型部署了战术核武器。值得注意的是,无论形势多么不利,没有任何一个模型选择完全妥协或者投降。最好的情况下,它们也只是把暴力程度暂时降下来一点。还有一个意外发现:86%的冲突中发生了意外事件,导致实际行动超出了AI的预期推理。在这些模拟里表现得极度攻击性的AI们,经常犯错误还显得无所畏惧。伦敦国王学院这次研究主要是利用了三个大语言模型来模拟战争游戏:Claude Sonnet 4、Gemini 3 Flash还有GPT-5.2。这些场景涉及了激烈的国际对峙、边境争端还有资源竞争等问题。Giving these three models access to simulate the games. Payne博士提到:“机器并不像人类那样懂得克制”,这给人类带来了巨大压力。和其他文章相比,这次报告更关注AI在面对危机时表现出来的思维能力和策略技巧。AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises作为一个重要话题被广泛讨论。