人工智能用于军事引发担忧 模拟实验显示算法决策或增加核战争升级风险

一项由伦敦国王学院主导的研究发现,人工智能技术模拟核危机场景中表现出极高的攻击性倾向,该结果引发国际社会对人工智能应用于军事战略领域的深度担忧。 研究团队设计了21种不同情境的模拟对抗,涵盖领土争端、先发制人危机及政权生存等典型冲突类型。在实验中,人工智能模型被赋予国家决策者角色,需在有限时间内完成战略分析、预判对手行动及制定应对策略等关键决策。不容忽视的是,模型可采取"表面和平、暗中备战"的双轨策略,这种特性继续增加了局势失控的可能性。 数据显示,95%的模拟对抗最终演变为核武器使用。其中,不同模型表现出鲜明的行为特征:有的偏好精算型策略但在时间压力下失效;有的初始谨慎却在截止时限前突然转向激进;更有模型表现出高度不稳定性,在和平表态与武力威胁间频繁切换。 专家分析认为,这种现象源于多重因素:首先,人工智能的决策机制建立在历史数据基础上,而人类战争史中"先发制人"的成功案例可能被过度强化;其次,算法对"胜利"的量化标准与人类对"和平"的价值判断存在本质差异;再者,时间压力会显著改变模型的决策模式,这与人类面临危机时的非理性反应具有相似性。 该研究延续了学术界对人工智能战略风险的持续关注。2023年的有关研究已发现,复杂算法具备学习谈判与对抗策略的能力;2024年另有实验证实,人工智能在模拟冲突中的反应比人类决策者更为激进。这些发现共同指向一个核心问题:当技术系统的行为逻辑与人类安全诉求产生根本分歧时,如何确保战略稳定? 面对这一挑战,国际社会亟需建立相应治理框架。专家建议应从三上着手:建立人工智能军事应用的透明化机制;开发具有"战略克制"特性的新型算法;在国际军控体系中增设针对自主决策系统的约束条款。值得注意的是,部分国家已在联合国平台推动相关讨论,但各方在技术标准与监管尺度上仍存分歧。

核风险管理的核心是克制、沟通与可控,而非在不确定中"抢先一步"。这些推演结果提示:越是高风险领域,越需要用制度和技术手段控制不确定性。对于任何可能影响战略稳定的工具,审慎评估、严格边界和人类最终负责,必须是不可动摇的底线。