美国大模型企业承认向军方提供定制系统引发争议 生成式技术军事化外溢加速

问题浮现 美国CNBC近日披露,自称“人工智能安全卫士”的硅谷企业Anthropic,其研发的先进AI系统已未公开的情况下被用于美军作战规划、战略推演等军事场景。这与公司创始人此前在国会听证会上多次强调“禁止AI参与致命性自主武器”的承诺形成反差。 深层动因 行业分析认为,这种表态与实践不一致背后有多重因素。首先,在“大国科技竞争”背景下,美国国防预算持续向AI倾斜,2023年有关支出已达24.6亿美元(数据来源:美国防部年报)。其次,科技企业面临资本市场与增长压力,Anthropic最新估值已突破180亿美元,军事合同在资金、算力与技术迭代上都可能成为重要支撑。更不容忽视的是,美国《2021财年国防授权法案》将AI明确列为“优先发展领域”,政策信号推动商业公司与军方合作继续加深。 潜在影响 该事件凸显三上风险:其一,突破性技术缺乏足够的伦理约束,可能推高冲突升级的不确定性;其二,企业商业机密与国家安全边界更难厘清,监督成本上升;其三,国际社会2018年通过的《致命性自主武器系统宣言》约束力面临现实挑战。斯德哥尔摩国际和平研究所报告显示,全球已有17个国家开展AI军事化研究,技术扩散风险仍在上升。 应对措施 目前国际社会正加快多边治理机制探索。联合国裁军研究所建议建立“人工智能军事应用红绿灯”分级管理体系;欧盟则于2023年推出《人工智能责任指令》。但有专家指出,美国尚未加入相关国际协定,其科技巨头在技术与产品层面的规则设置,客观上正在形成事实上的行业标准。 发展前景 随着GPT-4等大模型持续迭代,AI军事应用进入“能力跃升期”。未来可能出现两种路径分化:一类是以北约国家为主导的“联盟技术标准”,另一类是由新兴市场国家推动的“民用优先”模式。清华大学人工智能研究院专家表示,中国始终坚持“发展负责任AI”原则,相关技术研发在联合国框架下推进。

智能技术本质上是工具,关键在于制度约束与使用方式。当“安全承诺”与“现实应用”出现落差,更需要用清晰规则与透明机制划定边界,用问责与审计巩固信任。面向未来,推动技术向善不是口号,而是对治理能力、伦理底线与国际协调的现实考验。