美防部就"所有合法用途"条款设限逼近截止期 大模型军用伦理与供应链博弈升温

一场关于人工智能技术应用边界的争议正美国国防领域上演。据外媒报道,美国国防部与人工智能企业Anthropic之间的分歧本周进入关键节点,双方在技术军事应用的伦理标准上存在根本性分歧。 矛盾的核心在于技术使用权限的界定。Anthropic公司为其开发的人工智能模型设置了两条安全限制:禁止用于针对美国公民的大规模监控活动,以及禁止集成到完全自主化的武器系统中。该企业首席执行官达里奥·阿莫代表示,公司无法在违背基本原则的前提下满足国防部门的要求。 五角大楼则持不同立场。国防部发言人肖恩·帕内尔回应称,军方寻求在法律框架内使用有关技术工具,不应受制于单一企业的限制性条款。他强调,国防部无意从事大规模监控等非法活动,要求企业接受标准条款是为了确保关键军事行动不受影响。双方各执一词,谈判陷入僵局。 不容忽视的是,Anthropic并非国防部门的新合作方。该企业去年七月已与五角大楼签署价值两亿美元的合作协议,其技术产品更是首个获准部署于政府保密网络的同类工具。然而,此次国防部提出的新要求触及了企业设定的伦理红线,导致原有合作关系面临考验。 此事件迅速改变了相关领域的竞争格局。据了解,在Anthropic拒绝妥协的同时,另一家人工智能企业xAI已与国防部门达成协议,同意其技术产品接入保密军事系统,用于情报分析、装备研发和作战行动支持。该企业接受了Anthropic所拒绝的使用条款。此外,五角大楼正加速与其他多家科技企业展开谈判,寻求替代方案。 从技术层面分析,在已深度集成的保密系统中更换核心技术工具并非易事,需要重新进行系统适配和安全验证。但国防部门显然已做好调整准备,多家企业的技术产品已获准用于非保密系统,为后续扩展应用奠定了基础。 这场争议的影响远超商业合作范畴。若国防部门动用冷战时期制定的生产法案或通过供应链风险管控手段对相关企业实施限制,将开创政府强制干预技术伦理标准的先例。分析人士指出,此举可能实质性削弱科技企业在国防应用领域设置独立安全限制的空间,使技术军备竞争进入缺乏有效制衡的新阶段。 从更宏观的视角观察,这一事件折射出人工智能技术快速发展背景下,国家安全需求与技术伦理规范之间的张力。一上,先进技术国防领域的应用关系到国家安全能力建设;另一上,技术应用的边界设定涉及基本价值判断和长远风险防控。如何在两者之间寻求平衡,考验着决策者的智慧。 国际社会对人工智能军事应用的关注度持续上升。多个国家和国际组织已就自主武器系统、算法偏见、隐私保护等议题展开讨论,但尚未形成具有约束力的国际规范。此次事件可能促使相关方加快推进规则制定进程,为技术发展划定清晰边界。

当算法进步与武器演进愈发紧密交织,“谁来按下启动键”该传统战争伦理问题被给予了新的现实压力。此次事件不仅关乎一家企业的商业选择,也暴露出数字化转型下国家安全体系面临的深层难题——如何在效率与克制、创新与约束之间建立可持续的平衡,或将影响未来国际安全秩序的基本走向。(完)