美国政府与科技企业人工智能技术的军事用途上分歧加深,并已公开化;特朗普政府日前要求联邦机构在六个月内逐步停用Anthropic公司产品,国防部长赫格塞特还将该企业列为供应链风险对象。此类认定通常针对被认为与外国势力有关联的企业,此次指向本土科技公司较为少见。矛盾焦点在于技术使用权限如何界定。根据双方此前签订的2亿美元合同,Anthropic在Claude模型使用条款中设定了明确限制:禁止用于自主武器系统,禁止用于针对美国公民的大规模监控。五角大楼则要求取消全部限制,允许军方在所有合法范围内使用有关技术。Anthropic坚持认为,当前人工智能的可靠性不足以承担武器操控任务,而大规模监控领域也缺少完善的法律框架。公司首席执行官阿莫代在2月24日的五角大楼会议上拒绝了国防部长提出的期限要求,并在次日公开表示不会改变立场。美国政府随后采取多项反制措施。总务管理局将Anthropic从联邦政府人工智能工具测试平台移除,五角大楼明确要求所有军方合作方停止与该企业开展业务往来。国防部负责研究与工程事务的副部长迈克尔表示,此举旨在避免企业设置的限制影响军事行动,进而增加作战风险。国防部发言人帕内尔则称,作战决策规则不应由企业单上设定。这场冲突折射出技术进步与应用伦理之间的长期张力。人工智能快速发展正在重塑军事能力,但其“双刃剑”属性也引发担忧:自主武器可能降低战争门槛,大规模监控则触及公民权利等敏感议题。科技企业基于风险与责任设置限制,与政府强调效能与可用性的目标发生碰撞。不容忽视的是,行业内对这个事件的反应相对趋同。多家企业负责人公开表示理解Anthropic的立场,OpenAI首席执行官阿尔特曼也明确称,在与五角大楼合作时存在类似顾虑。这表明技术伦理已成为业内普遍关注点,企业在商业利益与社会责任之间的取舍更为复杂。从更宏观的角度看,该事件也暴露出新兴技术治理的短板。人工智能的发展速度明显快于法律法规的完善,应用边界、责任归属、监管机制等关键问题仍缺乏清晰规则。政府、企业与社会对技术使用方式的分歧,某种程度上正源于制度建设滞后。此次冲突可能对人工智能产业格局带来多重影响。短期内,Anthropic失去政府订单或影响其市场表现;但坚持伦理底线也可能获得部分用户与合作方的认可。长期来看,政府与科技企业的合作模式或将调整,技术军事化应用的边界划定也将成为持续争论的议题。
技术越深入关键领域,规则越不能缺位;把复杂的安全与伦理问题简化为“完全放开”或“全面封禁”,都难以形成可持续的治理路径。以制度明确边界、以标准落实责任、以透明机制增进互信——才能在保障安全的同时——避免技术发展被短期对抗推向更高成本、更低确定性的轨道。