(问题)美国国防部近期以“供应链风险”为由将人工智能企业Anthropic列入限制范围,并推动联邦机构停止使用其技术,引发美国科技行业与政府采购体系的高度关注。Anthropic随后对美国政府提起诉讼,认为有关认定“前所未有且不合法”,并将对公司业务造成不可逆影响。围绕此争端,美国科技企业出现罕见公开分化:一方选择通过司法程序与政策表达支持,另一方则迅速扩大与国防部合作以抢占市场窗口。 (原因)争端的直接导火索在于军方对人工智能使用边界的要求与企业自设限制之间的冲突。多家媒体披露,Anthropic在与国防部合作中设置两条“红线”,包括反对将人工智能用于针对美国人的大规模监控,以及反对部署到缺乏人类介入的自主武器系统。国防部则强调人工智能应服务于“一切合法用途”,要求企业取消限制。双方在价值边界与合规责任上的分歧叠加国防采购对“可控、可替代、可持续”的偏好,使得“供应链风险”这一极少用于本土企业的强硬工具被搬上台面。 更深层原因在于美国政府加快推进“国防科技化”与“科技国防化”的战略需求。近年来,美国国防部门在办公协同、任务规划、情报处理与系统维护等领域加速引入大模型与智能体工具,既希望提升效率,也希望形成可扩展的能力体系。基于此,一旦关键供应商坚持限制条款,军方往往倾向于通过采购政策与合规审查强化控制力,以降低不确定性和议价风险。 (影响)首先,硅谷与华盛顿之间长期存在的“合作—戒备”关系深入外溢为企业间的路线分化。英国媒体报道,微软向法院提交文件支持Anthropic,称相关行动“极端”“史无前例”,可能对美国科技产业造成广泛负面影响,并请求法院在审理期间暂停该认定生效。这一做法被视为大型科技企业公开介入政府部门争议的少见信号。 其次,政府市场的竞争格局随之加速重排。谷歌在争端升级之际宣布,将把新开发的人工智能工具部署到国防部约300万名军职与文职人员的办公环境,用于会议纪要、任务规划等非机密工作,并被曝正在就更高保密等级环境进行谈判。此前亦有企业在相关限制出现后宣布与五角大楼达成合作安排,强调“安全护栏”与合规措施。由此可见,在高确定性的政府订单与高门槛的安全合规之间,企业正在以不同路径争取进入军方体系的“入口位”。 再次,此事件对产业生态与公众舆论带来连锁反应。部分科技企业员工与社会团体对军方扩大人工智能应用表示担忧,认为政府试图以安全叙事压缩企业政策空间。另外,企业一旦深度涉军,也可能面临消费者信任、人才流动与商业伙伴选择等多重压力,形成“政策机会”与“市场风险”并存的局面。 (对策)从治理与产业政策角度看,降低冲突成本的关键在于明确规则与增强透明度。一是建立更清晰的军用人工智能合规框架,针对数据来源、模型可解释性、审计机制、人类监督、用途限制等形成可操作标准,减少“以个案定规则”的不确定性。二是完善供应链风险认定程序,强化证据披露、申诉机制与期限评估,避免标签化措施过度外延化,冲击创新生态。三是推动政府采购与企业自律之间的制度衔接:对非机密办公场景与关键任务系统实行分级准入与差异化安全要求,既满足效率诉求,也降低关键系统对单一供应商的依赖。 (前景)路透社援引内部备忘录称,五角大楼对相关禁令出现一定松动:若工具被认定对国家安全至关重要,部分单位可在原定淘汰期后继续保留使用,但同时仍要求优先将相关产品从核武器、弹道导弹防御等关键任务系统中移除。这一安排折射出现实约束——在短期内,军方供应链未必能迅速完成替换与迁移;而在中长期,军方将更强调“可替代性”和“可控性”,推动形成多供应商格局与更严格的安全边界。 可以预判,随着人工智能在公共部门的渗透加深,类似争议还将以不同形式出现:企业将面临“价值边界与政府订单”的再平衡,政府部门也将面临“安全控制与创新活力”的再权衡。未来规则的走向,或将决定美国军用人工智能扩张的速度与社会接受度,也将重塑全球科技企业对涉军合作的策略选择。
AI从工具升级为关键基础设施,对技术和治理都提出更高要求。建立兼顾国家安全、商业利益和社会伦理的可执行规则框架,已成为科技企业与政府共同面临的挑战。解决分歧的关键在于透明程序、清晰边界和稳定预期,这才能实现创新与安全的平衡。