在2021年,由OpenAI前高管创立的Anthropic迅速成长为一家估值达3800亿美元的初创公司,这家公司成为美国增长最快的科技公司之一。随着时间推移,2023年2月27日,五角大楼将Anthropic列为“供应链风险”,这一罕见举措通常只针对外国对手企业,把硅谷巨头们给推到了立场分化的境地。就在2月27日,特朗普下令所有联邦机构停止使用Anthropic的技术。 3月9日,Anthropic正式起诉美国政府,声称国防部的做法“史无前例且非法”。微软公开声援Anthropic,成为首家在这场争端中站队的科技巨头。他们给法院提交文件称五角大楼对Anthropic的行动极端且史无前例,要求颁布临时限制令阻止其决定生效。微软警告这对美国科技行业有广泛负面影响。谷歌则趁势扩大了与五角大楼的合作。3月11日报道显示谷歌AI智能体将被部署到约300万名军人和文职人员中,用于非机密工作。而微软和谷歌部分员工已加入反对阵营,称政府试图通过灌输恐惧来分裂AI公司。 这次冲突凸显了AI应用在伦理与国家安全之间的冲突,暴露了AI在军事中的治理缺失。Anthropic反对人工智能用于对美国人的大规模监控和完全自主武器部署。美国国防部长2月曾向Anthropic发出最后通牒要求取消所有限制允许军事用途但遭到拒绝。路透社12日报道称五角大楼正在松动对Anthropic的禁令:如果相关工具对国家安全至关重要允许部分单位保留使用产品至原定6个月淘汰期结束后;但仍指示优先移除核武器等关键系统中的产品。分析人士认为这反映出大多数供应商难以确保能从供应链中剔除它;这意味着报复性标签可能会阻碍创新。 《纽约时报》报道显示与五角大楼的合同中Anthropic划出红线:反对AI用于大规模监控和自主武器部署;之前这次冲突爆发于今年2月份之后政府强硬对待引发了市场强烈反感导致ChatGPT卸载率激增。美国东北大学供应链管理教授娜达·桑德斯认为把Anthropic列入供应链风险是极其严重且前所未有的惩罚;若因设置防护措施而被排除出政府市场会导致企业对开发防护技术产生犹豫。牛津大学网络与科技政策项目执行主任布里安娜·罗森博士表示这场争端暴露了AI用于军事时长期存在治理缺失以及商业合同机制无法替代适应AI战争现实的治理框架。