与美军方机密网络合作引发争议,美国对话式生成应用卸载量激增近三倍

一场围绕人工智能技术军事化应用的争议,正在美国科技界与公众之间引发广泛关注。

2月28日,美国人工智能企业OpenAI宣布与国防部达成协议,将其人工智能模型部署于五角大楼机密网络。

消息一经公布,立即在社交媒体平台引发强烈反响,大量用户发起抵制运动。

根据美国移动应用数据分析机构Sensor Tower的统计数据,协议公布当日,OpenAI旗下应用在美国市场的卸载量较前一日暴增295%,远超该应用过去30天日均9%的卸载率。

与此同时,该应用的下载量也受到明显冲击,协议公布后下载量环比下降13%,次日继续下滑5%。

而在消息公布前一日,该应用下载量还保持着14%的环比增长态势。

这一事件折射出公众对人工智能技术军事化应用的深层忧虑。

尽管OpenAI首席执行官奥特曼在宣布合作时强调,相关技术不会用于国内大规模监控,涉及武力使用的自主武器系统必须由人类负责,但这些表态未能平息公众疑虑。

用户担心的核心问题在于:先进人工智能技术一旦进入军事领域,其应用边界能否得到有效约束,公民隐私权利如何得到切实保障。

面对迅速发酵的舆论危机,OpenAI方面作出快速回应。

3月3日,奥特曼在社交媒体平台公开承认错误,表示上周宣布与国防部合作时过于仓促。

他坦言:"这些问题极其复杂,需要清晰沟通。

我们的做法看起来只是投机取巧和草率行事。

" 为挽回公众信任,奥特曼提出了一系列补救措施。

首先,公司将修改协议条款,明确规定相关技术系统不得被故意用于针对美国公民或国民的国内监控活动,并明确禁止通过商业渠道获取的个人信息进行追踪、监视或监控。

其次,公司服务将不向国防部情报机构提供,如未来有此类需求,需另行修改合同并接受审查。

第三,公司强调希望通过民主程序开展合作,关键社会决策应由政府作出,企业仅提供专业建议。

奥特曼甚至表示,如果收到违宪命令,宁愿承担法律后果也不会执行。

此外,奥特曼指出,当前技术在许多应用场景中尚未成熟,部分安全权衡问题仍需深入研究,公司将与国防部采取审慎态度,配合技术保障措施缓慢推进合作。

值得注意的是,就在OpenAI宣布合作前一天,另一家美国人工智能企业Anthropic与五角大楼因技术应用范围分歧而终止合作谈判。

据报道,美军在针对委内瑞拉的军事行动中使用了该公司的人工智能模型,消息曝光后该公司向五角大楼表达关切,双方在技术应用伦理问题上产生严重分歧。

市场数据显示,Anthropic公司产品在此期间获得用户青睐,其应用下载量在2月27日和28日分别环比增长37%和51%,并在2月28日登上美国应用商店榜首位置,较一周前排名跃升20余位。

这一对比鲜明地反映出公众对不同企业技术伦理立场的态度差异。

当科技创新驶入军事化应用的深水区,商业逻辑与社会责任的碰撞已成为不可回避的时代命题。

这场由卸载按钮引发的伦理辩论,既是对技术边界的一次全民公投,也为全球科技治理提供了镜鉴——在算力突飞猛进的今天,人类对技术红线的守护意识,仍需跑在技术迭代的最前沿。