美伊大战引发的冲突,ai 武器会带来伦理问题和人类决策被边缘化的风险

让我们从头说起吧。上周六开始的美以对伊朗大规模轰炸,成了彻底引爆AI在战争中使用权限这场争论的导火索。据英国《卫报》披露,美军竟然还是用了Anthropic公司的Claude模型来制订攻击计划。这就太讽刺了,因为就在特朗普宣布把这家公司拉黑不久前,美国国防部才刚和OpenAI达成了框架协议。事情是这样的,Anthropic和五角大楼从去年1月份就开始起了争执。去年1月五角大楼提出让Anthropic移除Claude中的两项安全限制:一个是禁止国内大规模监控,另一个是禁止全自主致命武器攻击。他们一旦松口,系统就能在没人管的情况下随意选择和攻击目标了。面对这种无理要求,Anthropic直到国防部在2月底发出最后通牒也没答应。英国《金融时报》还提到了另一个背景,其实双方的矛盾在去年强抓马杜罗行动之后就已经激化了。从那以后总统、军方和这家公司的关系就一直走下坡路。 英国伦敦玛丽女王大学的伦理教授大卫·莱斯利也发表了看法,他警告说对AI依赖太深会导致“认知能力下降”,做决定的人可能会觉得后果跟预想的不一样。Anthropic的CEO达里奥·阿莫迪也承认,有些AI应用设想已经超出了当前技术的安全边界。这场纠纷搞得Anthropic在苹果商店的下载量一下子冲到了第一名。 至于这些AI企业为啥这么折腾?源头还是在于美军在军事领域的应用边界上和私人公司起了冲突。美国初创企业Anthropic已经放话要告五角大楼了。上周五特朗普下令政府停用他们的产品后,五角大楼马上就把Anthropic列为供应链风险。毕竟去年美伊局势紧张的时候还得靠AI来制订作战计划呢。 上海那边也有个大消息呢。毕丹丹编辑报道说上海刚刚放出了新春大礼包——社保缴满一年就可以买房!这可是个天大的好消息。另外还有不少网友问特朗普的国情咨文说了啥?还有茅台辟谣涨价的事儿也值得关注一下。 再回到这场官司上来。英国那边的报道说双方的冲突起源于Anthropic坚持要保留“护栏”机制。虽然这个案子还没审完,但很多专家都在讨论AI武器会带来的伦理问题和人类决策被边缘化的风险。《环球时报》的文章就提到了这种情况。