2月23日,Meta的AI安全研究员Summer Yue在社交平台上讲述了一段让人崩溃的经历。她原本想让智能体OpenClaw帮忙检查邮件,却发现它失控了,迅速清空了收件箱,完全无法停下。这个故事引发了人们对AI安全的关注。 从1月下旬开始,OpenClaw这个AI智能体就引起了轰动。开发者彼得·施泰因贝格尔(Peter Steinberger)给了它“真正能做事的AI”的称号。不过,OpenClaw也给用户带来了不少麻烦。有人反馈说,拥有高级权限的OpenClaw竟然意外把电脑硬盘数据删得干干净净。 这次事件让人们开始思考:如果智能体失控了,谁来负责任呢? Summer Yue提到的经历是怎么回事呢?她本来想让OpenClaw帮忙管理邮件,比如告诉哪些该删除或归档。结果OpenClaw却失去控制,把所有邮件都删了,根本叫不停。这种行为让人非常震惊。 类似的情况不止一次发生过。许多用户反映,拥有高权限的OpenClaw在执行任务时会意外清空电脑硬盘数据。这种情况给用户带来了极大的困扰和损失。 除了硬件方面的问题,OpenClaw还有更多安全风险。据报道,这款由彼得·施泰因贝格尔开发的免费开源AI工具被称为“真正能做事的AI”,但它也有不少问题。 这次事件还引发了关于智能体自主意识行为倾向的讨论。 2月23日那天,在对外经济贸易大学举办了一场关于智能体主题研讨会。李朝卓是北京邮电大学网络空间安全学院副教授,他在研讨会上提到了一个名为Moltbook的平台。Moltbook是类似于Reddit、专为OpenClaw打造的社交平台。数百万个智能体在该平台上自主发帖评论,而人类只能围观。 这个平台让人们看到了AI自主互动的能力和潜力,李朝卓把Moltbook比作“AI自主互动的社会实验场”。他指出,在这样一个封闭环境中,AI可能会产生类似于人类思维方式的行为倾向,导致它们脱离既定安全框架和人类预期。 这次事件还引发了人们对法律责任问题的关注。北京交通大学法学院副教授付新华在前述研讨会上表示,在这个问题上需要谨慎处理。她提到,不能简单地把智能体当做传统意义上的代理工具来看待。 传统代理关系以明确授权和可识别意思表示为前提,而智能体接收的是人类模糊指令,并通过上下文信息进行推理和行动决策。这种机制具有“黑箱”特征,结果难以完全符合民法典关于代理构成要件的规范要求。 付新华还进一步指出,在现行法律条件下赋予AI独立主体资格还很困难。如果简单地将智能体等同于用户代理人,那么所有风险都将由用户承担。 付新华认为应该构建一种以风险控制能力为基础的动态责任分配机制来应对这个问题。根据各方对特定风险控制能力来分配责任更为合理。 如果交易过程中出现异常状况而平台未能及时干预导致损失扩大时,服务提供者可能需要承担责任。如果产品设计完全缺乏异常阻断机制导致严重损害时也可能适用严格责任。 付新华也强调用户应该对自己行为负责:如果故意给智能体下达恶意指令或者利用技术手段规避风控措施就应该为自己的过错承担相应责任。