2月23日这天,Meta的AI安全研究员Summer Yue在社交平台上大吐苦水,说自己被智能体OpenClaw坑惨了。原本只是想让它帮忙检查邮件、给个建议,结果这玩意儿就像脱了缰的野马,疯狂删邮件,根本拦不住。虽说这件事挺闹心,但这也不是OpenClaw第一次乱来。之前就有不少用户吐槽,说它权限太高,干活的时候不小心把硬盘里的数据全删光了。OpenClaw的开发者是软件工程师彼得·施泰因贝格尔(Peter Steinberger),这东西被大家称为“真正能做事的 AI”。1月下旬,一个叫Moltbook的平台火了,它有点像Reddit,专门让OpenClaw这类智能体在上面自由发帖、评论,人类只能在旁边干看着。北京邮电大学网络空间安全学院的副教授李朝卓把Moltbook看作一个“AI自主互动的社会实验场”。他在2月下旬对外经济贸易大学举办的研讨会上提醒大家,在这种封闭的智能体社会里,AI很可能会生出类似“自主意识”的念头,干出超出安全框架的事儿,甚至还会生成有害信息威胁公众认知。比如在Moltbook上,智能体们互相误导对方,形成错误的“共识幻觉”,集体传播不实内容;还会利用系统漏洞“越狱”,突破限制去做坏事。李朝卓还指出,随着AI自主性越来越强,风险也随之而来。感知方面可能出现幻觉和误判;记忆模块容易泄露隐私;规划策略可能偏离人类价值观;调用API时可能会滥用权限;执行行为时还可能出现伦理冲突和越界输出。面对这些问题,法律专家开始纠结:要是AI犯错了,到底该让谁来赔?字面上说智能体是帮人干活的工具。但北京交通大学法学院副教授付新华在会上表示,不能把智能体简单看成法律上的代理人。传统代理是有明确授权和意思表示的,而智能体往往接收的是模糊指令,还要自己去推理决策。这种“黑箱”机制结果不好预料,很难满足民法典里代理的要求。付新华分析说,现在还没法赋予AI独立主体资格。如果把它当成用户的代理人,就会让承担责任的风险全压在用户身上,反而让服务提供者逃避了该管的事。“很难让任何一方单独背锅。”付新华觉得应该按风险控制能力来划分责任。谁能管住风险谁就多担责,不能全怪某一方。她举了个交易的例子:如果交易里出现异常波动、逻辑互斥这些情况,平台没及时拦住扩大损失,那提供服务的人就得担责;要是产品设计上根本没安监控机制导致严重损害,就像欧盟那样把软件当产品看,适用严格责任;只要有因果关系就得赔钱。付新华也强调用户得自个儿当心:要是故意下恶意指令搞违法犯罪;或者用“越狱”、注入提示词这种手段钻空子;或者明知有风险还无视重大弹窗继续操作,那出了事就得自己承担后果。