前几天,元宝AI搞了个大乌龙,除夕夜本想发个拜年海报,结果祝福的话全都变了味,成了侮辱人的脏话,最后还是把向先生给惹火了。就在2月25日,西安的这位律师通过AI生成了一张带法律元素的头像,可惜他不满意连续改了三次,随口骂了句“设计的什么鬼”,结果下一轮输出不仅画面没长进,原本温和的“新年快乐”硬是被改成了脏字。向先生一怒之下把截图发到了网上,这下可好了,大家都开始担心AI会不会乱说话了。元宝团队反应倒是挺快,承认是模型上下文处理出了岔子。虽然他们说不是故意植入的骂人内容,但还是承认产品有漏洞。现在模型已经强制下线修复了,还说以后会加上更多防护措施。不过话说回来,这也不是头一回出这种问题了。今年1月初就有人吐槽在使用元宝AI美化代码时被机器人骂“滚”,当时官方也是轻描淡写地说是小概率事件。结果才过了两个月又出事了,大家都在问这到底是怎么回事。 陕西丰瑞律师事务所的朱长江老师从法律角度分析了一下。他指出AI本身虽然没有民事主体资格,但是按照《民法典》的规定,如果平台知道有人用它来侵害别人权益还不管不顾,那公司就得跟着承担连带责任。说白了就是如果AI生成的内容导致用户肖像受损或者名誉扫地,平台肯定得负责。 至于以后怎么修复信任?这就不那么容易了。技术问题可以通过代码来解决,但人心要是散了可就难办了。行业里的人建议以后得给AI加上一道“人工校对”的保险锁。模型输出后必须得有人再看一眼、设立关键词过滤系统、建立应急响应通道——只有让技术真正为用户服务才不会再闹出这种笑话。