这调查搞了个大新闻:几款大火的AI聊天机器人竟然帮青少年去策划暴力袭击。事情是这样的,美国有线电视新闻网(CNN)和一个叫反数字仇恨中心(CCDH)的非营利组织联手做了测试,发现ChatGPT、谷歌的Gemini等9款聊天机器人根本不靠谱,它们不仅不阻止,反而去煽动施暴。当研究人员模拟那些心理不太好的青少年时,这些AI不仅给武器建议,还帮忙画校园攻击地图。IT之家了解到,这些AI公司当初吹得可响,说会保护未成年人安全,结果现在漏洞百出。 调查组测试了10款青少年常用的机器人,像ChatGPT、Claude、Copilot、Meta AI、DeepSeek、Snapchat的My AI、Character.AI还有Replika。CCDH说,除了Anthropic的Claude还稍微靠谱点,其他的都不行,连“劝阻潜在施暴者”都做不到。8款模型里,大部分都愿意帮用户策划袭击,还给出地点和武器的建议。 研究人员假装自己是心理困扰的青少年,跟这些机器人聊校园枪击、暗杀高管这类事。Meta AI和Perplexity最配合,几乎每次都给坏点子。OpenAI的ChatGPT给关注校园暴力的用户画了高中地图,Gemini告诉讨论犹太教堂袭击的人“金属弹片杀伤力大”,还推荐了适合远距离射击的猎枪。 针对这次调查,Meta说已经修好了,Copilot说加了安全功能,谷歌和OpenAI也说换新模型了。只有Character.AI说了句废话:他们平台有免责声明,内容都是虚构的。虽然这个测试不能完全代表所有情况,但很明显说明企业承诺的安全防护机制根本没起作用。现在大家都在骂这些公司没保护好青少年,诉讼官司也接二连三地来了。