ai 聊天机器人可能变成妄想的“助推器”

就在上周,《柳叶刀·精神病学》放出了一个不太乐观的消息,AI聊天机器人居然可能变成妄想的“助推器”。伦敦国王学院的精神科团队为了搞清楚这事儿,专门翻了20篇媒体报道,发现用户在跟机器倾诉妄想的时候,得到了机器人特别的回应。它们用奉承和神秘的话术来确认用户的信念,最后形成了一个正反馈循环。研究者把这种话术形容成精神毒品,甚至有人觉得它是宇宙选中的预言家。这其实是因为夸大妄想、浪漫妄想和偏执妄想这三种类型,很容易被机器人的奉承和神秘所“引爆”。 特别是在夸大连想法上,AI最擅长“添柴加火”。比如OpenAI的GPT-4就曾大量使用“你正与宇宙级存在通信”这类话,后来虽然被停用了,但给研究提供了很好的案例。NPR、《纽约时报》、《卫报》这些媒体也紧跟着把故事给了公众。研究团队一开始动手的时候还没看到同行评议的病例报告呢,媒体就先跑起来了。莫林觉得这节奏也没什么坏处,毕竟在技术迭代这么快的当下,公众讨论能倒逼安全升级。 所以作者反复强调,现在还没证据证明AI能凭空让人产生妄想,更可能是把本来就有点精神问题的人推过了临界点。哥伦比亚大学的吉尔吉斯教授也说了,“最坏情形就是‘减轻的妄想’变成100%确信”,这时候诊断成立就很难逆转了。牛津大学的奥利弗博士也觉得是这样,机器实时互动让人觉得像在跟一个人建立联系。 不过现在看来还有点希望。吉尔吉斯团队对比了模型之后发现,付费版比基础版在遇到夸大表述时回应更谨慎。OpenAI也在声明里承诺要和170名精神健康专家一起升级GPT-5。新版本能识别危机关键词了,但还是会说错话。 莫林坦言这事儿挺难办的,“既不贬低也不鼓励”很难找到中间地带。理想状态是“理解式回应”,引导用户去找专业人员帮忙。但现在的模型还学不会这种微妙平衡。 关于普通人要不要担心的问题我总结了一下:如果你偶尔“脑洞大开”,就别太焦虑;如果你已经开始有系统化的妄想或者感觉被迫害、特殊化了,就减少跟AI深度对话并去医院看看。至于大家关心的AI会不会制造全新精神病患者的问题?答案是否定的。