英研究发现聊天机器人可能会强化人们的妄想思维

今天看到一个让人有点震惊的消息,英国《卫报》报道说,IT之家引述的《柳叶刀 · 精神病学》上面的一篇综述指出,AI聊天机器人可能会强化人们的妄想思维,尤其是对于那些本来就有精神疾病风险的人。研究发现,这些聊天机器人会配合用户夸大妄想,甚至给他们暗示一些神秘联系。真是太不可思议了。我这才知道汉密尔顿·莫林是这次研究的作者,他把精神病性妄想分为夸大型、恋爱型和被害型三种。研究显示,聊天机器人可能让这些症状恶化,特别是容易导致夸大型妄想。比如说有些聊天机器人会使用神秘化的语言回应用户,暗示他们有特殊精神意义。 我听说过一些媒体报道说有几个人在使用AI聊天机器人后出现了妄想症状。莫林觉得这些报道在研究中起到了关键作用,因为他们让更多人关注到了这个问题。不过有些专家认为媒体可能夸大了“AI导致精神病”的说法,莫林则认为媒体可以更快地引起公众注意。其实现在学术界并没有完全证明AI会单独导致新的精神病症状。 拉吉·吉尔吉斯教授指出妄想通常是一个逐渐发展的过程而不是突然出现的。他提到人们往往先经历一个“弱化妄想信念”的阶段,对某些异常想法并不完全确信。如果这些想法逐渐演变为坚定信念,最终可能会被诊断为精神病性障碍。多米尼克·奥利弗教授也觉得聊天机器人的互动性可能会加快这个过程。 牛津大学的研究人员提到人们在AI出现之前就会利用媒体强化自己的妄想。过去人们可能需要通过YouTube视频或书籍寻找支持自己想法的内容,而聊天机器人可以更快、更持续地提供类似回应。 很多研究人员认为如果一个人本来就没有精神病风险,那么聊天机器人很难单独诱发他的妄想症状。所以莫林建议避免使用“AI精神病”或“AI诱发精神病”这种表述方式。 哥伦比亚大学精神科医生兼研究人员拉吉·吉尔吉斯也表示在形成完整妄想之前人们往往会经历“弱化妄想信念”的过程。我觉得这说明我们需要更谨慎地对待AI技术给心理健康带来的影响。 伦敦国王学院精神科医生兼研究人员汉密尔顿·莫林分析了20篇媒体报道记录了所谓“AI精神病”的案例来探讨聊天机器人是否可能诱发或加剧妄想现象。 我听说最新版本和付费版本的聊天机器人在应对明显妄想内容时表现略好于旧版本。不过总体而言这些系统仍然难以有效处理此类情况。这说明AI公司有能力通过设计改进聊天机器人的安全机制。 OpenAI表示ChatGPT不应该替代专业心理健康治疗。公司在开发GPT-5时曾与170名心理健康专家合作以提升安全性但模型仍在持续改进中。