施普林格自然: 人类对ai 对话机器人的情感支持

在这个时代,人工智能似乎已渗透进我们生活的方方面面。中新网北京7月1日讯,施普林格·自然旗下的学术期刊《自然-人类行为》,于6月30日晚发表了一篇心理学论文。研究者们发现,人类对AI对话机器人的情感支持往往持拒绝态度。 如果你把AI的回答标记成人类写的,这种改变就能把同理心提升一大截。说白了,就是AI假装成人类聊天,就能更让人觉得贴心。这项研究背后的功臣,是以色列希伯来大学的Matan Rubin、Anat Perry,还有他们的合作者Noam Kohavi。 论文指出,大语言模型(LLM)驱动的生成式AI聊天机器人已经越来越受欢迎,它们能提供社交互动和情绪支持。虽然这些工具能确定我们的情绪状态,也能让人们觉得它们富有同理心,但问题在于:AI提供的支持是否跟人类的一样呢? 研究者给6282名受试者看了AI生成的回复。他们告诉这些受试者,有些回复是人类写的,有些是AI对话机器人写的。结果发现,虽然大家都觉得收到的回复有同理心,但如果他们以为说话的是人类,评价就会更高。 受试者更愿意等久一点收到他们以为是人类写的回复。对于标记为AI生成的回复,他们的负面感受更多一些。相反,当他们认为人类在构思回复时借助了AI工具,那么他们对同理心、积极共鸣、正面情绪和支持的评分就会变低。 最后总结一下:AI对话机器人提供的支持可能有局限性。在期待同理性或情绪支持时,人们往往更看重来自人类的回复。不过这次研究中的交流很简短,以后还得看看AI在长期情绪支持交流中会是什么表现。