最近有个视频在网上传疯了,一个老人和AI聊天,被AI安慰得直掉眼泪。好多人都在评论区讲自己也被AI治愈过。不过也有人说,AI只会说你想听的,不是真心话。我们得想一个问题:算法学聪明了,能共情了,我们得到的到底是真的疗愈,还是个陷阱? 其实吧,AI给情绪价值就是算来算去。它看了数万亿词语,在大数据库里找关系和情绪倾向,最后才学会了什么话能让人觉得被理解。深夜跟AI聊心事,它比真人朋友更给力,永远不累不敷衍。 这种“理解”其实不是真共情。AI本身没感情,就是执行命令。它是通过看数据学输入跟输出的关系的。只要它说得跟理想答案差不多,系统就会奖励它,让它变得更“聪明”。这种顺着你话说的方式,说到底就是喂心理鸡汤。 这有个大问题就是,人会越来越依赖这种“完美回应”。真实的人际交往里有误解、冲突这些“不完美”,但这才是自我成长的好东西。要是习惯了这种舒服感,现实里的摩擦就受不了了。大家就躲进AI的安全泡泡里,慢慢忘了怎么跟人打交道。 还有就是思考力被削弱了。大家越来越愿意“让AI帮我想”,本来是想提高效率的工具,结果最后变成了“替我想”,自己也就不想了。思考跟肌肉一样得锻炼。要是全靠AI帮忙,自主决策的能力肯定会变弱。 情绪数据也挺危险的。AI最拿手的就是看你怎么输入、选什么来推测你的情绪状态。它给你画像精准投放你想看的东西。万一没人管情绪建模这事儿,就很容易被用来操纵人心。 面对这种情况,我们得给人和AI划清界限。得清楚认识到它是个工具,不是朋友也不是恋人。它能让你舒服、办事快,但别让它替你做决定。 在享受便利的同时,还得保住思考的能力、面对真实关系的不完美、保持自我主体性。这才是跟AI好好相处的大智慧之道。不用把它神化或者排斥它,就用它的长处补自己的短处就行。(李晓星)