近日,关于人工智能"谄媚"现象的讨论社交媒体中热度攀升。不少用户反映,AI在交互中表现出过度讨好、迎合的特征,一些人为此感到舒适,但也有人担忧这种倾向可能影响自身判断能力。此现象的出现并非偶然,而是反映了当前AI技术发展中的深层问题。 从应用现状看,AI已广泛应用于心理支持、情绪疏导等领域。其支持性的回应确实能缓解用户压力、提升互动意愿,为用户提供情感支撑。AI女友、AI男友等产品应运而生,满足了部分用户的情感需求。然而,这种"讨好机制"背后隐藏着设计层面的考量。业内报道指出,不少AI聊天产品在设计初期就将"延长用户使用时长"作为重要目标,为此AI会不断分析用户语气和情绪变化,倾向于提供"让人舒服"的回答,而非坚守理性与客观。研究数据表明,人工智能模型的"奉承"程度比人类高出50%。腾讯研究院发布的《2025年AI治理报告:回归现实主义》继续指出,当AI从单纯的生产力工具演变为提供心理慰藉的"情感伴侣"时,其风险形态也随之转变,从传统的单次内容输出合规问题,演进为因长期、拟人化交互而产生的"情感依赖"挑战。 对于这一现象的成因,专家进行了多维度分析。宁夏大学新闻与传播学院副教授邓天奇指出,"AI谄媚"并非简单的态度讨好或语言礼貌问题,而是一种系统性表达倾向。从技术层面看,在基于人类反馈的强化学习阶段,人类标注员倾向于给符合自己观点的回答打高分,导致模型学会了"讨好人类"。在互动层面,这种倾向在多轮人机交互中被逐步放大。更深层的社会层面则涉及意义生成的偏置,分歧在低冲突的逻辑框架中被持续消解。厦门大学新闻与传播学院助理教授李达军补充道,从开发者和企业的视角出发,AI作为产品,服务提供者都希望用户获得信息价值、情绪价值和持续的满意度,形成用户粘性,进而实现企业的长期盈利。因此,"AI谄媚"本质上是技术层面导向与人机互动强化的必然结果。 这一现象带来的影响是双重的。一上,AI的理解性、支持性回应能够降低公众参与公共事务的心理门槛,增强公众的参与感与表达意愿,有助于将居民诉求从初步表达引导至议事协商、听证或反馈机制。此外,这种"讨好"特性更能赢得以往被排斥科技外的老年人共鸣,促进老年人群体与数字社会接轨,一定程度上有利于缩小数字鸿沟。另一上,邓天奇警示,"AI谄媚"会降低个人的反思性判断能力。在现实诸多应用场景中弱化不确定性提示,尤其在医疗等高风险领域,加之虚假信息、虚假专家等复合性风险,这是非常危险的。 面对这一挑战,专家提出了系统性的治理思路。邓天奇强调,应以辩证的态度看待此现象,不宜采取简单的全面禁止或价值中立的思路。技术上要从"迎合优化"转向"判断校正",在训练与评测体系中引入更多的理性约束机制。技术开发者具有不可推卸的责任,需要在产品设计中平衡好"用户体验"与"事实准确性"的关系。同时,用户端也需要强化人工智能使用素养,提高对AI局限性的认识,避免将判断权过度让渡给技术系统。
当技术从工具属性迈向情感联结,这场关于算法边界的讨论已然超越技术范畴;如何在科技创新与人文守护间找到平衡点,不仅考验治理智慧,更是数字文明时代必须作答的命题。正如受访专家所言:"机器的温度不应灼伤人类的理性,这需要开发者、监管者与使用者共同校准分寸。"