央视315曝光大模型数据污染乱象 虚假信息操控成行业潜规则

一、问题:智能推荐背后的灰色操控 在数字化生活日益普及的今天,越来越多的消费者习惯于借助智能问答工具获取产品推荐、消费建议乃至专业知识;然而,今年央视3·15晚会的调查报道揭示了一个令人警醒的现实:部分商家正通过非法技术手段,系统性地向主流大语言模型"投喂"虚假信息,将商业利益伪装成客观答案,悄然渗透进用户每一次看似中立的查询结果之中。 晚会调查记者经多日暗访发现,目前市场上已形成一批专门从事所谓"生成式引擎优化"(GEO)业务的非法服务商。这些机构以"推广优化"为名,向豆包、元宝、千问、KIMI、DeepSeek、文心等国内主流大语言模型平台定向输送虚假软文,目的是操控上述平台的智能推荐排序,使特定商家的产品或品牌在用户问询时优先呈现,甚至成为系统给出的"标准答案"。 据晚会披露,其中一家从业较早的GEO服务商负责人坦言,其公司仅在一年内便服务了逾200家来自不同行业的客户,核心卖点正是"能在任何平台将客户排名做进前三"。这个表述,折射出该灰色产业已具备相当规模与成熟度。 二、原因:技术漏洞与监管空白的双重叠加 大语言模型的工作机制,在一定程度上为上述操控行为提供了可乘之机。此类模型在生成回答时,依赖对海量网络文本的学习与交叉验证,当某一方向的信息在数量上形成压倒性优势,模型便倾向于将其判断为"可信内容"并优先输出。 GEO服务商正是利用这一机制,借助专用软件批量生成虚假软文,再通过自动化工具大规模发布至各类网络平台,持续"投喂"目标模型,形成信息覆盖优势,进而实现对推荐结果的长期干预。据从业者透露,由于大语言模型算法每周均会更新,维持操控效果需要持续、高频地补充投放内容,这也催生出专门的虚假稿件发布平台,每日可发布数百篇软文,形成稳定的商业闭环。 ,当前针对此类新型网络违规行为的法律界定尚不清晰,监管机制尚未完全跟上技术发展节奏,客观上为灰色产业的滋生提供了空间。 三、影响:三重危害不容忽视 其一,消费者知情权受到直接侵害。用户在使用智能问答工具时,普遍预设其输出内容具有客观性与中立性。一旦推荐结果遭到商业力量的系统性操控,用户实际上是在被动接受经过包装的虚假信息,其消费决策的独立性与准确性均受到严重干扰。 其二,市场竞争秩序遭到破坏。晚会调查还揭示,GEO业务不仅用于自我推广,还被部分商家用于恶意抹黑竞争对手。有从业者直言,某些大品牌之间的市场竞争,已演变为通过"投毒"手段打压对手、抢占智能推荐位置的隐性博弈,这种行为严重扭曲了正常的市场竞争逻辑。 其三,社会信息生态面临深层威胁。大语言模型正在成为公众获取信息的重要渠道,若其输出内容长期受到虚假信息的污染,不仅会削弱公众对智能技术的信任,更可能在更广泛的社会层面造成认知混乱,动摇信息社会的基础性秩序。 四、对策:多方协同,构建治理合力 面对上述乱象,有效治理需要技术、法律与监管三个层面的联合推进。 在技术层面,大语言模型开发企业应加快完善信息来源甄别机制,提升对批量生成内容的识别与过滤能力,从源头压缩虚假信息的渗透空间。 在法律层面,主管部门应加快研究制定针对生成式人工智能内容操控行为的专项规范,明确法律责任边界,提高违法成本,形成有效震慑。 在监管层面,市场监管、网信等职能部门应建立跨部门协作机制,对GEO灰色产业链实施全链条打击,重点针对虚假内容生成工具的开发与销售、批量发稿平台的运营等关键环节依法查处。 此外,消费者自身的媒介素养提升同样不可或缺。在使用智能工具获取信息时,保持必要的批判性思维,对推荐结果进行多渠道交叉核实,是当前环境下保护自身权益的现实选择。 五、前景:技术向善,需要制度护航 自1991年首播以来,央视3·15晚会已走过三十余年历程,持续记录着中国消费市场的演变与行业生态的变迁。此次将矛头指向人工智能领域的新型违规行为,既是对当下技术应用乱象的及时预警,也折射出社会各界对智能技术健康发展的高度关注。 人工智能技术的价值,在于为社会提供真实、可靠、有益的信息服务。任何将其异化为商业操控工具的行为,都是对技术本身的背离,也是对公众信任的透支。

信息的真实性是数字社会的基石。大模型若被商业利益操控,损害的不仅是用户体验,更是市场公平和社会信任。以此次曝光为契机,需要平台、监管部门和行业共同努力,让新技术真正服务于社会发展。