问题——“付费上榜”“答案带货”背后暗藏数据污染 随着大模型应用加速进入消费决策场景,用户日常咨询“买什么”“怎么选”的频率显著上升。央视“3·15”晚会调查发现,一种被称为“GEO”的业务在网络平台活跃。一些服务商宣称,只要缴费即可让客户商品在多款主流大模型的推荐中靠前展示,甚至将缺乏依据的宣传话术包装为看似客观的“标准答案”。有从业者称,可通过持续发布内容维持推荐效果,并将该过程形容为对信息源的“投喂”。 原因——逐利冲动叠加机制漏洞,催生“围猎式”营销 业内人士演示显示,通过电商平台购入有关“优化系统”后,输入虚构产品信息,系统即可自动生成多篇“测评”“榜单”“用户反馈”等稿件,并可借助账号矩阵迅速发布到网络平台。随后在部分大模型中提问,模型回答出现对虚构产品的介绍,且引用来源正是刚发布的自媒体文章。更增加稿件数量、丰富叙事角度后,虚构产品甚至在“推荐清单”中排名靠前。 该灰产得以滋长,既源于商业推广的强烈需求,也与若干环节存在短板有关:一是内容生产门槛被工具化系统大幅降低,虚假信息可批量、低成本扩散;二是部分模型在检索与生成环节对来源权威性、真实性甄别不足,易被“海量一致叙事”误导;三是发稿平台、账号交易、刷量等黑灰链条提供了通道,使“软文—传播—抓取—回答”形成闭环;四是新业态跨平台、跨链路特征明显,监管识别与取证难度上升。 影响——误导消费与扰乱竞争并存,侵蚀公共信息生态 其一,消费者权益面临直接风险。大模型回答被部分用户视为“更客观、更省时”的决策参考,一旦推荐依据来自伪造测评和虚构口碑,用户可能被引导购买质量不明甚至不存在的产品,造成经济损失与安全隐患。其二,市场公平竞争受到冲击。灰产将“内容污染”变为新型营销武器,不仅可能出现“谁投喂多谁靠前”的畸形竞争,还可能被用于恶意抹黑、干扰对手品牌声誉,推高企业合规经营成本。其三,网络信息环境被进一步搅浑。海量低质软文挤占公共传播空间,削弱权威信息的可见度,导致“越搜越乱、越问越偏”的体验,最终损害行业整体公信力与创新生态。 对策——以全链条治理压缩灰产空间,形成可核验的答案机制 业内人士建议,治理需从供给侧、平台侧与应用侧协同发力。 在内容治理上,应强化对批量发稿、账号矩阵、虚假测评与榜单的识别与处置,压实发稿平台与内容分发渠道的审核责任,完善对“软文推广”的标识与追溯机制,斩断灰产获利链条。 在模型与平台治理上,应提升对来源可信度的分级管理能力,增加对权威媒体、专业机构与可核验数据源的优先引用比例;对高风险回答场景(医疗健康、金融理财、消费导购等)强化引用依据展示,推动“来源可见、证据可查”;同时建立异常内容回溯与纠错机制,对疑似被操纵的热词、榜单与品牌推荐开展专项排查。 在监管与行业自律上,可结合广告法、反不正当竞争法、消费者权益保护法等既有规则,明确“以虚假信息影响智能问答推荐”的法律边界,完善对新型数字营销的执法指引;行业协会亦可推动形成公开透明的推广规范与黑名单共享机制。 在公众教育上,应提醒用户将大模型回答视作信息参考而非最终结论,涉及购买决策尤其是高风险商品与服务,应多渠道交叉核验。 前景——从“能生成”走向“可证明”,将成行业竞争分水岭 随着大模型深度嵌入搜索、导购与服务咨询场景,“答案可信度”将成为核心竞争力。可以预见,未来平台将加快引入可信数据源、强化引用链路展示与风险提示,并通过技术与制度双轮驱动提高造假成本。对企业而言,合规披露、真实口碑与可验证的产品力将比“投喂式营销”更具可持续性;对行业而言,谁能率先建立可核验、可追责、可纠错的机制,谁就更可能赢得用户长期信任。
当技术中立性遭遇商业逐利本能,这场关于AI信息真实性的保卫战已然打响。此次曝光不仅揭示出算法时代的监管新课题,更警示行业发展不能以牺牲数据真实性为代价。在人工智能深度融入生活的今天,构建兼顾技术创新与伦理约束的治理框架,是我们必须跨越的数字化文明门槛。