新型数字营销暗藏信息污染风险 专家呼吁构建生成式内容治理体系

问题——从“问答”到“入口”,隐性广告借势渗透;近年来,生成式人工智能在智能搜索、内容创作、生活服务等场景普及,“遇事先问一问”的使用习惯逐渐形成。然而,一些用户在使用过程中发现,部分回答看似中立客观,实则夹带产品导向、机构推荐甚至带有明显商业倾向的内容,且呈现方式更隐蔽、更难分辨。这种借助模型检索与生成机制影响答案呈现的做法,被业内概括为生成式引擎优化(GEO)。其本质是围绕“让信息更易被模型检索、引用并写进回答”进行的内容与传播策略调整,但在缺乏边界约束的情况下,容易滑向“暗投放”“软植入”。 原因——用户迁移、技术迭代与流量重分配共同催生。其一,流量入口加速向对话式交互转移。公开报告显示,国内生成式人工智能用户规模已达较高水平,使用场景从单一工具扩展至搜索、咨询与决策辅助,AI成为新的信息分发枢纽。其二,技术架构升级改变了“被看见”的规则。以检索增强生成(RAG)等方案为代表,模型会结合外部检索结果与自身生成能力输出答案,内容的结构化程度、语义贴合度、来源权威性更容易影响最终呈现。其三,企业营销需求与传统手段边际效应下降叠加。随着传统搜索生态变化,一些企业把“出现在AI答案里”视为新的竞争高地,在成本与效果压力之下,推动GEO从策略走向产业化。其四,用户对“整合式答案”的信任迁移,为隐性广告提供了空间。相比逐页甄别网页信息,用户往往更愿意相信“被整合后的权威结论”,这使得一旦答案被操控,误导的效率更高、影响更广。 影响——信息质量受损、用户权益受侵、市场秩序面临挑战。首先,语料污染与低质重复内容可能拉低模型检索与生成的整体可信度。一些从业者通过批量投放同质化内容、刻意堆叠关键词或制造“看似有关”的叙述,使其在语义匹配中占优,挤压真实优质信息的可见度。其次,“伪权威”包装将削弱公众判断力。通过拼贴数据、虚构报告、冒用专家名义等方式抬升可信度,会使模型更倾向引用,最终把营销包装成“知识”。再次,公平竞争与消费者权益可能被破坏。当用户在不知情情况下接受商业导向信息,等同于被剥夺知情权与选择权;而合规经营者在“黑箱优化”面前处于劣势,容易形成劣币驱逐良币。更需警惕的是高敏感领域的风险放大。在医疗、金融、公共政策等对真实性要求极高的场景,一旦错误或带偏向的建议被放大传播,可能造成现实损失,甚至引发群体性误读。 对策——既要“治外”也要“修内”,以规则与技术共同兜底。治理GEO并非否定合理的内容优化与信息服务,而是要划清“提升可获取性”与“操控性投放”的界限,推动透明、可追责、可审计的生态建设。 一是完善语料采用与净化机制,建立“可追溯”的数据治理链条。大模型厂商与平台应加强对抓取来源、内容质量、重复度与异常传播模式的识别能力,及时清理疑似污染内容;行业层面可推动形成“语料污染”判定口径与处置流程,减少灰色操作空间。 二是强化商业内容识别与显著标识,落实“可辨识”的信息呈现原则。对带有商业合作、推广意图或利益关联的信息,应明确提示来源与性质,避免以“知识回答”之名行“隐性广告”之实;同时完善投诉与纠错通道,提高纠错效率,降低误导持续时间。 三是对高敏感领域实施更严格的准入与校验。针对医疗、金融、教育、政务等领域,可建立分级风控与多重核验机制,提升引用门槛,扩大权威信源权重;对明显存在虚假背书、误导性宣传的内容,依法依规追究责任。 四是健全平台治理与行业自律的协同机制。平台应完善内容生产者与营销服务商的行为规范,建立黑名单、信用评价与处罚闭环;行业组织可推动制定GEO合规指南与服务标准,引导企业在公开透明框架下进行信息传播。 五是加强公众媒介素养与风险提示。引导用户把AI回答视为信息线索而非最终裁决,尤其在重大决策前进行多源交叉验证,形成更稳健的判断链。 前景——从“抢答案”走向“立规则”,透明度将成为竞争力。可以预期,生成式技术将长期作为信息入口存在,围绕答案呈现的竞争也会持续。但行业要走得更远,必须从“算法投机”转向“可信供给”:用真实、可核验、可引用的高质量内容赢得模型与用户,而不是用噪声与伪权威获取短期曝光。监管、平台与市场若能形成合力,建立明确边界与可执行标准,GEO有望在合规框架下成为提升信息可达性与服务效率的工具;反之,若放任无序扩张,信息生态将付出更高的纠错成本,公众信任也将被消耗。

GEO现象折射出AI时代信息生态的新挑战。解决该问题需要技术提供方、平台、监管部门和用户的共同努力。通过技术创新、制度完善和社会共识的协同,我们才能在享受AI便利的同时,构建更健康透明的信息环境。