问题——“可控推荐”被包装成生意,搜索问答结果或被营销左右 随着大模型应用加速普及,越来越多用户通过智能问答获取商品与服务信息。媒体调查显示,部分服务商以“GEO”为名对外揽客,宣称只要付费就能把客户产品“做到前列”,让推广信息在多平台大模型回答中占据更靠前位置,甚至被包装成权威结论。一些从业者将其称为“让模型听话”“给模型洗脑”,并以“任何平台排名前三”等话术吸引客户。这表明,大模型正在成为新的营销争夺入口,也存在被不当操纵的风险。 原因——逐利驱动叠加规则缝隙,形成“内容工厂+算法博弈”的链条 一是商业利益驱动强。大模型检索与问答特点是“入口强、背书强”,用户更容易把回答当作可信建议。企业为争夺曝光愿意投入预算,灰色服务随之滋生。 二是平台抓取与收录机制被利用。服务商往往通过批量生产“软文”,在多渠道铺设内容,再借助传播与转载提高被抓取概率,制造“信息堆叠”,进而影响模型引用与排序。 三是模型与算法迭代带来“持续投喂”需求。调查中有服务商称算法更新频繁、排名易波动,需要长期输出、持续投放才能维持效果。这种“对抗式优化”与传统搜索引擎优化逻辑相近,但大模型回答具有汇总与再表达特性,一旦引用偏差信息,误导性可能被更放大。 四是治理体系仍在完善。围绕“生成式推荐”“合成内容标识”“商业推广披露”等规则,在一些场景落实不足,营销内容与客观信息的边界不够清晰,给不当操作留下空间。 影响——扰乱市场秩序,损害消费者知情权并冲击大模型公信力 其一,误导消费决策。若模型回答被软文左右,用户可能把商业宣传当成客观评测,进而影响购买与选择,侵害消费者知情权与公平交易权。 其二,挤压优质信息空间。大量同质化推广内容占据传播渠道,可能稀释权威信息与真实口碑,形成“谁投喂多谁靠前”的逆向激励,破坏行业生态。 其三,放大信息安全风险。若“投喂”内容夹带夸大宣传、虚假承诺甚至违法信息,可能借助模型回答快速扩散,引发更广泛影响。 其四,削弱技术产品可信度。大模型的价值在于提升信息获取效率与质量,一旦用户频繁遇到“看似客观、实为广告”的答案,将对平台信誉、产业发展和公众信任造成长期损害。 对策——以透明披露、技术对抗与监管协同构建治理闭环 首先,平台应强化“商业内容识别+引用溯源”。对可能存在推广意图的内容建立风险画像与拦截机制,提升对批量软文、异常转载网络的识别能力;在回答中强化来源展示与可追溯链接,减少“黑箱式背书”带来的误导。 其次,完善商业推广标识制度。对付费推广、导购链接、品牌合作等场景,推动显著标识与利益关系披露,明确“广告与推荐”的边界,让用户能识别、能选择。 再次,建立对“操控服务”的整治机制。对公开兜售“操控排名”“保证上榜”等服务的账号、机构和渠道,平台应依规及时处置,并推动发布端与交易端联动治理;对涉嫌虚假宣传、商业贿赂或不正当竞争的行为,依法依规移交相应机构查处。 同时,行业应推动标准建设与第三方评估。围绕大模型检索问答的内容质量、抗操纵能力、广告合规展示等建立评测指标,形成可量化的安全与合规门槛。 此外,加强公众教育与企业自律。引导用户对“唯一答案”“绝对推荐”保持必要审慎;倡导企业以产品质量与服务能力参与竞争,减少对灰色流量手段的依赖。 前景——从“流量争夺”走向“可信竞争”,大模型生态将更重规则与责任 可以预见,随着大模型更深嵌入消费、医疗、金融、政务等关键领域,围绕答案可信度的竞争将从技术延伸到治理。未来一段时间,平台的抗操纵能力、商业内容透明度与合规运营水平将成为分水岭。能在提升体验的同时守住真实性与公正性底线的平台,更可能赢得长期信任。同时,监管部门在数据合规、广告标识、反不正当竞争等规则上的衔接也将更细化,推动形成“可追责、可验证、可持续”的治理格局。
信息服务的价值在于真实、准确与可验证。面对新技术带来的新入口、新流量与新风险,治理不应止于一次曝光,而要落实到制度约束、技术防护与行业自律的系统建设。让内容来源更透明、商业行为更易识别、违规成本更高,才能守住公众信任,推动生成式大模型在规范轨道上释放更大的社会价值。