问题——从“技术优化”异化为“付费改答案”。
“3·15”晚会曝光显示,一些机构和商家打着“内容优化”“答案管理”的幌子,利用GEO等方式对大模型输出施加影响:通过批量制造、投放虚假或偏向性信息,把营销内容伪装成权威结论,并以付费形式获取更高的露出与推荐位置。
表面看是提升“可见度”,实则是在模型训练与内容检索、排序等环节进行操纵,使面向公众的回答从“基于事实”滑向“基于付费”。
这一现象折射出大模型应用快速普及背景下,信息生产与传播链条出现新的可乘之机。
原因——利益驱动叠加治理缝隙,形成可复制的灰产模式。
一是商业利益诱导强。
大模型已成为消费者获取商品、医疗健康、金融理财、出行服务等信息的重要入口,一旦“答案”能够被影响,就可能直接转化为流量与订单,驱使不法商家铤而走险。
二是技术与生态迭代快于规则供给。
大模型应用形态多样,既包括训练数据、插件与工具链,也包括搜索增强、推荐排序、知识库检索等环节,治理边界更复杂,传统针对网页内容或广告投放的监管手段难以完全覆盖。
三是部分平台主体责任落实不到位。
对内容来源、数据质量、可疑操纵行为的识别与处置机制不健全,缺乏对异常账号、异常投喂、异常推荐的联动风控;对外部“代运营”“优化”服务的合规审查不足。
四是违法成本与取证难度不匹配。
灰色业务往往以“咨询服务”“技术服务”包装,链条分散、交易隐蔽,给发现、固定证据和跨平台追踪带来挑战。
影响——损害消费者权益,侵蚀市场秩序,动摇数字信任。
对公众而言,被“投毒”的输出可能造成误导性消费决策,甚至在医疗、教育、金融等领域诱发更高风险的错误判断,带来现实损失。
对市场而言,付费操纵答案破坏公平竞争,让守法经营者在“流量竞价”之外再遭“答案竞价”,形成劣币驱逐良币。
对行业发展而言,模型输出的可信度是产业根基,一旦“答案可被买通”成为普遍认知,将削弱公众对新技术的信任,阻碍大模型在政务服务、公共治理和实体经济中的深度应用。
同时,这类行为还可能引发更隐蔽的内容操控与舆情风险,放大社会治理成本。
对策——坚持全链条打击、全平台治理、全周期防护。
其一,压实平台主体责任,建立“可追溯、可解释、可审计”的安全治理体系。
平台应对训练数据、知识库来源、引用链路、外部内容接入进行分级管理,完善投喂与检索环节的异常检测,对集中生成、批量发布、相互引流等可疑模式实施实时拦截;对商业内容与广告信息严格标识,防止营销信息伪装成“标准答案”。
其二,强化执法监管协同,形成对灰色产业链的精准打击。
针对“付费改答案”“代投喂”等业务形态,相关部门可开展专项整治,推动跨平台线索共享、跨地域联合执法,依法查处虚假宣传、欺诈营销、不正当竞争等违法行为,提高违法成本。
其三,推动行业标准与合规评测落地。
围绕数据质量、内容安全、广告标识、模型输出引用规范、第三方插件与工具链安全等制定可操作的标准与测评体系,促进企业在产品上线前后开展持续安全评估。
其四,完善公众侧的风险提示与纠错渠道。
平台应提供清晰的来源引用、反馈纠错与申诉机制,畅通用户举报通道,建立“发现—核查—更正—通报”的闭环处置,减少错误信息扩散。
其五,倡导企业合规经营与行业自律。
对外提供“优化服务”的机构应明确边界,严禁以虚假信息、误导性内容干预模型输出,行业协会可建立黑名单与信用惩戒机制。
前景——以治理促发展,在安全底座上释放技术红利。
大模型正在重塑信息获取方式,其价值不仅在于效率提升,更在于公共知识与商业信息的可信供给。
面向未来,治理思路应从事后处置转向事前预防,从单点封堵转向系统防护:在技术层面加强对抗样本、数据污染、排名操纵等风险的识别能力;在制度层面强化平台责任、广告合规与数据治理的衔接;在生态层面推动多方参与,形成监管部门、平台企业、内容机构、科研力量与公众监督共同作用的治理格局。
只有把“可信”作为底线,把“透明”作为原则,把“可问责”作为约束,才能让技术创新更稳健、市场竞争更公平。
在数字经济时代,数据质量直接关系到技术应用的可靠性。
此次"3·15"曝光的问题敲响了警钟:技术发展不能以牺牲诚信为代价。
只有筑牢安全防线、坚守伦理底线,人工智能才能真正成为推动社会进步的有益工具。
这需要政府、企业和社会各界的共同努力,共同维护清朗的数字生态空间。