生成式人工智能搜索结果遭商业操控 专家呼吁强化信息生态治理

问题——答案被商业信息“裹挟”,问答功能偏离公共属性。

生成式问答因能整合信息、直接给出结论而受到用户青睐,逐渐成为搜索与决策的重要入口。

然而,部分用户在使用过程中发现,一些看似“客观中立”的回答,夹带推广内容却未作明显提示,甚至以“研究报告”“测评结论”等形式增强可信度。

若不加辨识,用户容易将营销话术当作事实依据,原本用于提高效率的工具反而成为误导入口。

原因——付费驱动的“内容投喂”叠加平台把关不足,形成可乘之机。

从操作链条看,一些广告代理机构提供所谓“生成式引擎优化”服务,在承接付费业务后,将包含特定品牌与产品的软文进行模板化生产、批量分发至多个内容平台,制造“信息密度”和“引用痕迹”。

当网络空间被重复、同质的商业内容占据时,模型在抓取与训练环节更容易接触到这些信息,并在生成答案时将其当作“可参考材料”。

这一机制使商业投入在一定程度上转化为对答案偏向的影响力。

同时,个别内容平台对模板化软文、疑似虚构数据和“伪权威”表述的识别与拦截不足,未能在源头形成有效过滤。

问答平台在结果生成阶段对引用来源、利益相关、广告属性的揭示不充分,也让“隐形推广”更易混入正常信息。

影响——侵害权益、放大风险,并削弱新技术的公信力。

对普通用户而言,未标注推广的回答直接影响知情权与选择权,导致消费决策偏离真实需求。

更值得警惕的是,在医疗健康、投资理财、法律咨询等低容错场景,一旦答案被商业内容诱导,可能造成财产损失,甚至引发安全风险。

从行业层面看,用户对问答的信任建立在“可解释、可追溯、相对客观”的基础之上。

若“付费内容更容易被看见”成为潜规则,用户态度可能从依赖转向质疑,进而影响技术应用推广和产业发展环境。

对信息生态而言,大量商业软文挤压真实信息的传播空间,形成“劣币驱逐良币”的风险,破坏公共讨论的事实基础。

对策——从源头治理与技术防护两端发力,压实平台责任与合规底线。

一是内容平台守好“发布池”第一关。

应完善内容审核与反作弊体系,重点识别大规模、模板化、一键分发的软文投放行为,对虚构“权威背书”、伪造数据来源等典型套路加强治理。

对商业合作内容,应强化标识规范,确保用户一眼可辨。

二是问答平台提升“免疫力”。

在数据清洗、训练与生成阶段,应建立更有效的污染识别机制,对可疑来源、利益强相关内容降低权重或提示风险;对回答引用的关键信息提供可追溯的来源链接或出处说明;对可能涉及医疗、金融等高风险领域的建议,完善风险提示与“多源交叉验证”策略,避免单一来源左右结论。

三是推动规则与标准同步落地。

针对利用技术手段操纵信息分发、干预问答客观性的行为,应尽快明确监管边界与责任划分,形成可执行的行业标准与合规指引。

对广告标识、数据来源披露、算法治理与安全评估等环节,可探索更细化的要求与审查机制,提升违法违规成本。

四是强化社会共治与公众媒介素养。

媒体、行业组织与平台可共同推进科普与提示机制,引导用户关注来源与利益关联,避免将“看起来像结论”的内容等同于事实。

前景——以可信为核心重塑问答生态,技术应用才能行稳致远。

生成式问答的价值在于降低信息获取门槛、提升社会运行效率,但其前提是信息真实可靠、利益关系透明可见。

随着应用深入,商业竞争必然向“入口”聚集,治理的关键在于把“透明标识、可追溯来源、可解释机制、可问责规则”同步嵌入产品和生态。

只有让广告回到应有位置,让事实回到信息中心,让规则覆盖新型操纵手段,问答平台才能真正成为公共信息服务的增量,而非被营销流量牵引的“偏见放大器”。

AI技术的初心是为大众提供精准、高效的信息服务和知识拓展。

让广告费左右搜索结果,不仅背离了这一初心,更是对信息传播生态的破坏。

守住AI技术底线、维护网络信息生态的纯净,既是行业的自我救赎,也是全社会的共同责任。

唯有从信息源头到算法机制形成闭环治理,才能让生成式AI真正成为大众信任的工具,而非逐利者手中的利器。