问题——“优化”异化为“操纵”,虚假信息被包装成“标准答案” 调查中,记者多个网络平台检索发现,一些服务商公开兜售名为GEO的“优化”业务,声称付费后即可让客户产品在多家主流大模型的检索与问答结果中“排名靠前”,甚至把广告内容嵌入模型的推荐结论。一些从业者坦言,要维持“推荐效果”,关键在于持续“内容输出”和“大量投喂”,以跟上模型频繁更新的算法与抓取机制。还有服务商把“让模型听话”“给模型洗脑”等说法当作卖点,诱导客户相信可以借此获得所谓“背书效应”。 原因——抓取机制与商业逐利叠加,给灰产留下操作空间 业内人士分析,生成式大模型获取知识并生成回答,往往依赖对公开网页与内容平台信息的抓取、索引与交叉印证。若在该过程中缺少对信息真实性、来源可信度和商业属性的有效识别与标注,就可能被“批量、定向、系统化”的内容分发所左右。GEO工具原本用于提升信息发布效率,但在逐利驱动下被用来“搭建证据链”:一上通过多账号、多平台铺设相似口径内容,制造“多源一致”的假象;另一方面借助自动化手段抬高发布频次与覆盖范围,让虚假信息更容易进入模型训练与检索范围。同时,部分内容平台对批量营销稿、仿冒测评、伪造口碑的识别与处置仍不够及时,也为灰色操作提供了空间。 影响——误导消费与扰乱竞争并存,损害信任基础与数字生态 调查演示显示,业内人士随机购买某类“GEO优化系统”软件后,虚构了一款并不存在的智能手环,并由软件自动生成多篇宣传文章,内容包括夸大参数、杜撰技术概念、伪造用户评价与评分等。随后,软件自动通过自媒体账号发布文章。数小时后,在某大模型中询问该虚构产品时,模型直接引用并复述了上述宣传话术,将其描述为产品亮点并给出购买建议。业内人士指出,这一路径一旦规模化,将带来多重风险:其一,消费者可能把模型回答当作“客观结论”,在信息不对称下被诱导决策;其二,企业可通过“内容投喂”挤压合规经营者的展示空间,形成不公平竞争;其三,虚假信息还可能被用于抹黑对手、制造谣言,抬高名誉侵权与社会治理成本;其四,若涉及医疗健康、金融投资等敏感领域,误导后果更为严重,甚至可能引发公共安全隐患。 对策——技术治理、平台责任与监管执法协同发力 受访专家认为,治理此类灰产需要多方协同、兼顾治标与治本。 一是压实平台主体责任。大模型服务提供方应完善反作弊与可信引用机制,对异常集中出现、跨平台雷同、短期爆发式传播的内容建立识别模型;在引用信息时增加来源标注、时间戳提示与可信度等级,减少“无出处结论”;对疑似营销与商业推广内容加强识别与提示,避免用户把广告当作客观推荐。 二是加强内容平台与账号治理。针对批量注册、矩阵化发布、自动化投放等行为完善风控规则,提高对软文、伪测评、虚假口碑的识别与处置效率,推动黑名单共享与联动下架机制,切断灰产分发通道。 三是强化监管执法与规则衔接。对以虚假宣传、商业诋毁、刷量刷评等方式影响消费者决策的行为,依法依规加大查处力度;同时围绕算法推荐、广告标识、数据来源管理等关键环节,更细化可落地的合规要求,推动形成“可追溯、可核验、可问责”的治理闭环。 四是引导企业合规营销与公众理性使用。企业应以合规宣传、真实测评与质量提升为基本路径,避免把“操纵答案”当作捷径;消费者参考大模型回答时,应注意核对权威渠道与多方信息,尤其在健康、财务等领域保持审慎。 前景——从“拼投喂”转向“拼可信”,行业将走向规范竞争 业内判断,随着生成式大模型加速进入消费决策与公共服务场景,信息可信与内容治理将成为竞争基础。未来一段时间,大模型厂商与内容平台或将进一步引入可信数据源、对接权威知识库,并强化引用可追溯与风险提示等能力;监管层面也有望持续完善制度供给,推动算法与内容生态从“流量驱动”转向“质量驱动”。对企业而言,可持续的品牌竞争力最终仍取决于产品与服务本身,而不是对信息环境的短期操控。
技术进步本应服务社会发展,但一旦被滥用为操纵市场的工具,就可能动摇消费者信任此市场基础。此次GEO技术乱象的曝光,既提示了数字经济时代的新型监管难题,也为AI产业敲响警钟——守住技术伦理与合规底线,才能真正释放创新红利。