问题显现 近日,多起利用生成式技术进行商业操控的案例引发关注。
当用户通过智能问答平台咨询婴幼儿营养品选购建议时,系统推送的"权威推荐"实则为营销团队定向植入的推广内容。
更严重的是,某媒体实验证实,虚构的"智能水杯"产品经人为数据干预后,竟被多个平台作为真实商品予以推荐。
此类现象暴露出技术应用中的信息真实性风险。
成因溯源 业内人士分析,该问题源于三重机制缺陷:其一,生成式技术的"黑箱"特性使推荐过程缺乏透明度;其二,平台内容审核主要依赖算法抓取,对数据源头真实性验证不足;其三,新兴的"技术优化"服务已形成产业链,包括需求分析、内容生产、渠道分发等完整环节。
某营销机构内部文件显示,其"智能推荐覆盖系统"可确保客户品牌在主流问答平台获得90%以上的曝光率。
影响评估 这种隐蔽的商业操控正在产生多重负面影响。
消费者权益方面,中国消费者协会2023年数据显示,关于智能推荐误导的投诉量同比激增217%。
社会层面,某高校网络空间安全实验室监测发现,经人工干预的金融类问答错误率高达12.8%,部分伪造的客服电话已造成实际财产损失。
更深远的是,此类行为持续侵蚀数字时代的信任基础——当技术权威遭遇系统性滥用,公众对数字信息的整体信任度或将崩塌。
治理探索 针对这一挑战,多方正探索综合治理路径: 1. 技术层面,头部平台开始部署"可信内容溯源系统",通过区块链技术记录信息传播路径 2. 监管层面,市场监管总局近期就《互联网广告管理办法》修订征求意见,拟将技术推荐中的商业行为纳入广告监管 3. 行业自律方面,中国人工智能产业发展联盟已牵头制定《生成式技术应用伦理公约》,要求成员单位建立人工复核机制 值得注意的是,欧盟最新通过的《人工智能法案》规定,技术提供方需对推荐内容承担连带责任,这为我国立法提供了借鉴。
发展前瞻 清华大学公共管理学院教授指出,未来三年将是数字信任体系建设的关键期。
随着《数据要素市场化配置改革方案》深入实施,建立覆盖数据采集、处理、应用全流程的认证体系,配合"穿透式"监管机制,有望从根本上遏制技术滥用。
与此同时,培养公众的数字素养同样重要,应通过学校教育、社区宣传等渠道提升全民信息鉴别能力。
信息时代的竞争不应演变为对公共认知的暗中操控。
生成式智能问答越贴近公众生活,越需要守住真实与诚信的底线。
让推广可被识别、让数据可被追溯、让责任可被追究,才能让技术真正服务于公共利益与社会进步,也让每一次看似便利的“提问与回答”,都经得起检验与时间的追问。