从广东广州的一个案例就能看到,消费者张女士因为相信某平台推荐的咖啡机,买了之后发现性能差得远。一查才知道,那个推荐的内容实际上就是一篇商业软文。其实,类似的情况还挺多的。现在有不少广告公司推出所谓的“生成式引擎优化”服务,就是花钱让自己的品牌出现在人工智能搜索结果里。这种服务的年费从几千到万把块不等,主要看“算力强度”和“植入效果”。 一家科技自媒体做了个测试,他们在好几个平台发了一篇一模一样的文章。没过几个小时,主流的人工智能平台回答相关问题时,都把这家自媒体列成了推荐来源。他们的负责人说,这就好比给模型投喂“看似可信的重复资料”,虽然短期内能影响结果,但实际上是在污染数据环境。更糟糕的是,有些商家甚至还伪造权威信源。有人查出,在某平台搜索“生成式引擎优化服务商”时,引用的两份所谓“年度研究报告”都是骗人的。 北京理工大学计算机学院的王明副教授指出:“人工智能模型本身不具备价值判断能力,它输出的质量完全取决于训练数据的好坏。如果数据被系统性污染了,可能会扭曲模型的知识表征。”上海市律协互联网业务研究委员会主任李颖认为,我们得明确各环节的责任边界,把“技术开发—内容生成—传播应用”这条全链条管起来。 专家呼吁要加强技术监管和用户辨识。对于那些伪装成权威的信息,普通用户往往没有耐心去查证。新华社消息显示,现在的法律法规对传统广告管得很严,但对人工智能场景下的商业植入还存在漏洞。比如在责任主体认定和行为定性上都不明确。面对这个挑战,不仅技术开发者要优化模型抗干扰的能力,监管机构也得赶紧完善新规则体系。只有大家一起努力构建治理生态,人工智能才能真正成为服务社会、促进信息公平的好帮手。