AI被“投毒”这事儿,监管得赶紧跟上。今年“3·15”晚会曝光了一个新问题——AI数据被投毒了。说白了,就是有人滥用GEO技术。服务商批量生产假信息,系统性地给AI投喂,让AI说啥就听啥,甚至把假货都捧成了“优品”。这套路看着眼熟吗?当年搜索引擎时代推荐广告带来的那些麻烦,现在AI也遇上了。现在技术发展太快了,背后逻辑也变了。以前是平台收点费引流,现在直接成了“黑箱”,连做模型的人都可能被绕过去。信息值钱,贩卖信息的路子也贵了。媒体报道说,这种GEO技术都形成产业链了。有的服务商报价明码实价,每季度给3600元甚至好几万,就能让特定品牌排在AI回答的前面。技术是中立的,但AI大模型运作机制本身太脆弱。多数模型联网时靠第三方平台的摘要信息,没深度理解原文和核验真假。商家为了钱,偏向找完整结构化的内容生产批量信息来骗AI的抓取习惯,把品牌推到前面。这不仅仅污染了单个信息源,还可能因为AI反复引用变本加厉,造成不好清理的数字污染。 这些假信息比夸张的广告更难识别了,AI幻觉带来的风险会越来越大。面对发展这么快的AI技术,老的监管办法得变变样。搜索引擎那会儿还能找点痕迹抓起来治治,现在AI是个黑箱更难处理了。这就意味着治理的手段也得跟上技术的步子。对于做平台的AI来说,检索、排序和展示结果的时候要更严格识别广告和过滤信息。对于像是推销性质的内容要明显标注出来。 还有就是信源质量得把关好一点。平台应该从多个独立可信的信源获取资料。如果只信一个地方的话容易被偏见影响结果不好。开发者得投入更多资源去清洗数据和做标注,把审核体系做得更稳当点才行。