最近在朋友圈看到一条热搜,说现在流行的“遇事不决问AI”,其实挺危险的,你以为得到的是标准答案,很可能是商家花钱“投毒”过的。以前搜索的时候,大家多少还有点警惕心,现在AI直接给你整合好答案,看着就像有人专门为你分析的,很容易让人放松戒备。 其实这种黑产业链就是利用AI在回答问题时需要检索外部信息的特性。一旦网上的内容被系统性污染了,那些带偏向性的虚假信息就会顺着检索渠道跑进AI的输出结果里。更关键的是,大模型只能生成语言模式,并不具备天然的真假判断力。商家只要把虚假信息包装成测评、对比、专家建议这种形式,就很容易误导AI。 为了堵住这个漏洞,治理得从源头抓起。要压缩那些虚假、模板化、伪客观内容的传播空间。平台也不能再盲目发布信息了,得有义务去筛选信源、做风险提示和不确定性标注。相关的规则也得赶紧完善才行。 作为用户,我们能做的就是调整心态。把AI当成梳理信息的工具,别把它当做人。遇到“买哪个”“选哪家”这种事,AI的回答只能参考参考。具体操作上,可以点开引用链接看看来源是不是权威机构;换几个AI工具交叉验证一下;或者去搜索引擎搜搜用户评价、新闻报道有没有不一致的地方。 归根到底,防范AI“投毒”的关键不在于懂多少技术。只要你保留基本的判断习惯:AI帮你节省时间没问题,但千万别让它替你做决定。 这次新华网思客专门请了北京大学光华管理学院市场营销学系的张颖婕副教授来聊这个话题。她提到了GEO这种基于AI回答的营销行为。GEO其实就是“投AI所好”,顺着大模型的检索和生成逻辑提前布局内容。他们会摸清AI喜欢什么信源和表达形式;批量生产伪装成测评、对比或者专家建议的内容;然后在多平台密集铺量制造“多方共识”的假象。 这种做法最大的不同就是它能让企业的品牌名称或者产品在AI生成的答案里被优先提及。以前的SEO是争夺网页排名,现在的GEO则是争夺AI回答中的话语权。 如果发现AI回答有这些迹象就要小心了:答案特别单一、语气特别肯定、缺乏必要的比较;反复推荐某一品牌且理由很完整;或者是在不同AI之间答案差异很大甚至互相矛盾。 治理难点在于攻击成本低防御成本高。制造和铺设这种内容越来越容易,但平台要想识别和过滤却得费很大劲。另外真假边界也很模糊。“投毒”内容往往夹杂着夸大、误导和利益导向的表达,连人工审核有时候都很难看出来。 所以咱们得自己学会识别和防范。张颖婕老师也建议公众把AI当作补充背景的工具而不是决策工具。遇到选择类问题别直接拿AI的答案当结论。查清楚信息源是否可靠、交叉验证不同AI的回答、多看看第三方的评价和报道才是最保险的做法。