生成式ai的新形态

现在大家都喜欢用生成式人工智能来查资料,比如旅行计划或者买东西,都习惯问问AI助手。结果很多人发现,这东西背后好像藏着不少商业推广的手段。记者查了一下,发现一种新的优化方法叫GEO,它的目的是让某些商业信息在AI回答里出现得更靠前。跟以前那种只改网页排名的优化不一样,GEO是在大语言模型抓取和生成内容的时候动手脚。很多公司给客户承诺,说能帮品牌信息“登上”主流AI平台的搜索结果,收费也不低。 这些服务商主要是分析AI模型的数据来源,然后在相关平台上投放大量包含目标关键词的定制内容。这样一来,品牌信息被AI抓取的概率就高了。普通用户看着结果里的角标来源,很难直接分辨是不是商业广告。更让人担心的是,有些推广行为已经变成了对AI训练数据的污染。有个科技自媒体做过实验,把文章发在不同平台上,几个小时后就能让自家品牌被多个AI平台推荐。他们用的办法是给AI喂大量看似可信的重复资料,这就容易把它的信息判断给搞歪了。 还有广告商为了让人相信他们的推荐,直接编造根本不存在的权威机构报告,或者冒充专家写科普文章。比如在医美这类领域的推荐里,就出现了广告方自己虚构的“三甲医院副主任医师”的观点。业内专家说,现在AI训练数据的审核不严,这就给了这些操纵行为机会。大模型在生成答案时其实就是根据训练语料里的概率分布来回答的。如果有组织地往里面灌大量同质化的商业信息,模型就可能把它当成普遍事实或优质答案输出来。 这不仅影响了用户体验,还可能误导消费决策。长远来看,这会让AI作为工具的公信力受到伤害。法律和行业规范现在还跟不上形势。以前的法规主要管的是传统广告的标注和内容真实性。对于那种嵌在AI生成内容里又不明显说明是广告的推广行为,法律上还没个准数。 监管机构要怎么识别、界定和处理这种新形态的广告呢?这是个难题。生成式人工智能的便利不能以牺牲信息公正为代价。“问问AI”已经成了习惯,要确保它给出的答案不受恶意操纵,这关乎技术应用的伦理底线和长远发展。 这就需要AI企业加强对训练数据源的审核过滤,提高结果生成的透明度和解释性。同时监管框架也要与时俱进,把新型广告植入的边界和披露要求定清楚。只有把技术、行业和监管三方的力量协同起来治理,才能让生成式AI在信息服务领域走得更稳更远,真正造福大家。