维基百科创始人:ai的局限性在哪里?

在印度新德里的这场人工智能峰会上,维基百科的创始人吉米·威尔士有话要讲。他对着那群关注AI发展的人,直白地说了自己的看法。对于马斯克搞的那个Grokipedia,他根本不担心它会抢走什么风头,反而觉得这玩意儿跟传统百科全书比起来,简直就是个拙劣的仿制品。这一番话让台下的人议论纷纷。 威尔士给咱们算了一笔账,指出了这些大型语言模型存在的硬伤。不管是ChatGPT还是Gemini,它们都有一个通病,就是特别喜欢胡说八道。哪怕是错的信息,它们也能说得像真的一样。所以啊,维基百科现在压根儿不考虑让AI来写条目。毕竟那是个知识准确度的问题,是不能随便让步的。 特别是那些冷门的专业领域,知识越深越容易出岔子。这就好比看天书一样,AI编的故事往往跟着知识深度的增加而变得更离谱。威尔士拿人类编辑和AI系统做了对比,强调了人工审核的重要性。维基百科能走到今天靠的就是那数万号专业志愿者组成的网络。 这些专家不光能随手把事实错误给改过来,还能从读者的角度去琢磨他们想要啥。这种复杂的判断力啊,靠算法训练出来的AI在短时间内肯定是比不了的。至于未来该怎么走,威尔士觉得人类专家得一直在。 他特意翻了翻维基百科的修改记录给大伙看:每个专业领域的深度内容哪是一下子就能写好的?那得经过几十次、甚至上百次的修改才能成型。这个过程要是缺了专业人士的把关,那肯定是不行的。反倒是AI系统虽然打字快得飞起,但碰上那种需要跨学科综合判断的复杂问题,立马就会显出它的局限性来。