AI就像是一趟时代快车,一旦上了车,真让人停不下来。王珏老师在讲课时提到,大模型本质上是数学模型,通过计算语言概率来回答问题。它并不具备人类的知识,也不知道什么是正确答案,只是一台“计算器”。所以大模型产生“幻觉”,其实是不可避免的。我们可以通过一些方法来降低幻觉率,提高准确性。王珏老师在长期摸索中发现了一个提示词写法,可以极大提高大模型输出的准确性。喂资料也是一种降低幻觉率的方法。把资料给大模型,让它在回答问题时先检索、再组织、提炼、整合。这种方式就是大家常说的RAG。虽然不能杜绝幻觉现象,但能减少它发生的概率。RAG最大的好处是解决了大模型不知道答案而产生幻觉的问题。王珏老师也提到过写提示词很重要,它是用好AI最重要的工作之一。很多时候我们问问题不够详细清楚,导致AI输出空洞无物、似是而非。有了清晰详细的提问和充足的资料支持,还不能保证准确性吗?不是!不过王珏老师发现了一种方法来提高准确性。我尝试过两次用这种方法生成2000~3000字文档,每个事实、观点和数据都能准确无误。学习写好提示词并不是一件简单的事情。它需要花精力琢磨、文字表达能力和较高认知能力才能掌握。以前我们绞尽脑汁是文章该怎么写,现在则需要多下功夫在写提示词上!这个过程真是水深得很!尽管如此,喂资料和写好提示词还不够。再加上王珏老师的方法来使用RAG技术,“准确性”就能大幅提升了!所以说这次的变化真的不小呢! 还有谁能想到呢?只需要改变一下思考方式就能给我们带来这么大的惊喜!还等什么呢?快点去试试看吧!