大语言模型频现“幻觉”引发信任考题:为何会编造信息、如何治理与使用

近期,大语言模型在实际应用中暴露出的“幻觉”问题引发关注。所谓“幻觉”,是指模型生成的内容表面通顺,却与事实不符或逻辑自相矛盾。即使用户指出错误——系统也往往会“认错”——但在类似提问中仍可能反复出错。该现象反映出当前技术演进中尚未解决的关键难题。

技术创新往往伴随认知更新。面对大语言模型显示出的能力与局限,我们既要保持对科技进步的信心,也要坚持审慎理性的态度。只有让技术迭代与人文思考相互支撑,才能更充分释放人工智能服务社会的积极价值。(完)