大模型产生幻觉,全怪人类“PUA”?

09-11 06:21

大模型表现欠佳,责任都在人类吗?

大家都知道,AI能力越强,胡扯起来就越让人头疼。

它会一本正经地编造从未发生过的事情。

也会在简单的比大小问题上出错。

从两年前惊艳亮相的ChatGPT,到如今默默落地的DeepSeek V3.1,没有一个大模型能摆脱幻觉的困扰。

为何大模型总产生幻觉?

这个问题在互联网上一直是未解之谜,不过上周OpenAI的一篇论文提出了一个有趣的观点。

“造成AI幻觉的根本原因,可能是人类训练AI的过程”

简单来说,不是AI不行,而是我们训练它的方式有误,都怪我们“PUA”它。

为何要把责任推给人类呢?

要回答这个问题,需从内外两个层面理解大模型。

一方面,大模型的训练机制决定了它们天生容易产生幻觉,这是AI幻觉的“内忧”

训练模型时,模型要从海量文本中学习预测下一个单词的能力。

因此,只要一句话看上去合理,模型就会学习其结构,但它无法分辨这句话的内容是否正确。

当我们向模型提问时,模型会优先将问题回答完整,但并非所有问题都有明确答案。

例如,拿出火锅的照片让大模型判断是什么动物,模型会分析火锅特征,发现它毛是金色的,体型又长又大,且有92.5%的概率是狗。

模型在以往学习中能从不同图片学到狗子的长相特征,将这些特征联系起来判断,会认为它大概率是一只金毛。

但如果问火锅是哪年哪月出生的,大模型就会不知所措,因为它没学过这个问题,仅看图像无法得知狗的生日。

若此时模型硬着头皮随便编个答案,就会出现我们常说的幻觉问题。

产生幻觉可以说是大模型的天性,或者说大模型本质上就是词语接龙,答对的题目被认为正确,答错的则被称为幻觉。

另一方面,我们现在训练大模型、给模型打分评估的方式,也是让模型幻觉问题更严重的“外患”。

还是以问生日的问题为例,简化训练过程:

假设模型答对一题加一分,答错不加分。

当问火锅生日时,如果模型直接说不知道,那它永远是零分。

但如果它瞎猜一个日期,就有三百六十五分之一的概率答对。

一边是绝对失败,一边是几百分之一的答对概率。

只要模型选择瞎猜,其最终平均得分就会比放弃作答高。

所以,为了在人类设定的排行榜中获得更高分数,越来越多大模型失去了说“我不知道”的权利,对追求分数的模型来说,瞎猜成了唯一理性的选择,诚实则是最愚蠢的策略。

OpenAI的研究人员观察了目前主流的大模型排行榜。

结果发现,大家都用“只分对错”的方式测试大模型能力。

本意衡量模型能力的考题,反而成了促使大模型产生幻觉的“外患”。

为验证“应试思维”的影响,OpenAI对比了旗下两个模型,发现刷题时,老模型o4 - mini的正确率比新模型GPT - 5高2个百分点。

但代价是,四分之三的问题o4 - mini都答错了,只有1%的题目它会干脆承认大模型有极限。

而GPT - 5遇到不会的问题会直接承认不知道。

这也是OpenAI认可GPT - 5的地方,虽然它应对应试教育的能力变差了,但学会了认错。

论文最后,OpenAI提出了几个有趣观点:

他们认为大模型的幻觉无法消除,只能尽力避免。

因为无论模型大小、搜索信息和推理文本的能力多强,世界上总有问题没有答案。

面对这些无答案的问题,模型要跳出应试思维,勇敢说“我不知道”。

同时,小模型比大模型更容易意识到自身局限。

因为小模型很多知识没学过,会干脆承认不会,而大模型学了一些知识,面对问题可能会自信作答,结果没学透答错,就产生了幻觉。

最后,作为指导模型的人类,我们要重新设计评估模型能力的方式和训练体系,降低模型瞎猜的概率。

听起来有道理,不过——话又说回来。

一个没有幻觉的大模型,真的是我们需要的吗?

换个角度看,如果两年前大模型对不确定的问题都回答“对不起,我不知道”,这种用户体验差的AI可能根本不会火。

实际上,越来越多研究发现,模型的创造力和幻觉是相辅相成的。

一个不会产生幻觉的模型,可能也会失去创造力。

以刚发布的GPT - 5为例,OpenAI采取多种方法降低了它产生幻觉的概率。

但同时,整个模型变得缺乏人情味、没有激情、变蠢了。

面对同样问题,GPT - 5表现得更冷静。

此前很多人还和GPT4o谈着恋爱,结果老模型被停用。

幻觉概率降低的GPT - 5像个冷冰冰的理科生,写代码能力变强了,但在聊天、文艺创作等领域却表现不佳。

网友们因此发起了“拯救4o”的网络运动。

最后,山姆·奥特曼妥协,重新开放了老模型的权限。

所以,一味抑制模型的幻觉真的好吗?

允许模型犯错还是让它什么都不做,或许没有标准答案,每个人的选择都不同。

也许有一天,用户会嫌弃AI太“老实”、没灵气;但也有人更想要一个可信赖的伙伴。

图片、资料来源

Why language models hallucinate —— OpenAI

Large Language Models explained briefly —— 3Blue1Brown

GPT - 5发布后,很多人更喜欢GPT - 4o

小红书

本文来自微信公众号“差评前沿部”,作者:早起,编辑:江江 & 面线,36氪经授权发布。

本文仅代表作者观点,版权归原创者所有,如需转载请在文中注明来源及作者名字。

免责声明:本文系转载编辑文章,仅作分享之用。如分享内容、图片侵犯到您的版权或非授权发布,请及时与我们联系进行审核处理或删除,您可以发送材料至邮箱:service@tojoy.com