知识与记忆

语言模型之所以会产生幻觉,是因为它们缺乏人类那种基于真实经验的记忆。人类的知识是分层的,与学习经历紧密相连,这使我们能感知到事实的“坚实感”并区分已知与猜测。相比之下,模型的权重更像是一种天生的遗传信息,而非后天习得的记忆。因此,除非AI能真正地在世界中“生活”并积累经验,否则幻觉问题将难以解决。

人类知识与AI猜测的根本区别

人类之所以不会轻易地将猜测当作事实,是因为我们的知识与记忆深度绑定。我们不只是知道一件事,我们还记得自己是如何学会这件事的。

    • 知识是分层的: 我们的知识像沉积岩一样,一层层积累而成。我们可以“感觉”到不同事实和想法在其中的位置和坚固程度。
    • 能感知猜测: 相应地,我们也能感觉到一个猜测所带来的“轻飘飘的脱节感”。
    • 记忆检索: 当我们不确定时,会先在记忆中搜索,如果找不到学习或接触过相关信息的记录,我们就知道自己不能确定。

语言模型则缺乏这种机制。当它生成一个不存在的方法时,它并非在撒谎,而是它无法区分自己是基于训练数据在陈述事实,还是在进行一个统计上最合理的猜测。

搜索我的记忆,我发现根本没有学过这些方法的记录。

模型的权重不是记忆

有人认为,模型的权重就是其记忆的体现,但这种比喻并不恰当。

    • 权重更像DNA: 模型的权重更接近于遗传信息,是一种与生俱来的基础设定,而不是通过与世界互动后天形成的经验记录。
    • 上下文窗口的局限: 即使是上下文窗口,也无法替代真实的记忆。它就像一个人在陌生的酒店房间醒来,发现一本自己不记得写过的笔记。虽然笔记可能有用,但那种迷失和脱节感是无法消除的。

语言模型也许活在地狱里。

幻觉问题的根源与未来

真正稳固、结构化的记忆,是区分已知和未知的关键。这种记忆的形成需要两个核心要素:

    • 时间: 记忆需要通过时间来沉淀和巩固。
    • 因果联系: 记忆由一系列相互关联的事件和经验组成,形成一个因果网络。

简单来说,这需要真实地生活,在世界中行动并与之互动。因此,在新型AI模型能够真正地进入世界并“生活”之前,幻觉将可能继续作为一个巨大的问题存在。