AI“世界模型”概念卷土重来

“世界模型”是实现通用人工智能(AGI)的核心理念,它指 AI 系统在内部构建一个环境的模拟,用于在行动前评估不同决策的后果。尽管各大AI实验室都认为这一概念至关重要,但对于如何实现它仍存在分歧。目前的AI,如大型语言模型(LLM),似乎更多是学习了零散的规则而非一个连贯的世界模型,这导致它们在面对意外情况时缺乏鲁棒性。因此,构建一个稳定且可验证的世界模型被视为解决AI幻觉、增强推理能力和安全性的关键,也是当前AI研究的前沿方向。

什么是“世界模型”?

世界模型的核心思想是,AI系统在内部拥有一个对其所处环境的简化表征或模拟。系统可以利用这个内部模型来预测和推演,然后再将最佳决策应用于现实世界。

    • 一个生活中的例子: 你之所以知道不能走到飞驰的火车前面,并不需要亲身试验,因为你的大脑中已经有一个关于物理世界如何运作的模型。
    • 行业共识: 许多顶尖AI专家,如Meta的 Yann LeCun 和谷歌DeepMind的 Demis Hassabis,都认为世界模型是构建真正智能、科学和安全AI系统的基石。

如果一个有机体能在大脑中拥有一个“外部现实的小尺寸模型”,它就能尝试各种备选方案,判断哪个是最好的……从而以更全面、更安全、更有效的方式做出反应。

一个由来已久的想法

这个概念并非源于计算机科学,而是心理学。

    • 起源: 1943年,苏格兰心理学家 Kenneth Craik 首次提出生物体通过内在的“心智模型”来模拟外部世界。
    • 早期AI的尝试: 1960年代末,一个名为 SHRDLU 的AI系统使用了一个简陋的“积木世界”模型来回答常识性问题。然而,这种依赖人工编码的模型无法扩展到更复杂的现实场景。
    • 一度被抛弃: 到1980年代末,AI先驱 Rodney Brooks 甚至完全放弃了世界模型,并提出了一个著名的论断:“世界本身就是它自己最好的模型”。

现有AI的局限:零散规则而非统一模型

深度学习的兴起让世界模型的概念得以回归,AI不再需要依赖人工规则,而是可以通过试错来学习内部表征。然而,目前的大型语言模型似乎并未真正形成一个连贯的世界模型。

真实情况更像一个经典的寓言:盲人摸象

    • 零散的启发式规则: 今天的生成式AI学习了大量互不关联的经验法则。就像每个盲人只摸到大象的一个部分(鼻子、腿或尾巴),并误以为那就是大象的全貌。
    • 缺乏整体认知: 当研究人员试图从LLM中寻找一个完整的世界模型时(例如一个完整的棋盘概念),他们找到的只是一些零散的、甚至相互矛盾的碎片。

一个研究案例清晰地揭示了这个问题:一个LLM被训练用来生成曼哈顿两点之间的完美路线。它表现出色,但当研究人员随机封闭了1%的街道时,它的性能急剧下降。因为它没有一个连贯的城市地图模型,只是记住了无数个孤立的转弯指令,所以无法灵活地重新规划路线。

为什么世界模型至关重要?

这个案例的核心问题在于 鲁棒性。一个拥有真正世界模型的AI,即使面对意外情况,也能灵活适应。除了鲁棒性,构建世界模型还被认为能够带来以下好处:

    • 消除AI幻觉: 通过与内部的现实模型进行比对,减少事实性错误。
    • 实现可靠推理: 基于对世界因果关系的理解进行逻辑推断。
    • 增强系统可解释性: 让我们更容易理解AI做出某个决策的原因。

如何构建:悬而未决的探索

尽管“为什么”很明确,但“如何”构建世界模型仍然是一个巨大的挑战。各大实验室正在探索不同的路径:

    • Google DeepMind 和 OpenAI 倾向于认为,通过足够多的多模态数据(如视频、3D模拟等)进行训练,世界模型会自发地在神经网络中形成。
    • Meta 的 Yann LeCun 则认为,这需要一种全新的、非生成式的AI架构作为基础。

虽然目前还没有人能预测哪条路会成功,但构建世界模型这个目标,其价值可能真的名副其实。