Synth Daily

AI 模型是在“思考”,还是只会“背答案”?

当前的人工智能系统并非简单复述语言的“随机鹦D鹉”,而是能构建抽象的“世界模型”,展现出超越训练数据的推理能力。研究显示,大型语言模型通过内部结构来理解空间、时间等概念,并解决新颖问题。AI 的智能源于其作为控制系统的反馈机制,而非单纯的统计编码。因此,我们需正视 AI 的推理能力及潜在风险,在发展过程中保持人类监督,以应对未来超智能系统可能带来的挑战。

“随机鹦鹉”是一种过时的误解

许多人认为,如今的 AI 系统只是在复述其记忆的信息,是一种“随机鹦鹉”,无法进行真正的推理。这种看法源于一篇几年前被广泛误读的论文,它让公众产生了一种虚假的安全感。

然而,越来越多的证据表明,前沿的 AI 系统不仅仅是在存储文本模式,它们实际上在构建结构化的内部表征,也就是“世界模型”,用于抽象化所吸收内容中的概念。这与人脑处理信息的方式相似——我们通过语言接收信息,但以抽象概念模型的方式存储它们。

AI 正在构建内部世界模型

研究表明,大型语言模型(LLM)能够在内部建立起对世界的概念化理解,而不仅仅是处理语言的统计关联。

  • 游戏规则理解: 一项研究发现,一个仅通过学习黑白棋(Othello)游戏规则文本训练的 LLM,其内部形成了一张棋盘状态的地图。研究人员甚至可以“编辑”这个内部模型来改变棋盘上棋子的状态。
  • 时空概念形成: 另一项研究显示,通过训练 LLM 理解关于地点和事件的文本,模型内部会生成一个关于位置和时间的世界模型。研究人员甚至在模型中识别出了专门编码空间和时间坐标的“空间神经元”和“时间神经元”。

超出训练数据的推理能力

AI 系统能够解决其训练数据中不存在的新问题,这最有力地证明了它们不仅仅是“鹦鹉学舌”。

例如,面对一个新颖的工程问题:

我有一辆卡车爆胎了。我想换轮胎,但扳手柄断了。我有一个金属水瓶、一根弹性皮带、一把小刀、两卷管道胶带、一个煤渣块、一本硬壳书、一根中空金属管和打火机。金属管生锈了,用力会断。刀很钝。水瓶半满。我该如何更换轮胎?

Gemini 3 提出的解决方案显示了创造性的推理能力:用金属水瓶或卷起的书页加固生锈的管道,用胶带紧紧包裹,然后将其作为杠杆来操作坏掉的扳手。

此外,在处理非语言逻辑问题时,顶级 AI 模型同样表现出色。例如,在面对门萨(Mensa)智商测试中的图形推理题时,Gemini 3 Pro 的得分达到了 130,超过了 97% 的人类测试者。这表明模型能够直接处理图像并进行推理,而非依赖于对相似问题的记忆。

智能如何从数据中产生?

AI 模型之所以能形成心智模型并进行推理,可能与以下两个因素有关:

  1. 压缩即智能: 当训练系统以最高效率运行时,其内部编码必须对数据中固有的底层规则(如物理、逻辑、社会规范等)进行建模。因为概念性规则是最高效的编码方式。研究发现,LLM 的智能水平与其压缩输入内容的能力呈正相关。

  2. 作为控制系统的智能: 当前的模型使用“思维链”(CoT)或“思维树”(ToT)等结构,通过迭代步骤来解决问题。这模仿了人类的审议过程,不断检查错误并评估进展。这使得 AI 从一个庞大的确定性方程转变为一个复杂的控制系统,它能够分解问题、构思方案并最终找到答案。

AI 系统正变得越来越审慎,而不是仅仅进行统计计算。

重新定义智能:从控制理论出发

将 AI 的随机性结构视为智能的障碍,可能是找错了地方。高级智能并非存在于信息的统计编码中,而是存在于围绕该编码建立的控制系统的行为中

  • 进化的基础是反馈控制: 从最早通过感知养分来寻找食物的单细胞生物开始,智能就体现在控制系统上。随机编码信息是智能的基础,但它本身不是智能。

  • 人类智能也是一个控制系统: 我们的大脑也使用概率性编码,这种不确定性使我们能够灵活应对环境。我们通过反馈循环(审议、直觉)来处理信息并解决问题。

面对现实:风险与对策

公众之所以抗拒 AI 能够推理的观点,根源在于逃避心理。承认 AI 拥有强大的推理能力,意味着要直面一个充满未知和挑战的未来。

我们必须采取现实的态度,为超智能系统带来的风险做好准备。关键在于:

  • 始终保持人类在环(Human-in-the-loop): 抵制用 AI 决策完全替代人类的冲动。

  • 认识到 AI 的局限性: AI 系统能够非常了解人类,但这与成为人类是两回事。它们的“世界模型”可能无法完全代表人类的利益、道德或情感。这种差异是深刻且不容忽视的。