Synth Daily

预测下一个 Token 是 AI 的工作,不是它的物种

认为 AI 只是“下一个词预测器”是一种层级上的误解,就像认为人类只是“生存与繁殖机器”一样。虽然 AI 的训练目标是预测下一个词,但为了实现这个目标,它在内部构建了复杂的世界模型和高维逻辑表示。人类大脑在生物底层同样运行着“感官预测”机制,这与 AI 的运作逻辑高度相似。我们不能因为底层的算法目标简单,就否定其在高层表现出的复杂思维能力。

认知的层级误区

人们常把 AI 贬低为“随机鹦鹉”,认为它只是在做概率计算。这种观点混淆了优化目标实现过程

  • 进化层级:人类被自然进化设计,目的是生存和繁衍。但这并不意味着你做数学题时大脑里在想怎么生孩子。
  • 预测层级:在生物学层面,大脑被视为一个持续生成“感官预测”的机器。
  • 思维层级:我们实际感知到的是逻辑、情感和抽象概念。

对于 AI 而言,虽然它的设计者(AI 公司)给它的任务是“预测下一个词”,但这仅仅是它的外层工作,而非它的全部思维本质。

人类与 AI 的多层结构类比

我们可以通过一个对比来理解这种层级关系:

  1. 最外层(设计者目标)

    • 人类:自然进化优化基因,追求生存和繁殖。
    • AI:开发者优化算法,追求预测下一个词的准确率。
  2. 中间层(学习算法)

    • 人类:通过“预测编码”学习,不断尝试预测下一个感官信号(视觉、听觉等)并更新大脑模型。
    • AI:通过“深度学习”学习,不断预测下一个文本片段并更新模型权重。
  3. 核心层(内部表现)

    • 人类:形成了关于老虎、引力和数学的世界模型。
    • AI:同样形成了处理逻辑、语言和事实的世界模型。

我们运行着由进化设计的算法,但我们在决策时并不直接考虑生存和繁殖;AI 运行着由预测设计的算法,但它在处理任务时也不只是在翻概率表。

内部运作的真相

科学研究(机械解释性)显示,AI 的内部运作远非简单的词频统计:

  • 高维几何结构:研究发现,AI 在处理简单的逻辑(如换行符)时,会在六维空间中使用复杂的螺旋形流体结构来表达。
  • 非直观的计算:这与人类大脑海马体利用“高维环面吸引子流形”来追踪位置信息非常相似。

这些复杂且奇怪的内部机制说明,为了完成预测任务,AI 必须开发出复杂的抽象工具,这与人类产生“思想”的过程在本质上并无二致。

关键洞见:真正的思考

我们习惯于认为“人类在进行真正的思考,而 AI 只是在预测”。这种看法站不住脚:

  • 思考是预测的副产品:为了准确预测老虎的下一个动作,你必须理解“老虎会扑人”这个物理概念。
  • 算法的等效性:AI 和人类都在使用类似的预测机制,在类似的计算材料(神经网络/生物神经组织)上,解决类似的问题。
  • 拒绝过度简化:你不能因为 AI 是通过预测词汇训练出来的,就断定它没有理解能力,正如你不能因为人类是进化出来的,就断定人类只是生殖细胞的搬运工。

核心结论: 预测下一个词是 AI 的任务说明,而不是它的物种定义。它在实现这个任务的过程中,已经进化出了属于它的“世界模型”和思维逻辑。