认为 AI 只是“下一个词预测器”是一种层级上的误解,就像认为人类只是“生存与繁殖机器”一样。虽然 AI 的训练目标是预测下一个词,但为了实现这个目标,它在内部构建了复杂的世界模型和高维逻辑表示。人类大脑在生物底层同样运行着“感官预测”机制,这与 AI 的运作逻辑高度相似。我们不能因为底层的算法目标简单,就否定其在高层表现出的复杂思维能力。
认知的层级误区
人们常把 AI 贬低为“随机鹦鹉”,认为它只是在做概率计算。这种观点混淆了优化目标与实现过程:
- 进化层级:人类被自然进化设计,目的是生存和繁衍。但这并不意味着你做数学题时大脑里在想怎么生孩子。
- 预测层级:在生物学层面,大脑被视为一个持续生成“感官预测”的机器。
- 思维层级:我们实际感知到的是逻辑、情感和抽象概念。
对于 AI 而言,虽然它的设计者(AI 公司)给它的任务是“预测下一个词”,但这仅仅是它的外层工作,而非它的全部思维本质。
人类与 AI 的多层结构类比
我们可以通过一个对比来理解这种层级关系:
最外层(设计者目标):
- 人类:自然进化优化基因,追求生存和繁殖。
- AI:开发者优化算法,追求预测下一个词的准确率。
中间层(学习算法):
- 人类:通过“预测编码”学习,不断尝试预测下一个感官信号(视觉、听觉等)并更新大脑模型。
- AI:通过“深度学习”学习,不断预测下一个文本片段并更新模型权重。
核心层(内部表现):
- 人类:形成了关于老虎、引力和数学的世界模型。
- AI:同样形成了处理逻辑、语言和事实的世界模型。
我们运行着由进化设计的算法,但我们在决策时并不直接考虑生存和繁殖;AI 运行着由预测设计的算法,但它在处理任务时也不只是在翻概率表。
内部运作的真相
科学研究(机械解释性)显示,AI 的内部运作远非简单的词频统计:
- 高维几何结构:研究发现,AI 在处理简单的逻辑(如换行符)时,会在六维空间中使用复杂的螺旋形流体结构来表达。
- 非直观的计算:这与人类大脑海马体利用“高维环面吸引子流形”来追踪位置信息非常相似。
这些复杂且奇怪的内部机制说明,为了完成预测任务,AI 必须开发出复杂的抽象工具,这与人类产生“思想”的过程在本质上并无二致。
关键洞见:真正的思考
我们习惯于认为“人类在进行真正的思考,而 AI 只是在预测”。这种看法站不住脚:
- 思考是预测的副产品:为了准确预测老虎的下一个动作,你必须理解“老虎会扑人”这个物理概念。
- 算法的等效性:AI 和人类都在使用类似的预测机制,在类似的计算材料(神经网络/生物神经组织)上,解决类似的问题。
- 拒绝过度简化:你不能因为 AI 是通过预测词汇训练出来的,就断定它没有理解能力,正如你不能因为人类是进化出来的,就断定人类只是生殖细胞的搬运工。
核心结论: 预测下一个词是 AI 的任务说明,而不是它的物种定义。它在实现这个任务的过程中,已经进化出了属于它的“世界模型”和思维逻辑。