Synth Daily

Bio Anchors 怎么了?

Ajeya Cotra 的“生物锚点”模型曾因其对 AI 计算能力扩展的洞察而备受赞誉,并成功预言了当前的 AI 热潮。然而,其核心预测——通用人工智能(AGI)将在 2050 年代到来——如今看来已严重滞后。问题的关键在于,该模型极大地低估了算法进步的速度,同时对计算资源增长的估计也过于保守。当使用最新的数据修正这些关键参数后,模型预测的 AGI 时间线会大幅提前至 2030 年前后。这表明,虽然模型的最终结论有误,但其分析框架依然有效,它提醒我们在面对复杂的未来预测时,必须警惕模型对关键参数的敏感性以及不确定性本身带来的风险。

一个曾经精准的预测模型

Ajeya Cotra 的“生物锚点”报告是 2020 年代初期关于 AI 时间线预测的里程碑。它在很多方面都极具先见之明:

  • 它准确地抓住了规模化假设 (scaling hypothesis) 的核心。
  • 它预测到了我们今天所处的 AI 繁荣期
  • 它引入的“时间范围 (time horizons)”等概念已成为行业常用语。

然而,它最引人注目的预测——AGI 大约在 2050 年代出现——现在看来已经不太可能。Cotra 本人后来也将其预测修正至 2040 年。如果模型的前提如此正确,为何结论却晚了二十年?

致命的错误:被低估的算法进步

“生物锚点”模型的核心逻辑是:通过计算 AI 行业获得更多计算资源(FLOPs)的速度,以及 AGI 可能需要的总计算量,来推算其到来的时间。Cotra 的模型在几个方面与现实出现了偏差,但最致命的错误在于对算法进步的估算。

2025 年,John Crox 使用 2020-2025 年的真实数据对模型进行了复盘,结果显示:

  • 实际算力增长 (Real Compute): Cotra/Davidson 预测每年增长 1.7倍,而实际增长为 3.6倍
  • 算法进步 (Algorithmic Progress): Cotra/Davidson 预测每年增长 1.3倍 (即效率提升30%),而实际增长为 3.0倍 (效率提升200%)。
  • 总有效算力 (Total Effective Compute): 两者相乘,模型预测 AI 能力每年进步 3.6倍,而实际观测到的进步速度是惊人的 10.7倍

Cotra 为何会在这里犯下如此大的错误?她坦诚这是她研究最少的部分。

我几乎没有对算法进步的趋势做过研究。在我的模型四个主要组成部分中,我花在算法进步上的时间最少。

她主要依赖一篇研究 AlexNet(一个相对简单的图像识别任务)算法效率的论文。但后续研究表明,在“困难任务”(如推动 AI 前沿)上的算法进步速度,远快于在“简单任务”上的速度。这个方向性的错误,加上其他几个较小的、同样偏向保守的估计,共同导致了最终预测的巨大偏差。

当研究人员用更新后的真实数据(特别是算法进步速度)重新运行模型时,得出的 AGI 到来时间中位数是 2030 年,这与当前业界的普遍感受相符。

回顾当年的批评:谁说对了?

在模型发布之初,就存在一些重要的批评声音。事后看来,这些批评非常有启发性。

  • 对“锚点”的批评: 很多人批评 Cotra 选择的“生物锚点”过于奇怪和复杂(例如,模拟所有动物进化史所需的计算量)。但事后分析发现,即使剔除这些奇怪的锚点,只保留最核心的“模拟人脑”这一项,模型的结果也变化不大。因为在跨越多个数量级的计算中,这些锚点之间的差异远不如算法进步这类指数级变量的影响大。

  • Eliezer Yudkowsky 的观点: 他认为整个方法论存在根本缺陷,并预测 AGI 时间线会更短。他的理由是,如果当前范式(深度学习)只能在 2050 年代才产生结果,那么在此之前人们必定会努力发现新的、更快的范式。最终,事实证明是深度学习本身的发展速度远超预期,而不是新范式的出现。尽管如此,他关于“时间线会比 Cotra 预测的更短”的结论是正确的。

  • Nostalgebraist 的洞察: 他敏锐地指出,这个看似复杂的模型可能完全依赖于一两个关键参数的假设。他当时以“摩尔定律”为例,但几乎是顺带一提地指出了 Cotra 对“算法进步”的估计是基于非常有限的研究。

他抱怨的不是 Cotra 告诉我们她花了时间在什么上面,而是她花了时间在错误的事情上

Nostalgebraist 的元级别分析是正确的:一个模型的成败可能完全取决于一两个关键变量,而“算法进步”正是那个被忽视却决定了一切的变量。

模型虽错,但价值犹存

“生物锚点”模型的历史给我们的教训是复杂的。一方面,它展示了结构化预测的巨大价值。即使模型的最终数字错了,其框架也是稳固的。只需修正一到两个关键参数,它就能给出一个在六年后看来极具预见性的答案

另一方面,它也暴露了预测的脆弱性。

即使你几乎做对了一切,创造了新的术语,击败了批评者的主要论点,并展示了一个清晰的思维模型,但错误估计一个参数就可能毁掉整个项目

许多悲观的批评者陷入了一种“安全不确定性谬误”(Safe Uncertainty Fallacy):

既然我们永远无法确定一个模型是完全正确的,事情就是不确定的,这意味着我们可以继续相信一切都很好、一切正常,时间线是错的,我们不必担心。

然而,正如 Yudkowsky 指出的,不确定性是双向的!一个不完美的预测可能意味着事情比你想象的更危险,而不是更安全。

最终,我们应该从“生物锚点”的案例中认识到,不能因为预测可能出错就彻底放弃它。相反,我们应该将其视为在巨大不确定性中寻找方向的工具,并始终对其假设和敏感性保持清醒的认识。