Synth Daily

AGI 的“标准”一变再变:时间线也跟着飘

OpenAI 曾在 2018 年的章程中承诺:如果另一个价值观一致且注重安全的项目领先开发出 AGI,OpenAI 将停止竞争并转而协助该项目。然而,现实情况却是 AGI 的定义和实现时间线被不断修改,即便 OpenAI 的模型目前在多项排名中落后于竞争对手,这场“军备竞赛”也没有任何停止的迹象。这反映了在巨大的经济利益面前,早期的理想主义承诺往往显得苍白无力。

逐渐失效的“自弃条款”

在 OpenAI 的官方章程中,有一个被称为“自弃”的特殊条款。其核心逻辑是为了避免 AGI 开发在最后阶段演变成忽视安全的盲目竞争:

我们担心 AGI 开发后期会变成一场没有充足安全保障的竞赛。因此,如果一个价值观一致、注重安全的项目在我们之前接近实现 AGI,我们承诺停止与其竞争并开始协助该项目。

触发这一条款的典型条件是:对方在未来两年内有超过 50% 的成功概率。

变幻莫测的时间线

尽管章程依然挂在官网,但 OpenAI 首席执行官 Sam Altman 对 AGI 实现时间的预测却在三年内经历了剧烈的变动,呈现出明显的加速态势:

  • 2023 年 5 月: 预测 10 年内(约 2033 年)实现。
  • 2024 年 11 月: 预测 5 年内(约 2029 年)实现,称那时人们会觉得 AGI 时代已经悄然来临。
  • 2025 年末: 预测就在 2025 年。甚至声称 “AGI 已经与我们擦肩而过……好吧,其实我们已经造出了 AGI”
  • 2026 年初: 宣称基本已经实现了 AGI,现在的竞赛目标已经转向了 ASI(人工超智能)

通过将 AGI 的定义模糊化,并迅速转向下一个宏大叙事(ASI),OpenAI 成功避开了是否需要履行“停止竞争”承诺的讨论。

排名落后,竞争依旧

目前的模型竞技场排名显示,OpenAI 的旗舰模型 GPT-5.4 在综合表现、代码能力和数学逻辑上,已明显落后于 Anthropic 的 Claude-Opus 4.6 以及 Google 的 Gemini 3.1 Pro

  • 技术现状: 竞争对手的模型同样注重安全且表现更优,完全符合章程中“协助对方”的触发条件。
  • 现实选择: OpenAI 并未选择加入或协助竞争对手,而是继续投入资源进行追赶。

核心洞见

这场 AGI 竞赛揭示了技术理想与商业现实之间的巨大裂痕:

  • 理想主义的无力: 面对巨大的经济诱惑和市场地位,早期的道德承诺很难在关键时刻约束企业的行为。
  • 营销与行动的差距: AGI 的定义已经从一个科学目标变成了一个可以随意移动的“球门柱”。当旧的目标难以维持领先时,就通过抛出新词汇(如 ASI)来掩盖承诺的失效。
  • 隐形的 AGI: 现在的趋势是宣称 AGI 已经实现,以此暗示竞争已经进入下一阶段,从而使原本的约束条款在逻辑上“自然失效”。