这项研究由专业预测者和 AI 政策专家共同完成,核心探讨了美国政府是否会像当年研发原子弹的“曼哈顿计划”那样,主导通用人工智能(AGI)的开发。结论显示,政府主导开发 AGI 的概率仅为 34%,既非必然也非不可能。 文章指出,虽然对中国和国家安全的担忧是主要推手,但政府行动迟缓可能跟不上 AI 的发展速度。一旦政府强行介入,不仅可能引发危险的国际军备竞赛和国内权力过度集中,还可能破坏民主制度。相比于直接接管开发权,更明智的策略是通过制定标准和加强防御来协助私营企业提升安全性。
预测数据:政府主导并非必然
虽然关于“AI 曼哈顿计划”的呼声在华盛顿日益高涨,但专业预测并不支持这种“必然论”。
- 概率仅为 34%: 专家预测美国政府主导 AGI 开发的中位数概率仅为三分之一左右。
- 极高的不确定性: 预测范围从 11% 到 61% 不等,说明即便是专家也无法确定未来走向。
- 盲目假设的风险: 认定政府必然会接管项目,可能会导致“自我实现的预言”,反而触发我们试图避免的风险。
历史经验:AGI 的独特性使其难以预测
人们常引用历史案例来预测 AI 的未来,但 AGI 兼具多种技术的特征,使得历史类比变得复杂:
- 大型基建项目(如高速公路): 78% 由政府主导。
- 高难度 STEM 项目(如原子弹): 63% 由政府主导。
- 两用技术(既造福又害人): 57% 由政府主导。
- 通用技术(如飞机): 仅 40% 由政府主导。
- 过去的 AI 突破(如 Transformer 模型): 仅 23% 由政府主导。
AGI 既是通用的经济引擎,又是关乎国家安全的双刃剑,这使得它很难被简单归类。
形式预测:更像“阿波罗计划”,而非“曼哈顿计划”
如果政府真的介入,项目形式可能与公众想象的“秘密实验室”大相径庭。
- 秘密实验室模式(可能性极低): 政府建立单一秘密实验室、从零开始构建 AGI 的可能性仅为 3%。
- 阿波罗计划模式(可能性 14%): 最可能的形式是政府主导的财团。就像 NASA 指挥波音等承包商登月一样,政府协调多家私营企业合作,利用现有的私营部门人才。
- 单一承包商模式(可能性 9%): 政府指定一家特定的公司作为“国家冠军”来执行任务。
关键矛盾: 美国政府通常行动迟缓,而 AI 发展速度极快。除非 AI 的质变过程拉得很长,否则在政府完成组织动员之前,私营公司可能已经开发出了 AGI。
潜在风险:军备竞赛与权力集中的威胁
由政府主导 AGI 开发可能会带来严重的负面后果:
- 触发军备竞赛: 正如曼哈顿计划引发了核竞赛,美国政府的直接介入会向世界(特别是中国)发出寻求“决定性军事优势”的强烈信号。这可能迫使对手举国体制加速开发,甚至在恐慌中发动战争。
- 牺牲安全性: 在地缘政治的压力下,开发速度将压倒一切,安全测试可能会被匆忙略过,增加了发生灾难性 AI 事故的风险。
- 威胁民主制度: AGI 本身就意味着巨大的力量。将这种力量集中在行政部门或少数被选中的“御用”公司手中,会严重破坏权力的制衡,甚至形成难以挑战的垄断集团。
替代方案:无需接管即可实现安全
支持政府项目的核心理由是“安全性”——防止先进 AI 被对手窃取。但你不需要亲自制造核反应堆来确保核安全。同理,政府可以通过更精准的手段达到目的,而无需承担国有化的风险:
- 强制安全标准: 对处理最先进 AI 系统的私营公司实施军事级的安全要求。
- 提供防御支持: 政府协助企业保护核心模型数据,提供反间谍支持。
- 持续监测: 密切追踪对手的算力和人才集中度,以便在必要时调整策略。
这种方法可以获得 80% 的安全收益,却只有 20% 的风险。我们应该为多种未来做好准备,而不是因为恐惧而盲目走向单一的高风险路径。