先进 AI 竞争会引发战争吗?

本文探讨了高级人工智能(ASI)的竞备为何可能引发战争。基于 James Fearon 的理性战争理论,文章指出信息不透明承诺无法兑现是两大核心风险。特别是当首个开发出 ASI 的国家获得决定性战略优势(DSA)后,现有的国际约束将失效,迫使其他国家出于生存本能考虑发动先发制人的战争。结论建议通过提高透明度和建立基于 AI 的新型信任机制(如测谎或宪法 AI)来缓解这一危机。

理性行为者为何选择战争?

通常情况下,战争对双方来说都是巨大的损耗。理性的国家本应通过谈判,根据双方的实力比例来划分利益,从而避免流血冲突。然而,这种理想的谈判模型往往会因为两个因素而崩溃:

    • 私有信息: 双方对彼此的实力了解不足,导致误判。
    • 承诺问题: 无法保证达成的协议在未来会被遵守。

文章认为,在通往超级人工智能(ASI)的道路上,这两个因素——尤其是承诺问题——极大地增加了先发制人战争的风险。

风险一:私有信息与不透明

在传统军事对抗中,了解对手的实力相对容易。卫星图像可以计算坦克数量,开源情报可以估算数据中心的规模。

然而,AI 的发展包含了大量的私有信息

    • 看不见的算法: 即使知道对手拥有多少算力,外界也很难知道其数据中心运行的是什么算法,或者其 AI 模型究竟具备何种能力。
    • 隐秘的部署: 随着开发者将最先进的模型转为内部使用,这种不透明性会进一步加剧。

不确定性增加了战争风险。 当各国无法准确评估对手的 AI 实力时,就很难达成一个基于双方真实实力的和平协议。

风险二:承诺问题与绝对优势

这是比信息不透明更严重的风险。和平协议之所以有效,是因为违约会有代价(如国际制裁、贸易孤立)。但在超级人工智能面前,这种逻辑失效了。

    • 决定性战略优势 (DSA): 首个开发出 ASI 的国家可能会获得压倒性的力量,例如研发出超级武器或废除对手的核反击能力。
    • 无法约束的霸权: 一旦某个国家拥有了 DSA,国际社会将无法对其进行任何实质性的约束。

简而言之,如果一个国家通过 AI 获得了绝对的主导权,它就没有理由遵守在变强之前签署的任何条约。

这就产生了一个可怕的博弈逻辑:其他国家会非常不情愿看到对手率先掌握 ASI。 因为这意味着将自己的国家主权完全寄托在对手的“善意”之上。

为了避免这种被动局面,其他国家有充分的理性动机在对手获得 ASI 之前,发动先发制人的战争以阻止其发展。

潜在的解决方案

尽管前景看似悲观,但文章指出了两个降低战争风险的关键干预方向:

  • 提高透明度:

    增加关于前沿 AI 能力的公共知识,减少误判。虽然这可能带来“知道得越多越恐慌”的反向风险,但在同等条件下,透明度通常有助于和平。

  • 建立可信的承诺机制:

    这是解决问题的核心——如何让一个拥有神一般力量的国家可信地承诺“不作恶”?

      • AI 辅助测谎: 如果 AI 能带来测谎技术的飞跃,或许能确保领导人签署条约时的意图是真实的,从而增加互信。
      • 宪法 AI (Constitutional AI): 从技术底层进行限制,使 ASI 本身拒绝执行帮助宿主国侵害他国利益的指令。这是对抗 DSA 风险的一剂强力解药。