Synth Daily

核专家:AI与核武器结合已成大势所趋

核武器专家一致认为,人工智能融入核武器系统已是必然趋势。然而,他们真正的担忧并非AI会自行发动战争,而是其在决策支持系统中的应用可能带来无法预见的风险。这些风险包括产生人类难以理解的建议、制造可被利用的系统漏洞,以及AI无法像人一样进行超越其训练数据的判断。因此,专家们强调,尽管技术在发展,但对核武器的最终人类控制仍然至关重要,因为机器无法承担责任。

新技术的必然性

核裁军领域的专家们普遍认为,人工智能与核武器的结合是不可避免的。这并非一个遥远的概念,而是正在发生的现实。

  • 普遍共识: 斯坦福大学教授斯科特·萨根指出,我们正进入一个新兴技术不仅影响日常生活,也深刻影响核武器领域的新世界。
  • 技术渗透性: 退役美国空军少将鲍勃·拉蒂夫将AI比作电力,认为它“将渗透到一切事物中”。

“我们正进入一个人工智能和新兴技术影响我们日常生活,同时也影响我们所生活的核世界的新时代。”

真正的风险:并非AI按下按钮

专家们一致认为,短期内不会有任何AI(如ChatGPT)获得核密码。真正的担忧在于更为微妙和现实的层面。

美国空军将军安东尼·J·科顿曾表示,核力量正在开发“由人工智能辅助、人类主导的决策支持工具”。这种工具带来的潜在问题,才是专家们夜不能寐的原因。

核心担忧包括:

  • 制造漏洞: 自动化系统中的某些部分可能产生新的漏洞,让对手有机可乘。
  • 产生误导性建议: AI可能提供人类无法充分理解或评估的数据与建议,从而导致灾难性的错误决策。
  • 虚假的确定性: 有人提议用大型语言模型(LLM)来预测他国领导人的行为,但这种预测基于“无法被检验的假设”,即领导人所说即所想,这在现实决策中是极其危险的。

人类判断的不可替代性

核武器的发射是一个复杂的过程,依赖于多重验证和人类决策。AI的介入可能会破坏这一安全机制。

“你怎么核实我们正遭受核攻击?除了亲眼确认爆炸,你还能依赖什么?”

目前的核武器使用原则要求“双重现象”确认,即攻击必须同时被卫星和雷达系统证实。专家质疑,AI能否成为其中一种可靠的现象。答案在现阶段是否定的,主要原因之一是许多AI系统如同“黑箱”,其内部工作原理难以捉摸。

更重要的是,AI无法复制人类的直觉和责任感。

  • 责任缺失: 正如鲍勃·拉蒂夫所问:“如果有人因此丧生,我该怪谁?” 机器无法为后果负责。
  • 超越数据: AI受限于其训练数据和程序设定,无法处理超出其认知范围的意外情况。

历史的教训:佩特罗夫的抉择

1983年,苏联军官斯坦尼斯拉夫·佩特罗夫的故事是说明人类判断价值的最佳案例。当时,苏联的核预警系统报告美国发射了五枚导弹。

佩特罗夫没有遵循程序上报,从而避免了一场潜在的核浩劫。他的决策依据是:

  • 直觉与经验: 他判断,美国的首次攻击应该是全面性的,而不是区区五枚导弹。
  • 对系统的怀疑: 他意识到这套预警系统很新,可能存在故障。

“你必须跳出你的训练数据,才能说:‘不,我的训练数据告诉我的东西是错的。’根据定义,[AI]做不到这一点。”

佩特罗夫的判断超越了机器的逻辑。专家赫伯·林强调,我们不能指望人类总能发现机器的错误,但这种超越数据的能力恰恰是AI所不具备的。将未来寄希望于一种无法进行此类判断的系统是极其危险的。