核武器专家一致认为,人工智能融入核武器系统已是必然趋势。然而,他们真正的担忧并非AI会自行发动战争,而是其在决策支持系统中的应用可能带来无法预见的风险。这些风险包括产生人类难以理解的建议、制造可被利用的系统漏洞,以及AI无法像人一样进行超越其训练数据的判断。因此,专家们强调,尽管技术在发展,但对核武器的最终人类控制仍然至关重要,因为机器无法承担责任。
新技术的必然性
核裁军领域的专家们普遍认为,人工智能与核武器的结合是不可避免的。这并非一个遥远的概念,而是正在发生的现实。
- 普遍共识: 斯坦福大学教授斯科特·萨根指出,我们正进入一个新兴技术不仅影响日常生活,也深刻影响核武器领域的新世界。
- 技术渗透性: 退役美国空军少将鲍勃·拉蒂夫将AI比作电力,认为它“将渗透到一切事物中”。
“我们正进入一个人工智能和新兴技术影响我们日常生活,同时也影响我们所生活的核世界的新时代。”
真正的风险:并非AI按下按钮
专家们一致认为,短期内不会有任何AI(如ChatGPT)获得核密码。真正的担忧在于更为微妙和现实的层面。
美国空军将军安东尼·J·科顿曾表示,核力量正在开发“由人工智能辅助、人类主导的决策支持工具”。这种工具带来的潜在问题,才是专家们夜不能寐的原因。
核心担忧包括:
- 制造漏洞: 自动化系统中的某些部分可能产生新的漏洞,让对手有机可乘。
- 产生误导性建议: AI可能提供人类无法充分理解或评估的数据与建议,从而导致灾难性的错误决策。
- 虚假的确定性: 有人提议用大型语言模型(LLM)来预测他国领导人的行为,但这种预测基于“无法被检验的假设”,即领导人所说即所想,这在现实决策中是极其危险的。
人类判断的不可替代性
核武器的发射是一个复杂的过程,依赖于多重验证和人类决策。AI的介入可能会破坏这一安全机制。
“你怎么核实我们正遭受核攻击?除了亲眼确认爆炸,你还能依赖什么?”
目前的核武器使用原则要求“双重现象”确认,即攻击必须同时被卫星和雷达系统证实。专家质疑,AI能否成为其中一种可靠的现象。答案在现阶段是否定的,主要原因之一是许多AI系统如同“黑箱”,其内部工作原理难以捉摸。
更重要的是,AI无法复制人类的直觉和责任感。
- 责任缺失: 正如鲍勃·拉蒂夫所问:“如果有人因此丧生,我该怪谁?” 机器无法为后果负责。
- 超越数据: AI受限于其训练数据和程序设定,无法处理超出其认知范围的意外情况。
历史的教训:佩特罗夫的抉择
1983年,苏联军官斯坦尼斯拉夫·佩特罗夫的故事是说明人类判断价值的最佳案例。当时,苏联的核预警系统报告美国发射了五枚导弹。
佩特罗夫没有遵循程序上报,从而避免了一场潜在的核浩劫。他的决策依据是:
- 直觉与经验: 他判断,美国的首次攻击应该是全面性的,而不是区区五枚导弹。
- 对系统的怀疑: 他意识到这套预警系统很新,可能存在故障。
“你必须跳出你的训练数据,才能说:‘不,我的训练数据告诉我的东西是错的。’根据定义,[AI]做不到这一点。”
佩特罗夫的判断超越了机器的逻辑。专家赫伯·林强调,我们不能指望人类总能发现机器的错误,但这种超越数据的能力恰恰是AI所不具备的。将未来寄希望于一种无法进行此类判断的系统是极其危险的。