Synth Daily

谈到核武器和 AI,人们其实担心错了重点

这篇文章探讨了人工智能(AI)进入核指挥系统的真实风险。大众普遍担心的“天网”式 AI 独立发射核弹并非主要威胁,真正令人担忧的是人类决策者过度依赖 AI 提供的数据和建议。在核战争爆发前极短的决策窗口下(通常只有几分钟),AI 的错误信息、算法偏见或“黑箱”逻辑可能误导人类做出灾难性判断。尽管军方寻求利用 AI 提高数据处理速度以应对中俄的竞争,但专家强调,掌握毁灭性武器的应当是懂得恐惧的人类,而非仅会计算的机器。

电影情节 vs. 现实威胁

大众对 AI 和核武器的恐惧主要源于《终结者》或《战争游戏》等电影:一个失控的 AI 系统(如“天网”)为了毁灭人类而独立发射核弹。

然而,军事专家和政策制定者指出,这并不是真正的危险所在

  • 美国军方和政府已明确表态,绝不会让计算机系统完全控制核武器的发射决策。
  • 真正的风险更加隐蔽:随着人类越来越依赖 AI 来辅助决策,AI 可能会提供不可靠的数据,从而将人类的决策推向灾难性的方向。

“几分钟”带来的致命压力

将 AI 引入核系统的核心驱动力在于时间

  • 极短的反应时间: 洲际弹道导弹从俄罗斯飞往美国仅需约 30 分钟,潜射导弹则更快。
  • 决策窗口: 一旦检测到攻击,美国总统可能只有 2 到 3 分钟 来决定是否发射核弹进行反击。

在这种令人窒息的压力下,没有任何领导人能做好充分准备。因此,军方希望利用 AI 快速处理海量数据,识别威胁模式,为决策者争取时间。

“人在回路”的虚假安全感

尽管官方政策坚持“人在回路”(Human in the loop),即最终决定权在人手中,但这可能掩盖了一个关键隐患:自动化偏见(Automation Bias)

“我有好消息告诉你:AI 不会很快用核武器杀死你。坏消息是:它可能会让人类更有可能用核武器杀死你。”

当人类面临生死攸关的紧急情况,且时间紧迫时,他们极易过度信任计算机生成的结论。

  • 如果 AI 系统基于复杂的算法建议“立即发射”,而在场的决策者没有时间去验证数据的真实性,那么所谓的“人类控制”可能只是一个橡皮图章
  • 人类实际上并没有在做决定,而是在盲目执行机器的建议。

历史教训:技术是会犯错的

历史上曾多次因技术故障险些引发核战争,是人类的怀疑精神拯救了世界:

  • 1979 年: 美国国家安全顾问接到报告称苏联发射了 200 多枚导弹,结果发现是通信系统中的芯片故障引发的误报。
  • 1983 年: 苏联军官斯坦尼斯拉夫·彼得罗夫(Stanislav Petrov)在系统警告美国发动导弹袭击时,凭直觉判断这是误报(实际上是云层反射的阳光),从而避免了核反击。

AI 系统同样脆弱:

  • 目前的 AI 模型存在错误率(如以色列在加沙使用的 AI 目标系统)。
  • AI 极易受到网络攻击或数据操纵。
  • AI 的决策逻辑通常是“黑箱”,即使是设计者也未必完全理解其得出结论的过程。

速度的诱惑与未来的不确定性

尽管存在风险,但核指挥系统的自动化趋势似乎不可阻挡。

  • 现代化需求: 美国的核指挥系统长期处于技术落后状态(直到 2019 年才淘汰软盘),急需升级。
  • 军备竞赛: 美国担心中国和俄罗斯利用 AI 获得战略优势,这种“不进则退”的竞争心态推动了 AI 的整合。

有观点认为(如战略家 Adam Lowther),在极度压力下,AI 的表现哪怕只比人类好 1%,也是值得的。但反对者如前美军将领 Jack Shanahan 认为,这种逻辑忽略了核心问题。

“在这个世界上,我还是更愿意让人类来做这些决定,而不是让机器来做,因为机器的行为方式可能是人类无法想象的。”

最终结论: 过去 80 年来,人类之所以没有毁灭自己,很大程度上是因为对后果的恐惧。我们希望掌握世界最强武器的是既能思考又能感知恐惧的智慧体,而不是不知恐惧为何物的算法。