AI引发核战争的真实可能

电影中常见的人工智能(AI)引发核战争的情节,反映了人们对这项技术与核武器结合的普遍担忧。然而,现实中的风险并非来自拥有自我意识的AI,而是源于人类可能无法正确理解和使用AI辅助系统,从而导致灾难性的误判。尽管AI已部分应用于核指挥系统,但关键决策权仍掌握在人类手中,历史也反复证明,正是人的干预才避免了技术故障引发的核危机。因此,核心问题在于确保人类对核毁灭的敬畏之心,并让AI始终扮演辅助角色。

电影想象与现实风险

电影,如《终结者》和《战争游戏》,经常描绘AI失控并启动核武器的场景。这些故事在政策辩论中被频繁引用,但它们也偏离了真正的担忧。

真正的担忧是,随着AI越来越多地进入指挥和控制系统,负责决策的人类是否真正理解AI是如何工作的?这将如何影响他们做出这些可能是人类历史上最重要的决定?

目前来看,一个超级智能AI夺取核武器并毁灭人类只是一个理论上的问题。更现实的威胁是,人类决策者可能会因为不理解或过度信任AI提供的信息而犯下无法挽回的错误。

核系统的技术现状

许多人可能惊讶于核指挥系统的技术水平曾相当落后。直到2019年,部分系统仍在使用80年代的软盘。这样做的目的是为了防止外部网络攻击,但也意味着系统效率低下。

随着数十亿美元的核现代化进程,引入AI工具已成为趋势。军事指挥官们主张使用AI,但有一个明确的共识:

    • AI的角色是 分析海量信息,其速度远超人类。
    • AI 不应负责 做出是否发射核武器的最终决定。
    • 它的价值在于,在几分钟内为总统和高级顾问提供决策所需的数据,帮助他们在极短时间内做出判断。

整合AI的主要风险

即便最先进的AI模型也并非完美无缺,将它们深度整合到核指挥系统中存在几个核心风险:

    • 模型容易出错: AI仍可能产生错误或不可预测的结果。
    • 外部干扰: 系统可能遭受黑客攻击或网络战,敌对国家也可能通过向训练数据中注入虚假信息来操纵AI的分析结果。
    • 自动化偏见: 这是一个重要的心理现象,即人们倾向于 过度信任计算机系统提供的信息,即使这些信息存在疑点。

历史教训:当技术出错时

历史上曾多次发生因技术故障而险些引发核战争的事件,而每一次都是由人类的怀疑和干预才避免了灾难。

    • 1979年美国虚惊: 美国国家安全顾问在半夜被电话叫醒,告知苏联已发射数百枚导弹。在他准备向总统汇报之前,第二个电话打来,确认这是一个 虚假警报
    • 1983年苏联警报: 苏联导弹防御系统的一名军官斯坦尼斯拉夫·彼得罗夫接到计算机警报,称美国已发动核打击。按照规定,他应立即上报,这很可能引发报复性攻击。但他凭直觉判断这可能是系统错误,因为系统将云层反射的阳光误判为导弹发射。他决定等待几分钟,从而避免了一场潜在的核战争。

这些例子清晰地表明,当技术失灵时,是 人类将我们从悬崖边拉了回来

“恐惧”是系统的重要组成部分

近80年来核战争没有再次发生,部分原因在于人类对核武器毁灭性潜力的深刻恐惧。这种恐惧感让决策者在采取任何可能导致局势升级的行动时都极为谨慎。

我们要确保系统中内置了恐惧。那些能够被核武器的毁灭性潜力真正吓到的实体,才是应该做出关键决策的实体。

AI模型在模拟军事危机时,往往表现得比人类决策者更具攻击性,这可能是因为它们缺乏对后果的真实感受。

最终,我们担心的不应该是AI会用核武器杀死人类。真正的担忧是,AI可能会让人们更容易用核武器互相残杀。在某种程度上,AI是我们最不该担心的问题,而人类如何在极端压力下做出决策,才是更根本的挑战。