Synth Daily

AI 安全撞上战争机器

美国国防部正在重新评估与 AI 公司 Anthropic 的合作,可能因其反对将 AI 用于致命军事行动而取消合同,并将其标记为“供应链风险”。这一事件凸显了军事需求与 AI 安全原则之间的深刻矛盾。军方坚持合作伙伴必须无条件支持所有军事行动,而 Anthropic 等公司则试图为其技术设立安全底线。这种冲突不仅可能阻碍 AI 安全研究,还可能加剧全球性的 AI 军备竞赛,使 AI 技术的未来发展充满不确定性。

国防部与 AI 安全的冲突

美国国防部正考虑切断与 Anthropic 公司的合作关系,这一举动向整个 AI 行业发出了明确的信号。

  • 合同危机: 一份价值 2 亿美元的合同面临被取消的风险。
  • 供应链风险: 国防部可能将 Anthropic 标记为“供应链风险”,这将禁止其他国防承包商使用 Anthropic 的 AI 技术。
  • 官方立场: 国防部发言人明确表示:“我们的国家要求合作伙伴愿意帮助我们的战士在任何战斗中取胜。这最终关系到我们的军队和美国人民的安全。”

这种强硬立场旨在确保所有技术合作伙伴,包括 OpenAI、xAI 和谷歌等,都必须服从军方的作战需求。

安全原则的底线

AI 公司,尤其是 Anthropic,一直将 AI 安全作为其核心使命。它们的目标是构建带有深度集成“护栏”的 AI 模型,以防止技术被滥用。

Isaac Asimov 的机器人第一定律是:机器人不得伤害人类,或因不作为而使人类受到伤害。

Anthropic 的首席执行官明确表示,不希望其 AI 模型 Claude 参与 自主武器政府监控 项目。然而,这种基于原则的限制与军方的要求直接冲突。国防部官员反问,如果面对无人机群的攻击,人类反应时间不够快,该如何应对?这暗示了在军事应用中,所谓的安全原则可能会被搁置。

与之形成对比的是,一些公司则完全拥抱军事合作。Palantir 公司的首席执行官 Alex Karp 曾不无自豪地表示:“我们的产品有时被用来杀人。”

更广泛的后果:军备竞赛与安全侵蚀

当政府为了军事优势而强力介入时,AI 的安全发展将面临巨大压力。

  • 军备竞赛: 如果美国在军事上毫无保留地使用 AI,其他国家也必须加速开发自己的军事 AI,从而引发一场全面的 AI 军备竞赛
  • 安全原则被牺牲: 在国家安全的名义下,政府可能不会容忍 AI 公司对“合法使用”范围的限制和区分。
  • 危险的先例: 如果创造一个“不会伤害人类”的 AI 的目标,与开发一个能施加“致命武力”的 AI 版本同时进行,这本身就是自相矛盾的。

几年前,各国政府和科技高管还在讨论建立国际机构来监督和限制 AI 的有害用途,但现在这种声音已越来越少。AI 成为未来战争的核心,似乎已成定局。

未来的关键可能在于谁掌控着先进的 AI,以及他们如何塑造和利用它。

当 AI 巨头们将自己包装成爱国者,并与一个拒绝接受监督的战争部门达成交易时,它们正在提供一种 极其强大且不可预测 的技术。这引发了一个根本性的问题:在追求军事胜利的过程中,我们是否正在将 AI 推向一个更危险、更暴力的未来?