Synth Daily

最后通牒:Anthropic与五角大楼的AI主权之争

人工智能巨头 Anthropic 正面临与美国国防部(五角大楼)的史无前例的僵局。由于 Anthropic 拒绝取消其 AI 模型 Claude 在军事用途上的伦理限制,国防部长皮特·海格塞斯(Pete Hegseth)发出了最后通牒:要么在周五下午 5:01 前开放技术供军方“无限制使用”,要么面临合同终止、被列为“供应链风险”甚至被援引《国防生产法》强制接管。这场争端的核心在于 Anthropic 坚持的“红线”——禁止其技术用于对美国公民的大规模监控和全自动致命武器,而军方则认为私营公司不应干涉国家的安全决策。这不仅关乎一家公司的命运,更标志着美国政府与硅谷科技企业在 AI 治理权上的彻底决裂。

要点

  • 1最后期限:五角大楼要求 Anthropic 在周五下午前签署协议,授予军方使用其模型的完全权限。
  • 2核心分歧:Anthropic 担忧 AI 幻觉会导致误判,拒绝撤除针对“大规模监控”和“自主武器”的安全屏障。
  • 3极端手段:政府威胁动用冷战时期的《国防生产法》(DPA),这可能导致公司被“变相国有化”。

视角

Anthropic 首席执行官

我们无法违背良心接受条款,目前的合同语言未能有效防止技术被用于监控或致命武器,这违反了我们的安全承诺。

五角大楼发言人

我们不会让任何公司指挥军方如何做出作战决策。军方只对合法用途感兴趣,但必须确保拥有防御所需的全部能力。

法律政策专家

将《国防生产法》作为谈判筹码是前所未有的,这向创业者发出了信号:与政府合作极具风险,可能会失去对核心技术的控制。

历史背景

《国防生产法》(DPA)诞生于 1950 年朝鲜战争期间,赋予美国总统广泛权力,强制私人企业优先满足国防需求。历史上,该法曾被用于加速 COVID-19 疫苗生产和解决婴儿奶粉短缺问题。然而,此前从未有政府尝试利用该法强迫一家软件公司移除其认为必要的安全限制或伦理准则。

“这是极其非比寻常的举动,通常该法用于扩大生产,而非作为谈判桌上的武器来强制改变公司的服务条款。”

权力博弈与“软国有化”

如果政府最终援引《国防生产法》,Anthropic 可能会被迫开发一个没有安全护栏的特殊版本,即某些评论家所称的“战争版 Claude”。这种做法被专家形容为一种“软国有化”,即政府虽然不直接拥有公司,但强行接管了其核心产品的开发方向。这种行为可能对 Anthropic 380 亿美元的估值造成毁灭性打击,因为一旦被贴上“供应链风险”的标签,其与亚马逊、谷歌等主流云服务商的合作关系也将面临瓦解。

时间线

冲突升级进程

  • 1

    2024 年 7 月

    Anthropic 获得五角大楼 2 亿美元合同,成为首个获准在机密网络运行的尖端 AI 模型商。

  • 2

    2025 年 1 月

    国防部长海格塞斯发表讲话,称 AI 是一场“战时军备竞赛”,并抨击“觉醒派 AI”的限制。

  • 3

    本周二

    Anthropic CEO 与海格塞斯在五角大楼会面,会议气氛从礼貌迅速转为下达最后通牒。

  • 4

    本周五 17:01

    五角大楼设定的最后期限。若不达成协议,合作将终止并启动制裁程序。

Q&A

Q: 为什么 Anthropic 坚持不退让?

A: 主要是基于技术和伦理考量。Anthropic 认为现有的 AI 模型仍会产生“幻觉”,如果在没有人类干预的情况下用于军事目标决策,可能导致意外的冲突升级。此外,其公司章程明确反对将 AI 用于大规模监控。

Q: 其他 AI 公司是如何反应的?

A: 相比之下,OpenAI、谷歌以及埃隆·马斯克的 xAI 都已表示愿意配合五角大楼的要求。这使得 Anthropic 成为目前唯一一家仍坚持设定军事限制的主流 AI 企业。

你知道吗?