美国战争部与两大 AI 巨头(Anthropic 和 OpenAI)因合同条款产生严重分歧。争论的核心在于:政府是否可以对 AI 拥有“全权合法使用权”,还是 AI 公司有权设定不容逾越的“红线”(如禁止大规模国内监控和无人自主武器)。Anthropic 因坚持红线被官方贴上“供应链风险”标签并面临威胁;OpenAI 虽然迅速补位签约,但因合同存在法律漏洞正处于紧急修正中。这场博弈本质上是关于技术伦理边界与国家权力使用的深度冲突。
Anthropic 的原始合同:被终结的成功案例
在冲突爆发前,Anthropic 与战争部的合作一直被视为典范。他们为机密网络定制了 Claude Gov 模型,其特点如下:
- 明确的红线: 合同中明确禁止将 AI 用于国内大规模监控,以及在没有人类干预的情况下使用自主武器。
- 安全防御栈: 通过模型拒答、外部监控分类器和现场工程师(FDEs)确保模型不被违规使用。
- 实际成效: 它是目前唯一成功部署在机密网络上的大模型,在捕获马杜罗等行动中发挥了重要作用,且从未出现误拒合理指令或“过度觉醒”的问题。
战争部部长曾公开表示:“他们(Anthropic)的产品太好了,我们需要它。”但转头却因为无法掌控其使用权限而发起攻击。
谈判僵局:“所有合法用途”的毒丸条款
战争部近期要求修改合同,核心是加入“所有合法用途” (all lawful use) 这一表述。这看似合理,实则是一个危险的信号:
- 削弱限制: 战争部试图取消 Anthropic 的红线,要求拥有不受限的使用权。
- 企业的反击: Anthropic 认为这会打开滥用 AI 监控美国公民的大门,拒绝妥协。
- 行政报复: 在谈判未果后,战争部公开将 Anthropic 标记为“供应链风险”。这被视为一种“企业谋杀”,意图通过行政手段摧毁这家不听话的私人公司。
OpenAI 的介入:匆促签约与法律漏洞
在 Anthropic 陷入僵局时,OpenAI 迅速与战争部签署了新协议,接受了“所有合法用途”条款。然而,这被证明是一个由于匆忙而导致的失误:
- 信任而非法律: OpenAI 的签约主要基于对政府的信任,而非严密的法律保障。
- 法律陷阱: 法律专家指出,政府对“监控”和“追踪”的定义与普通人不同。只要政府认为合法,OpenAI 的所谓安全防护在法律面前可能形同虚设。
- 紧急补救: OpenAI 首席执行官 Sam Altman 随后承认签约过于仓促,目前正试图通过修正案重新加入限制条款,包括禁止 NSA(国家安全局)直接使用其服务。
核心洞见:谁有权决定 AI 的用途?
这场“三个合约的故事”揭示了美国政府内部和 AI 行业之间的信任危机:
- 权力傲慢: 战争部的态度是“没有人能告诉我们该做什么”,认为私人公司不应通过技术手段限制政府权力。
- 私人财产与公共责任: Anthropic 坚持 AI 模型作为私人财产,公司有权决定其不参与某些违背伦理的行为。
- 安全栈的解释权: 真正的博弈点在于谁在控制 AI 的“安全拦截器”。如果政府拥有解释权,那么所谓的安全限制将瞬间崩溃。
当前的局势对国家安全构成了真正的威胁:如果政府仅因政治立场或权限之争就试图抹杀最顶尖的技术公司,最终受损的是美国在 AI 竞赛中的领先地位。