Synth Daily

拒绝军事化禁令,AI巨头Anthropic正式起诉美国国防部

人工智能初创公司 Anthropic 近日向美国联邦法院提起两项诉讼,控告国防部及特朗普政府。此前,五角大楼将该公司列为“供应链风险”,并实施了实质性的业务禁令,这标志着美国政府首次对本土科技公司使用通常针对外国敌对势力的制裁手段。双方的矛盾焦点在于:Anthropic 拒绝取消其 AI 模型 Claude 的安全限制,不愿其被用于开发自主致命武器或对美国公民进行大规模监控。该公司指责政府此举是“非法的报复行为”,不仅侵犯了其言论自由,还直接威胁到价值数亿美元的商业合同和高达 3800 亿美元的公司估值。目前,白宫方面态度强硬,称国家安全不应受制于私营企业的“觉醒”服务条款。

要点

  • 1前所未有的定性:Anthropic 被正式标记为“供应链风险”,这种待遇过去仅针对华为、中兴等外国企业。
  • 2核心分歧点:公司坚持 AI 使用必须有“人类监督”,而五角大楼要求拥有对该技术“所有合法用途”的无限制访问权。
  • 3商业连锁反应:由于被列入黑名单,财政部、国务院等多家联邦机构已被勒令停用 Claude,现有及未来的合同面临流失。
  • 4竞争格局突变:在 Anthropic 遭封杀后,其对手 OpenAI 和 xAI 迅速填补空位,获得了五角大楼的机密系统准入。

视角

Anthropic 法律团队

“政府正利用其巨大的权力来惩罚一家表达受保护观点的公司。这种报复性的行为在法律和宪法上都是站不住脚的。”

白宫发言人 Liz Huston

“特朗普政府绝不允许一家受‘觉醒’文化影响的左翼公司通过规定服务条款,来干涉世界上最强大军队的运作。”

行业观察人士

此次诉讼不仅关乎一家公司的利益,更是一场关于 AI 安全边界、军事伦理与政府权力范围的公开对决。

争议焦点:AI 安全与军事自主权

这场法律战的本质是技术价值观的冲突。Anthropic 由前 OpenAI 员工创立,其核心使命是开发“安全且对人类有益”的 AI。公司明确表示,Claude 的设计初衷并非为了在没有人类干预的情况下执行杀戮任务。

“允许 Claude 被用于大规模监控或在无人类监督下执行致命任务,这与我们的创始宗旨和对公众的承诺完全背道而驰。”

然而,国防部认为私营公司无权界定政府在战术行动中如何使用合法获取的技术。这种僵局最终演变成了行政层面的全面封杀,也引发了科技界对政府滥用“国家安全”名义干预商业经营的担忧。

时间线

事件升级进程

  • 1

    2026年2月

    国防部长赫格塞斯与 Anthropic CEO 会面,双方就 AI 的军事使用权限产生严重分歧。

  • 2

    2026年3月3日

    五角大楼正式致函 Anthropic,通知将其列为“供应链风险”。

  • 3

    2026年3月4日

    特朗普在社交媒体发布命令,要求所有联邦机构立即停止使用 Anthropic 的技术。

  • 4

    2026年3月9日

    Anthropic 在加州和华盛顿特区联邦法院提起诉讼,寻求撤销政府禁令。

Q&A

Q: “供应链风险”标签对 Anthropic 意味着什么?

A: 这意味着 Anthropic 的产品被视为对美国国家安全的威胁。联邦政府不仅自己停用,还会要求所有的国防承包商停止在项目中使用 Claude,这将导致其损失巨大的政府订单及相关生态链业务。

Q: Anthropic 的对手们目前是什么立场?

A: OpenAI 等竞争对手采取了更为配合的姿态。据报道,在 Anthropic 受到处罚后几小时,OpenAI 就达成了与五角大楼合作的新协议,这也被一些批评者认为是“趁虚而入”的机会主义行为。

你知道吗?