Synth Daily

司法介入:Anthropic 赢得针对五角大楼“封杀令”的初步胜利

联邦法官 Rita Lin 近日作出关键裁决,暂时阻止了美国国防部将人工智能公司 Anthropic 列入黑名单。此前,特朗普政府通过行政指令将该公司定性为“供应链风险”,并要求所有联邦机构立即停用其开发的 Claude 模型。法官在裁决中指出,政府的这些惩罚性措施看起来更像是对 Anthropic 坚持 AI 伦理立场的“报复”,而非出于客观的国家安全考量。这一裁决为这家 AI 独角兽企业争取到了喘息机会,使其能够继续与国防承包商开展合作。

要点

  • 1暂时解除禁令:法院中止了将 Anthropic 标记为“供应链风险”的效力,阻止政府强制切断其所有联邦业务。
  • 2言论自由保护:法官认为政府行为涉嫌违反第一修正案,惩罚了在公共讨论中批评政府合同立场的公司。
  • 3保留选择权:裁决并不强迫国防部必须采购 Anthropic 的产品,但禁止其以非法的“风险标签”实施封杀。

视角

Rita Lin (联邦法官)

“没有任何法律条文支持这种‘奥威尔式’的观念,即一家美国公司因为表达与政府不一致的观点,就可以被贴上潜在‘破坏者’的标签。”

特朗普政府/五角大楼

批评 Anthropic 是由“左翼疯子”领导的“觉醒公司”,指责其拒绝无条件配合的行为是在将美国人的生命置于危险之中。

Anthropic 发言人

对法院的迅速裁决表示感谢,重申公司致力于与政府合作,确保所有美国人都能从安全、可靠的 AI 技术中获益。

历史背景

此次冲突源于 Anthropic 与五角大楼之间关于一份价值 2 亿美元合同的谈判破裂。Anthropic 及其首席执行官 Dario Amodei 担心,如果接受政府要求的“任何合法用途”条款,其技术可能会被用于完全自主武器或对本国公民的大规模监控。

“这种‘供应链风险’标签通常仅针对受外国敌对势力控制的公司。Anthropic 认为这是政府因谈判未果而发起的‘非法报复行动’。”

核心争议:AI 伦理 vs. 军事行政权

该案件引发了科技界的高度关注,因为它测试了联邦政府是否可以利用其最严厉的行政权力,强迫主要 AI 公司接受特定的合同条款。微软等科技巨头已提交法律文书支持 Anthropic,担心此例一开,任何不顺从政府意愿的本土科技公司都可能面临类似的“行政扼杀”。

时间线

事件演进过程

  • 1

    2026年2月

    Anthropic 与国防部因合同中关于 AI 军事化用途的限制条款产生公开分歧。

  • 2

    2026年2月27日

    特朗普在社交媒体上抨击 Anthropic,随后国防部长下令将其列为供应链风险。

  • 3

    2026年3月初

    Anthropic 在加州起诉联邦政府,指控其行为违宪且程序违法。

  • 4

    2026年3月26日

    法官裁定初步禁令,政府有 7 天时间考虑是否提起上诉。

Q&A

Q: 法官的裁决是否意味着五角大楼必须继续使用 Claude?

A: 不是。法官明确表示,裁决并不要求国防部购买 Anthropic 的服务,他们完全可以转向 OpenAI 等其他供应商,前提是这种转换必须符合既定的法律和行政程序,而非基于非法的惩罚性标签。

你知道吗?