Synth Daily
司法介入:Anthropic 赢得针对五角大楼“封杀令”的初步胜利
2026-03-27
联邦法官 Rita Lin 近日作出关键裁决,暂时阻止了美国国防部将人工智能公司 Anthropic 列入黑名单。此前,特朗普政府通过行政指令将该公司定性为“供应链风险”,并要求所有联邦机构立即停用其开发的 Claude 模型。法官在裁决中指出,政府的这些惩罚性措施看起来更像是对 Anthropic 坚持 AI 伦理立场的“报复”,而非出于客观的国家安全考量。这一裁决为这家 AI 独角兽企业争取到了喘息机会,使其能够继续与国防承包商开展合作。
要点 1 暂时解除禁令 :法院中止了将 Anthropic 标记为“供应链风险”的效力,阻止政府强制切断其所有联邦业务。2 言论自由保护 :法官认为政府行为涉嫌违反第一修正案,惩罚了在公共讨论中批评政府合同立场的公司。3 保留选择权 :裁决并不强迫国防部必须采购 Anthropic 的产品,但禁止其以非法的“风险标签”实施封杀。视角 Rita Lin (联邦法官)
“没有任何法律条文支持这种‘奥威尔式’的观念,即一家美国公司因为表达与政府不一致的观点,就可以被贴上潜在‘破坏者’的标签。”
特朗普政府/五角大楼
批评 Anthropic 是由“左翼疯子”领导的“觉醒公司”,指责其拒绝无条件配合的行为是在将美国人的生命置于危险之中。
Anthropic 发言人
对法院的迅速裁决表示感谢,重申公司致力于与政府合作,确保所有美国人都能从安全、可靠的 AI 技术中获益。
历史背景 此次冲突源于 Anthropic 与五角大楼之间关于一份价值 2 亿美元合同的谈判破裂。Anthropic 及其首席执行官 Dario Amodei 担心,如果接受政府要求的“任何合法用途”条款,其技术可能会被用于完全自主武器 或对本国公民的大规模监控。
“这种‘供应链风险’标签通常仅针对受外国敌对势力控制的公司。Anthropic 认为这是政府因谈判未果而发起的‘非法报复行动’。”
核心争议:AI 伦理 vs. 军事行政权 该案件引发了科技界的高度关注,因为它测试了联邦政府是否可以利用其最严厉的行政权力,强迫主要 AI 公司接受特定的合同条款。微软等科技巨头已提交法律文书支持 Anthropic,担心此例一开,任何不顺从政府意愿的本土科技公司都可能面临类似的“行政扼杀”。
时间线 事件演进过程 1 2026年2月
Anthropic 与国防部因合同中关于 AI 军事化用途的限制条款产生公开分歧。
2 2026年2月27日
特朗普在社交媒体上抨击 Anthropic,随后国防部长下令将其列为供应链风险。
3 2026年3月初
Anthropic 在加州起诉联邦政府,指控其行为违宪且程序违法。
4 2026年3月26日
法官裁定初步禁令,政府有 7 天时间考虑是否提起上诉。
Q&A Q: 法官的裁决是否意味着五角大楼必须继续使用 Claude?
A: 不是。法官明确表示,裁决并不要求国防部购买 Anthropic 的服务,他们完全可以转向 OpenAI 等其他供应商,前提是这种转换必须符合既定的法律和行政程序,而非基于非法的惩罚性标签。
你知道吗? 在法庭听证会上,法官曾向司法部发出质问,称政府的行为看起来像是一场“企图谋杀企业的行动” 。她指出,如果政府只是对技术不满意,直接停止采购即可,而动用“供应链风险”这一极刑,其真实意图显然超出了安全防御的范畴。
来源 法官临时阻止五角大楼将Anthropic定为国家安全风险
联邦法官暂时禁止五角大楼将人工智能公司Anthropic定性为供应链风险
法官驳回五角大楼试图“削弱”Anthropic的诉求
法官阻止五角大楼将 Anthropic AI 列为“供应链风险”