Synth Daily
法律界支持AI巨头:Anthropic与美国国防部的“国家安全”之争
人工智能公司 Anthropic 正陷入与美国政府的激烈法律博弈。由于 Anthropic 坚持其 AI 安全政策,限制其技术在武器开发和监视等军事领域的应用,特朗普政府及国防部(现已改组为战争部)将其列为“供应链国家安全风险”,并实质性地禁止其参与所有联邦合同。近期,近 150 名退休法官集体发声支持 Anthropic,认为政府的定性缺乏法律依据且程序不当,强调政府虽有权选择供应商,但不能以此为借口惩罚一家坚持安全原则的美国企业。双方将于 3 月底在法庭正面交锋,这起案件将成为 AI 企业自主权与国家利益冲突的标杆。
要点
- 1约 150 名退休法官联合提交意见书,批评政府将 Anthropic 列为安全风险的行为是不合法的惩罚。
- 2争议核心在于 Anthropic 拒绝取消其 AI 模型 Claude 的使用限制,不愿让其用于所有类型的军事行动。
- 3政府立场认为,供应商的技术限制可能干扰军事决策,甚至在关键时刻通过系统更新“破坏”功能。
视角
退休法官群体
政府可以不购买 Anthropic 的服务,但不应滥用法律标签来破坏该公司与其他政府机构或私营企业的正常生意。
美国国防部(战争部)
Anthropic 拒绝“任何合法用途”的条款,这种限制使公司获得了对军事行动的不当影响力,构成了实质性的安全风险。
Anthropic 公司
政府的行为是针对其安全政策的报复,不仅违反了正当程序,还侵犯了受宪法保护的言论自由权利。
历史背景
此次冲突源于 Anthropic 对其 Claude 模型设定的“安全护栏”。长期以来,该公司一直试图在推动技术进步与防止 AI 被滥用于杀伤性目的之间寻求平衡。然而,随着五角大楼将 AI 视为核心竞争力,双方在“技术控制权”上的分歧最终演变成了公开的司法对抗。
“我们从未对特定的军事行动提出异议,也没有试图以临时方式限制技术的使用。” —— Anthropic 首席执行官 Dario Amodei
行政权力的边界
法官们在简报中指出,国防部误解了相关法规,并忽视了必要的法律程序。他们认为,政府目前正在利用其庞大的采购权力,试图强迫一家私营公司放弃其核心价值观。这种“贴标签”的行为不仅影响了联邦合同,还向整个市场释放了负面信号。
Anthropic 只是要求,在它选择不与国防部合作时,不要在出门的路上遭到惩罚。
时间线
事件关键节点
- 1
2026 年 2 月 27 日
特朗普总统下令联邦机构停用 Anthropic 技术,称其为“激进左翼 AI 公司”。
- 2
2026 年 3 月 10 日
Anthropic 律师在会议上指出,国防部正施压其现有客户转向竞争对手,造成“不可挽回的损失”。
- 3
2026 年 3 月 24 日
旧金山联邦法院将举行听证会,审理 Anthropic 提出的初步禁令申请。
Q&A
Q: 政府为什么认为 Anthropic 构成“供应链风险”?
A: 政府认为,由于 AI 系统需要持续的更新和微调,Anthropic 可能会在关键任务中通过技术手段改变模型表现,从而影响国家安全决策。
Q: 退休法官的介入意味着什么?
A: 这表明法律界对政府利用“国家安全”名义干预私营商业行为表示担忧,认为这可能开创一个危险的先例。
你知道吗?
在此次诉讼的背景下,美国原有的“国防部”已在相关官方文件中被重新称为“战争部”(Department of War),这反映了当前政府机构名称的变动。
来源
 | 近150名退休法官在五角大楼争议中站到 Anthropic 一边 |
 | 五角大楼回应Anthropic诉讼,称该公司对国家安全构成“重大威胁” |