Synth Daily

判决冲突让Anthropic陷入“供应链风险”困境

人工智能公司 Anthropic 正与美国政府陷入一场法律纠纷。五角大楼将其标记为“供应链风险”,此举引发了相互矛盾的法院判决。华盛顿特区一家上诉法院支持政府,优先考虑军事需求和国家安全,而旧金山一家地方法院则曾支持 Anthropic。这场争议的核心在于,政府是否有权控制科技公司的技术使用,以及 Anthropic 是否因对其 AI 工具设置使用限制而受到不公平的惩罚。

相互冲突的司法裁决

美国华盛顿特区上诉法院裁定,Anthropic 未满足解除五角大楼“供应链风险”指定的严格要求。这与旧金山地方法院此前的判决相悖,后者曾支持 Anthropic。

  • 华盛顿特区上诉法院:认为授予临时中止将迫使美国军方与“一个不受欢迎的关键 AI 服务供应商”继续打交道,尤其是在重大军事冲突期间。
  • 旧金山地方法院:曾发现国防部可能出于对 Anthropic 限制其技术用途的不满而恶意行事,并下令移除该风险标签。

政府立场:国家安全优先

五角大楼根据两项供应链法律对 Anthropic 实施制裁,这些法律通常用于惩罚构成国家安全风险的外国企业。Anthropic 是第一家因此被指定的美国公司。

“在军事行动中进行重大的司法干预”或“轻易推翻”军方在国家安全问题上的判断,是上诉法院不愿冒的风险。

代理司法部长托德·布兰奇 (Todd Blanche) 表示,允许政府将 Anthropic 指定为供应链风险的裁决,是“军事准备的响亮胜利”。他强调:

“军事权力和作战控制权属于总司令和战争部,而不是一家科技公司。”

Anthropic 的抗辩与影响

Anthropic 认为,它之所以受到惩罚,是因为坚持其 AI 工具 Claude 缺乏执行某些敏感操作所需的准确性,例如在没有人类监督的情况下执行致命无人机打击。

  • 公司发言人表示,仍相信法院最终会认定这些供应链指定是不合法的。
  • Anthropic 在法庭上声称,该指定已导致其业务受损,因为政府及其承包商被禁止在军事项目中使用其 Claude AI。
  • 一些专家认为,Anthropic 有充分的理由反驳政府,但法院有时不愿在涉及国家安全的问题上推翻白宫的决定。

更广泛的背景

这场法律战正值五角大楼在对伊朗的战争中部署人工智能之际,考验着行政部门对科技公司的权力边界。同时,一些 AI 研究人员表示,五角大楼的行动“扼杀了关于 AI 系统性能的专业辩论”。此案的最终判决可能还需要数月时间。