Synth Daily

法官叫停Anthropic供应链风险指定

美国旧金山联邦法官近日裁定,禁止美国国防部将人工智能公司 Anthropic 列为“供应链风险”。此前,由于 Anthropic 坚持对其技术实施使用限制,特朗普政府背景下的国防部不仅停止使用其 Claude AI 工具,还将其定性为安全风险,严重打击了该公司的业务和声誉。法官认为这一指控缺乏合法依据且具有随意性,裁定暂时撤销该标签。这一结果为 Anthropic 恢复政府业务及维护企业形象提供了关键的喘息机会,尽管双方的法律斗争仍在继续。

争议核心:技术限制被误读为安全威胁

  • 动机分歧:Anthropic 坚持对模型使用设定限制,旨在确保技术被负责任地使用。
  • 政府反应:国防部官员认为这些限制是“不必要的”,并据此推断该公司可能成为“破坏者”,从而将其列入供应链风险名单
  • 法院态度:法官 Rita Lin 在裁决中明确指出,政府的定性过程可能违反法律且具有随意性

国防部没有任何合法理由通过 Anthropic 坚持使用限制,就推断其可能成为破坏者。

裁决带来的实际转变

  • 状态恢复:裁决将双方关系恢复至 2 月 27 日之前的状态,即撤销了导致 Claude 在联邦政府范围内被停用的行政指令。
  • 名誉止损:此前该风险标签使 Anthropic 在行业中处于被孤立的状态。现在的裁决向潜在客户证明,公司在法律层面并非“安全隐患”。
  • 竞争权利:虽然裁决不强制国防部必须购买 Anthropic 的产品,但政府不能再以“供应链风险”为借口将其排除在竞争之外。

未来走向与潜在阻碍

  • 有限的胜利:国防部依然可以出于其他合法理由(如选择其他供应商)停止与 Anthropic 合作,只要不引用已被叫停的风险定性。
  • 多线诉讼:Anthropic 此前针对制裁发起了两项诉讼。目前旧金山的裁决已见成效,但华盛顿特区法院对另一项涉及军事软件供应法律的诉讼尚未做出裁决
  • 执行时间:该命令将在一周后生效,这给了双方进一步博弈的空间。

目前的局面反映出 AI 企业与政府在技术控制权上的激烈博弈。Anthropic 通过此次法律手段,暂时摆脱了可能导致其在政府市场“社会性死亡”的严重标签。