美国国防部(DoW)近期正式将人工智能公司 Anthropic 列为“供应链风险”(SCR),此举源于双方在模型访问权限及使用限制上的博弈。虽然最终敲定的风险认定范围较窄,仅限于直接的政府合同,但其本质被视为政府对不顺从私企的惩罚性报复。这一事件不仅挑战了私有财产权和法治原则,也引发了关于国家权力是否应垄断“神级 AI”技术的激烈辩论。
事件核心:从“无条件服从”到“法律报复”
事件的导火索是美国国防部要求 Anthropic 提供对其 AI 模型 Claude 的“无限制访问权”。在谈判未果后,政府采取了极端的施压手段:
- 威胁动用《国防生产法》(DPA): 试图强制公司交付产品。
- 舆论极限施压: 最初通过社交媒体发布的声明极度宽泛,若按其执行,等同于在商业上“处决”Anthropic,切断其与所有云服务商和客户的联系。
- 正式认定 SCR: 最终通过 10 USC 3252 条款将 Anthropic 列为供应链风险。尽管范围缩小到仅限直接政府合同,但这在法律逻辑上依然是武断且任性的。
现状与业务影响
尽管名义上被列为风险,但 Anthropic 的核心业务暂时躲过了最坏的结果:
- 范围局限: 风险认定仅适用于 Anthropic 作为国防部直接承包商的场景。
- 巨头支持: 微软、亚马逊和谷歌等合作伙伴已明确表示,该认定不会影响他们继续向企业客户提供 Claude 模型。
- 损失可控: 政府合同仅占 Anthropic 收入的极小部分,目前的直接经济损失有限。
“即使政府有真实的国家安全顾虑,法律也要求其使用限制性最小、干扰最小的手段,而非直接动用 SCR 这种毁灭性工具。”
权力斗争:谁该拥有“技术之神”?
该事件引发了关于国家权力与企业自主权的深层冲突。争议点在于:如果 AI 真的趋向于“超级智能”,它是否还属于私人财产?
- 威权倾向: 部分评论者认为,国家必须垄断武力,因此必须控制像 Claude 这样强大的 AI 技术。他们主张,如果企业拒绝“跪下”接受政府指挥,政府就有权没收或销毁它。
- 共和国原则: 反对者(如文中作者)认为,美国伟大的基石在于限制政府权力。一旦政府可以因为企业行使合法的“拒绝权”就对其进行非法报复,那么私有财产权和法治将荡然无存。
- 安全悖论: 讽刺的是,政府一方面指责 Anthropic 呼吁监管是“监管俘获”,另一方面却在企业真正设置安全红线(如禁止用于全自动武器)时,利用权力强行突破这些红线。
Anthropic 的立场与后续
Anthropic 首席执行官 Dario Amodei 发表了克制但坚定的声明:
- 准备诉讼: 公司认为该认定缺乏法律依据,将通过法院挑战这一决定。
- 表达诚意: 对此前泄露的内部负面情绪备忘录表示道歉,强调愿意在符合安全原则的前提下支持国家安全任务。
- 过渡支持: 承诺在过渡期间继续以低成本向国防部提供模型,以确保前线人员不因权力斗争而失去工具。
核心结论: 这并非一次基于安全实证的决策,而是一场关于“原始权力”的展示。如果政府能够随意认定一家遵守法律的美国公司为“供应链风险”,仅仅因为对方不愿签署一份具体的合同,那么所有技术驱动型企业都将面临类似的行政霸凌风险。