Synth Daily

Anthropic 与五角大楼的决裂:黑名单、内部泄密与道德之争

人工智能公司 Anthropic 与美国特朗普政府的矛盾正式激化。五角大楼已宣布将 Anthropic 及其产品列为“供应链风险”,这实际上是将这家估值数百亿美元的初创公司列入了军方的黑名单。此举的核心分歧在于,Anthropic 坚持其 AI 模型 Claude 不得用于大规模国内监控或全自动武器,而五角大楼则认为这限制了军方的合法能力并干扰了指挥链。与此同时,首席执行官达里奥·阿莫代伊(Dario Amodei)正忙于平息一场内部危机,他为此致歉的一份泄密备忘录中,曾直言不讳地批评政府是因为缺乏“独裁者式”的赞美才对公司进行报复。尽管面临严厉的政策打压,Anthropic 却意外收获了公众的支持,用户量在争议中创下新高。

要点

  • 1安全底线:Anthropic 拒绝放宽 AI 安全限制,严禁其技术用于大规模监控和致命性自动武器系统。
  • 2身份认定:五角大楼首次将美国本土公司定为“供应链风险”,此前该标签通常仅针对有敌对国家背景的企业。
  • 3CEO 致歉:阿莫代伊就其在 Slack 上的感性言论道歉,称相关批评不代表公司深思熟虑后的正式观点。
  • 4法律反击:Anthropic 认为该禁令缺乏法律依据,并计划通过诉讼程序挑战五角大楼的决定。

视角

Anthropic 官方

我们的限制仅针对高风险领域,而非作战决策。政府的行动在法律上站不住脚,我们必须通过法律手段保护自身权益。

五角大楼

军方不允许供应商通过限制合法用途来干预指挥系统,这会将我们的作战人员置于风险之中,因此认定其为风险实体。

政界批评者

这是对安全工具的滥用。公开攻击一家拒绝妥协安全措施的美国公司,是自残行为,更是给竞争对手送礼。

历史背景

Anthropic 由多位 OpenAI 前高管于 2021 年创立,其成立初衷正是因为对 AI 安全性和模型道德边界的执着。这种“安全至上”的基因使其在商业竞争中独树一帜,但也为其今日与追求技术完全控制权的军方发生冲突埋下了伏笔。

“将原本用于应对外国间谍或破坏的法规,用来惩罚一家拒绝放弃安全标准的美国创新企业,这是一个灾难性的先例。”

行业竞争与变局

在 Anthropic 陷入困境之时,其老对手 OpenAI 迅速填补了空白。在 Anthropic 被制裁后的几小时内,OpenAI 就宣布了一项交易,在分类军事环境中以 ChatGPT 取代 Claude。这一举动被外界视为高度的“机会主义”。

然而,微软的态度相对暧昧。作为 Anthropic 的重要合作伙伴,微软明确表示,尽管遵守五角大楼的规定,但除了国防部以外的其他客户仍可以在其云平台上继续使用 Claude 软件。这意味着 Anthropic 的民用商业版图并未完全崩塌,反而因为其坚持道德立场而获得了大量企业和个人用户的支持。

时间线

风暴演变过程

  • 1

    2026年2月下旬

    Anthropic 拒绝国防部取消大规模监控和自主武器限制的要求。

  • 2

    2026年3月初

    特朗普在社交平台上点名批评 Anthropic,要求所有联邦机构停止合作。

  • 3

    2026年3月5日

    五角大楼正式发布通知,将 Anthropic 列为“供应链风险”,即刻生效。

  • 4

    2026年3月5日晚

    CEO 阿莫代伊发表声明,为泄露的言论道歉并宣布将起诉政府。

Q&A

Q: “供应链风险”标签意味着什么?

A: 这通常意味着该公司被视为国家安全威胁。任何持有国防合同的私营企业(如洛克希德·马丁)目前都被禁止与 Anthropic 进行任何形式的商业往来。

Q: 普通用户还能使用 Claude 吗?

A: 可以。微软等合作伙伴已确认,该禁令范围目前主要局限于国防部相关的业务合同,非国防项目和个人订阅不受直接影响。

你知道吗?