Synth Daily

伦理与权力的对撞:Anthropic 为何成为美国首个被定为“安全风险”的 AI 公司?

人工智能巨头 Anthropic 正陷入一场与美国国防部的史无前例的法律与外交风暴。作为以“AI 安全”为核心理念的独角兽企业,Anthropic 近期被五角大楼正式列为国家安全“供应链风险”,这也是美国首次将此类定性应用于本土 AI 实验室。这一决定的直接后果是,所有与国防部相关的承包商必须停止使用其旗舰模型 Claude。面对政府的强硬姿态,Anthropic 首席执行官达里奥·阿莫迪(Dario Amodei)明确表示,由于双方在技术使用的伦理底线上存在不可调和的分歧,且政府已关闭谈判大门,公司别无选择,只能诉诸法律途径挑战这一认定。

要点

  • 1正式定性:Anthropic 被五角大楼正式标记为“供应链风险”,这一标签此前通常用于华为等外国企业。
  • 2核心矛盾:冲突焦点在于 AI 的军事化用途。Anthropic 坚持限制其模型用于全自动武器或大规模监控,而军方寻求更广泛的技术使用权。
  • 3业务震荡:洛克希德·马丁、Palantir 等军工巨头已根据禁令开始清理其系统中的 Anthropic 工具。
  • 4估值逆势增长:尽管深陷禁令,公司近期仍完成了 300 亿美元融资,估值飙升至 3800 亿美元。

虽然 Anthropic 此前曾与国防部签署过价值 2 亿美元的合同,但双方在 AI 治理上的长期博弈最终导致了合作关系的彻底破裂。

视角

达里奥·阿莫迪 (Anthropic CEO)

政府的行动在法律上站不住脚,我们不能因为追求合同就放弃对 AI 不会产生“幻觉”误杀或被用于不当监控的伦理坚持。

五角大楼 (战争部)

目前没有任何“主动谈判”,Anthropic 的产品被认定为供应链风险。国防部需要能确保在合法军事目的下获得全面技术访问权。

投资者群体 (Alpha Funds 等)

部分投资者对在公共场合争论国家安全问题感到失望,但也认为这种对原则的坚守赢得了公众的支持和品牌好感。

历史背景

Anthropic 的诞生本就源于对“AI 安全”的执念。其创始人曾是 OpenAI 的核心成员,因担忧 AI 发展过于激进且缺乏监管而选择分道扬镳。自成立以来,该公司始终强调“宪法 AI”理念,即通过一套预设的原则来约束 AI 的行为。

“阿莫迪在谈到 AI 风险时,他的身体甚至会因为恐惧而蜷缩。他真心相信,如果大模型不可信,它们永远不会获得成功。”

争议焦点:原则还是商业?

这次对峙揭示了硅谷科技巨头与华盛顿权力中心之间深刻的意识形态代差。Anthropic 担心其模型在复杂战场环境下产生幻觉,从而导致不可挽回的后果;而政府则认为,在与全球对手的 AI 竞赛中,过多的伦理限制等同于技术自缚。

“由于拒绝向军方交出‘无限制使用权’,Anthropic 正在支付高昂的代价,但这也许是其品牌最核心的资产。”

时间线

从深度合作到法律对峙

  • 1

    2023年

    Anthropic 获得美国国防部 2 亿美元合同,将模型部署在机密网络中。

  • 2

    近期

    由于在自动武器使用上的分歧,双方谈判破裂,军方下达禁令。

  • 3

    2025年3月4日

    Anthropic 正式收到确认其为“供应链风险”的政府公函。

  • 4

    2025年3月5日

    CEO 宣布将正式起诉政府,微软表示其民用业务暂不受此认定影响。

Q&A

Q: “供应链风险”认定意味着什么?

A: 这不仅意味着国防部直接停用该产品,还要求所有国防承包商证明其业务链路中不包含该技术,这会产生剧烈的连锁排斥反应。

你知道吗?