Synth Daily

AI 伦理之战:Anthropic 与五角大楼的公开博弈

人工智能初创公司 Anthropic 与美国国防部(五角大楼)近期爆发了罕见的公开冲突。冲突的核心在于 Anthropic 拒绝取消其 AI 模型 Claude 的安全限制,坚决反对将其用于美国国内大规模监控和完全自主的致命武器系统。国防部长皮特·赫格塞斯(Pete Hegseth)对此下达了最后通牒:要求公司在限期内接受军方条款,实现“无限制”使用,否则将面临合同终止、被列入“供应链风险”黑名单,甚至可能被援引《国防生产法》强制接管。Anthropic 首席执行官达里奥·阿莫代伊(Dario Amodei)坚守伦理红线,认为当前的 AI 技术在军事安全领域尚未成熟,过度依赖可能导致灾难。这场争端不仅关乎数亿美元的合同,更触及了私人科技公司与政府在核心技术控制权上的根本分歧,引发了硅谷从业者的广泛关注与联名抗议。

要点

  • 1伦理红线:Anthropic 坚持不参与国内大规模监控和研发无人类监管的自动杀人武器。
  • 2最后通牒:五角大楼要求 Anthropic 放弃安全条款,否则将撤销 2 亿美元合同并实施制裁。
  • 3强制手段:政府威胁动用《国防生产法》,该法律通常仅在战争等极端紧急状态下使用。
  • 4行业声援:来自谷歌和 OpenAI 的数百名员工联名签署请愿书,支持 Anthropic 抵制 AI 军事化。

视角

达里奥·阿莫代伊 (Anthropic CEO)

“我们不能违背良心。目前的 AI 系统还不足以安全、可靠地驱动全自主武器。大规模监控则直接威胁民主价值。”

皮特·赫格塞斯 (美国国防部长)

“这是一场战时军备竞赛。我们不会使用那些不允许我们打赢战争的 AI 模型。任何公司都不能对军事决策发号施令。”

杰克·沙纳汉 (退役空军中将)

“在当前阶段,过度依赖大型语言模型是灾难的温床。Anthropic 的红线是非常合理的常识。”

争议焦点:法律与制裁的“大棒”

五角大楼此次祭出的制裁手段极具争议。一方面,官员威胁将其列为“供应链风险”,这通常是针对华为等外国敌对企业,一旦落实,可能切断 Anthropic 与所有大型军工企业的业务往来。

“将一家美国初创公司同时描述为‘安全威胁’和‘不可或缺的国防资源’,这在逻辑上是极其矛盾且史无前例的。”

另一方面,政府考虑引用《国防生产法》(DPA)来强制获取技术。专家指出,这相当于将私人 AI 企业“准国有化”。如果这一先例开启,意味着美国任何科技公司都可能失去对其产品的安全控制权,必须按照政府意志进行修改和部署。

时间线

事件升级进程

  • 1

    2026年1月

    在一次针对外国领导人的行动中,Claude 疑似被通过第三方平台使用,引发 Anthropic 对合规性的担忧。

  • 2

    2026年2月24日

    国防部长赫格塞斯会见阿莫代伊,要求取消 AI 安全防护措施,下达周五下午 5:01 的最后期限。

  • 3

    2026年2月26日

    Anthropic 发表公开声明拒绝妥协;同日,谷歌和 OpenAI 员工发起联名请愿声援。

  • 4

    2026年2月27日

    最后通牒到期,五角大楼官员公开指责阿莫代伊具有“上帝情结”,双方陷入僵局。

Q&A

Q: Anthropic 既然已经签署了国防合同,为什么现在拒绝合作?

A: Anthropic 愿意在导弹防御等领域提供技术,但坚持两条底线:不参与对美公民的大规模监控,以及不参与“全自主”致命打击。公司认为五角大楼新提出的条款剥夺了其审查和限制滥用的权力。

Q: 这次争端对 Anthropic 的业务有什么影响?

A: 虽然 2 亿美元的合同仅占其收入的一小部分,但若被列入“供应链风险”名单,将严重影响其与波音、洛克希德·马丁等大客户的合作,甚至可能阻碍其未来的上市(IPO)计划。

你知道吗?