Synth Daily

硅谷与五角大楼的AI暗战:Anthropic因拒绝解除军事限制面临“最后通牒”

一场围绕人工智能军事用途的伦理冲突已进入白热化阶段。美国国防部(五角大楼)要求AI初创公司Anthropic解除其模型Claude在军事应用上的伦理限制,允许军方将其用于“所有合法目的”,包括潜在的大规模监控和自主武器系统。Anthropic首席执行官达里奥·阿莫迪以“良知”为由坚决拒绝,称当前技术尚不足以在生死攸关的战场上保持可靠,盲目解除限制将带来灾难性风险。作为回应,特朗普政府发出了最后通牒:要么配合要求,要么被贴上“供应链风险”的标签并逐出联邦政府市场。这不仅关系到一家公司的命运,更引发了关于AI伦理、国家安全以及政府与科技巨头控制权归属的深度对峙。

要点

  • 1核心分歧:冲突焦点在于是否允许AI用于大规模监控和完全自主的杀伤性武器系统,Anthropic坚持设立伦理“红线”。
  • 2极端惩罚:五角大楼威胁将Anthropic列为“供应链风险”,这种待遇通常仅针对华为等外国敌对企业。
  • 3总统介入:特朗普已下令联邦机构停止使用Anthropic技术,并设定了六个月的逐步退出缓冲期。
  • 4行业动荡:数百名来自谷歌和OpenAI的员工签署公开信支持Anthropic,担心军方压力会摧毁AI安全共识。

视角

Anthropic CEO 达里奥·阿莫迪

“威胁不会改变我们的立场:我们不能违背良心接受这些要求,因为当前的AI系统在生死攸关的情况下并不可靠。”

国防部副部长 埃米尔·迈克尔

“你不能一边把AI卖给战争部,一边又不让它做战争部该做的事。没有任何私营公司能凌驾于国家安全之上。”

退役空军中将 杰克·沙纳汉

“给Anthropic画靶心只会让各方共输,Claude模型在国家安全领域尚未准备好承担完全自主的任务。”

历史背景

这场冲突让人联想起2018年的“Project Maven”事件。当时谷歌因员工大规模抗议AI被用于无人机图像识别而退出国防部项目。如今,随着大语言模型性能的飞跃,五角大楼对AI介入核心作战决策的渴望达到了顶峰,而硅谷工程师对技术武器化的抵触情绪也随之升级。这不再仅仅是一次合同纠纷,而是技术伦理与地缘政治力量的再次碰撞。

权力之争与“上帝情结”

五角大楼官员埃米尔·迈克尔公开指责阿莫迪患有“上帝情结”,试图通过个人意志控制美国军队。这种极具攻击性的措辞反映了政府对私营企业设定国家安全“边界”的极度不满。

在政府看来,技术必须为国家利益绝对服务;而在Anthropic看来,缺乏安全护栏的AI本身就是国家安全风险。这种认知鸿沟短期内几乎无法弥合。

商业连带效应

如果Anthropic最终被封杀,Palantir等深度依赖Claude模型的国防承包商将首当其冲。尽管Palantir表示可以更换替代模型,但核心业务的连续性必然受阻。与此同时,这为微软、谷歌以及马斯克的xAI提供了机会,前提是它们愿意完全接受政府的条款。这可能导致AI行业出现两极分化:一派选择“合规优先”获取丰厚订单,另一派则坚守“伦理优先”但面临被主流市场边缘化的风险。

时间线

对峙升级过程

  • 1

    2025年12月

    埃米尔·迈克尔被确认为国防部研发副部长,开始推动“AI优先”战略。

  • 2

    2026年2月26日

    五角大楼发出“最后报价”,设定周五下午5:01为最终期限,要求Anthropic取消所有军事使用限制。

  • 3

    2026年2月27日

    特朗普在社交媒体宣布禁止联邦机构使用Anthropic,并威胁动用《国防生产法》强制技术交付。

Q&A

Q: 什么是“供应链风险”标签?

A: 这是一种极端的行政手段,一旦被贴上此标签,任何与国防部有业务往来的第三方公司都将被禁止使用Anthropic的技术,这相当于在整个生态系统中封杀该公司。

Q: 为什么军方对“所有合法目的”这一用词如此坚持?

A: 军方认为只要操作符合现有法律和宪法,就不应受到软件供应商合同条款的额外束缚,这涉及到了国家主权与企业自主权之争。

你知道吗?