人工智能初创公司 Anthropic 与美国国防部(五角大楼)近期爆发了罕见的公开冲突。冲突的核心在于 Anthropic 拒绝取消其 AI 模型 Claude 的安全限制,坚决反对将其用于美国国内大规模监控和完全自主的致命武器系统。国防部长皮特·赫格塞斯(Pete Hegseth)对此下达了最后通牒:要求公司在限期内接受军方条款,实现“无限制”使用,否则将面临合同终止、被列入“供应链风险”黑名单,甚至可能被援引《国防生产法》强制接管。Anthropic 首席执行官达里奥·阿莫代伊(Dario Amodei)坚守伦理红线,认为当前的 AI 技术在军事安全领域尚未成熟,过度依赖可能导致灾难。这场争端不仅关乎数亿美元的合同,更触及了私人科技公司与政府在核心技术控制权上的根本分歧,引发了硅谷从业者的广泛关注与联名抗议。
要点
1伦理红线:Anthropic 坚持不参与国内大规模监控和研发无人类监管的自动杀人武器。
2最后通牒:五角大楼要求 Anthropic 放弃安全条款,否则将撤销 2 亿美元合同并实施制裁。
3强制手段:政府威胁动用《国防生产法》,该法律通常仅在战争等极端紧急状态下使用。
4行业声援:来自谷歌和 OpenAI 的数百名员工联名签署请愿书,支持 Anthropic 抵制 AI 军事化。
视角
达里奥·阿莫代伊 (Anthropic CEO)
“我们不能违背良心。目前的 AI 系统还不足以安全、可靠地驱动全自主武器。大规模监控则直接威胁民主价值。”
皮特·赫格塞斯 (美国国防部长)
“这是一场战时军备竞赛。我们不会使用那些不允许我们打赢战争的 AI 模型。任何公司都不能对军事决策发号施令。”