Synth Daily

AI 的良知与红线:Anthropic 为何拒绝五角大楼的亿万订单?

人工智能巨头 Anthropic 近期因坚持两项核心“红线”——严禁将 AI 用于针对美国民众的大规模监控以及禁止 AI 驱动无人类干预的全自动武器系统,正式遭到美国联邦政府的全面禁令。此举导致超过 2 亿美元的联邦合同被取消,国防部甚至将其列为“国家安全供应链风险”。首席执行官达里奥·阿莫迪(Dario Amodei)坚称,公司的立场源于对人类安全与美国价值观的守护,认为政府的制裁具有明显的报复性和惩罚性。在 Anthropic 陷入困局之际,竞争对手 OpenAI 则通过达成一份“仅限云端部署”的协议与五角大楼开启合作,这不仅引发了行业内关于伦理底线的激烈争论,更将技术公司与政府权力之间的冲突推向了风口浪尖。

要点

  • 1拒绝大规模监控: Anthropic 拒绝向政府提供分析美国公民搜索记录、GPS 轨迹及信用卡交易等海量数据的权限。
  • 2抵制全自动武器: 公司坚持 AI 不应在没有人类判断的情况下执行杀伤性任务,以防误伤平民。
  • 3前所未有的制裁: 特朗普政府撤销了该公司所有联邦合同,并首次将一家美国本土 AI 公司定义为“安全风险”。
  • 4行业分歧加剧: 在 Anthropic 坚守红线的同时,OpenAI 选择与国防部达成新协议,引发内部员工质疑。

视角

Dario Amodei(Anthropic CEO)

“我们是爱国者。我们划定红线是因为跨越它们有违美国价值观。我们不希望出售那种可能导致误杀平民或己方士兵的不可靠技术。”

Pete Hegseth(美国国防部长)

将 Anthropic 标记为“国家安全供应链风险”,并指责其为一家“具有政治偏见的左翼公司”,阻碍了国防技术的现代化。

伦理批评者

认为政府此举是滥用权力,试图通过经济制裁迫使技术公司放弃伦理准则,这开创了一个极其危险的先例。

历史背景

自 2025 年夏季以来,Anthropic 开发的 AI 模型 Claude 已深度嵌入五角大楼的机密行动中。然而,随着政府换届及地缘政治紧张局势加剧,国防部开始要求移除原有的伦理限制。双方曾在“文字游戏”上反复博弈,政府试图通过“在适当情况下”等模糊词汇保留解释权,但最终因核心原则分歧导致合作彻底崩塌。

“不同的人可以根据不同的原则提供不同的产品。我们是自己模型可靠性的最佳评判者。” —— 达里奥·阿莫迪

技术迷思:云端与终端的模糊界限

在谈判破裂前,曾有一种折中方案:将 AI 保留在“云端”而非直接注入“武器终端”。支持者认为,如果 AI 仅用于情报综合而非直接下达开火指令,那么它的“手”就是干净的。然而,Anthropic 很快识破了这种逻辑漏洞。

在现代军事架构中,云端与战地终端的界限已不复存在。通过网状网络,云端模型实际上正在实时指挥战场决策。

这意味着,即便模型运行在远方的服务器上,它依然是自动武器系统大脑的一部分。Anthropic 认为,在 AI 尚未达到绝对可靠的阈值前,这种区分只是道德上的心理安慰,而非实质性的安全保障。

时间线

冲突升级之路

  • 1

    2025年夏季

    Claude 进入五角大楼,用于处理分类信息和军事机密行动。

  • 2

    2026年初

    五角大楼要求单方面重新谈判合同,旨在移除针对监控和自主武器的限制。

  • 3

    2026年3月1日(周五)

    谈判因国内监控条款彻底破裂;特朗普宣布全面封杀 Anthropic。

  • 4

    2026年3月1日晚

    竞争对手 OpenAI 宣布与五角大楼达成新协议,承诺仅在“云端”部署技术。

Q&A

Q: Anthropic 为什么宁愿损失 2 亿美元也不愿退让?

A: 公司认为当前的 AI 模型在战场环境下不具备人类士兵的判断力,无法识别平民或处理复杂交火情况。此外,拒绝参与大规模监控是其核心伦理支柱,一旦妥协将彻底失去公司的立足之本。

Q: 联邦政府的禁令对公司有何影响?

A: 除了直接的经济损失,该禁令还禁止所有军事承包商(如亚马逊、微软等)与 Anthropic 合作,这可能会切断其获取关键计算基础设施的路径。

你知道吗?