Synth Daily

权力的边界:五角大楼、Anthropic 与 AI 控制权的公开角力

这场围绕五角大楼与 AI 公司 Anthropic 的争端,揭示了人工智能时代一个残酷的现实:在缺乏明确法律框架的情况下,技术控制权的争夺已陷入混乱。五角大楼试图通过“供应链风险”这一极具杀伤力的标签,迫使私营公司屈从于军事需求,而 Anthropic 因坚持不参与大规模监控和自主武器研发而面临生存威胁。OpenAI 虽趁虚而入签下合同,却也因决策仓促引发内部动荡和公众抗议,不得不紧急重申其安全底线。这不仅是一场商业竞争,更是关于民主社会中谁有权决定 AI 用途的深层博弈,凸显了监管缺失下的治理危机。

要点

  • 1核心矛盾:Anthropic 拒绝将 AI 用于大规模监控和致命自主武器,而五角大楼坚持要求技术能用于“任何合法用途”。
  • 2前所未有的制裁:政府首次将一家美国本土公司列为“供应链风险”,此举被专家称为是对企业违抗合同的“行政报复”。
  • 3OpenAI 的波折:在填补合同空白后,OpenAI 因舆论压力被迫重新谈判,明确禁止其技术用于对美国公民的国内监控。

视角

Sam Altman (OpenAI CEO)

他不希望私营公司决定核心伦理标准,认为应由民选领导人负责,但同时也承认与五角大楼的最初交易显得“投机且草率”。

Anthropic 及其支持者

坚持 AI 研发应有红线,拒绝在缺乏透明度的情况下为军方提供可能用于群体监控或自动化攻击的工具。

法律与政策专家

担忧政府利用冷战时期的法律实施“软性国有化”,认为将不听话的公司列入黑名单严重侵犯了私有财产权。

历史背景

历史上,曼哈顿计划、太空竞赛等重大技术突破多由政府直接资助和主导。然而,当下的 AI 革命由私营实验室驱动,导致了前所未有的权力和决策冲突。与此同时,美国国会在 ChatGPT 发布后的三年内未能通过任何联邦级 AI 立法,这种监管真空使得行政部门能够通过行政命令和合同条款来变相行使立法权。

“如果你不关心政治,政治就会来找你。” 这场争端再次印证了技术与政治权力的深度绑定。

监管真空与道德博弈

由于国会立法进程缓慢,AI 实验室与政府之间的合同谈判实际上成了法律的临时替代品。这种“以合同代立法”的模式非常危险,因为它让不受监管的行政权力和追求利润的企业高层在密室中决定了技术的伦理边界。Anthropic 的遭遇证明,当企业的道德底线与政府的军事需求发生冲突时,现有的体制更倾向于选择惩罚而非对话。

时间线

事件发展脉络

  • 1

    2023年-2025年

    ChatGPT 发布引发 AI 竞赛,美国国会立法进度缓慢,缺乏联邦监管框架。

  • 2

    2026年初

    Anthropic 因拒绝取消对监控和武器用途的限制,与五角大楼 2 亿美元合同谈崩。

  • 3

    2026年2月

    五角大楼撤销合同,并将 Anthropic 定性为“供应链风险”,Anthropic 宣布采取法律行动。

  • 4

    2026年3月初

    OpenAI 签约填补空缺;随后因员工和公众强烈抗议,宣布重新谈判以增加禁止国内监控的条款。

Q&A

Q: 什么是“供应链风险”标签,它为何具有杀伤力?

A: 这是一个极端的行政手段,通常用于对付外国敌对技术。一旦被贴上此标签,任何与政府有业务往来的大型公司、云服务商或投资机构都可能被禁止与 Anthropic 合作,这无异于在商业上宣判其死刑。

你知道吗?