Synth Daily

特朗普封杀Anthropic,OpenAI接手五角大楼AI订单:安全底线与国家利益的较量

近日,人工智能行业发生剧震。特朗普政府正式宣布将AI安全公司Anthropic列入“供应链风险”黑名单,并下令所有联邦机构在六个月内全面停用其技术。这一决策的导火索是Anthropic拒绝移除其模型在军事用途上的限制,即禁止将其AI用于自主武器国内大规模监控。与此同时,OpenAI迅速填补了这一真空,与五角大楼达成协议,将其模型部署于军用机密系统。尽管OpenAI声称保留了相似的安全红线,但通过允许国防部人员现场监督及建立定制化“安全栈”,成功赢得了政府的信任。这场风波标志着科技巨头在军事化应用上的路线分歧,也引发了硅谷对于政府干预企业伦理底线的激烈讨论。

要点

  • 1全线封杀:特朗普下令联邦机构停止使用Anthropic技术,并将其定性为国家安全风险。
  • 2原则冲突:Anthropic坚持模型不得用于致命性自主武器,而五角大楼要求拥有“全权且不受限”的合法使用权。
  • 3OpenAI补位:萨姆·奥特曼宣布与五角大楼达成合作,将AI工具引入机密系统,并派遣工程师现场协作。
  • 4行业争议:事件引发了关于AI公司是否该参与战争以及如何平衡国家安全与技术伦理的辩论。

视角

Vinod Khosla (风险投资家)

“普京不会讲规矩,所以我们肯定需要自主AI武器。”他支持开发攻击性AI技术以应对不公平的战争。

Ilya Sutskever (OpenAI前首席科学家)

他认为Anthropic不向政府压力低头是“极其优秀”的表现,并对OpenAI保留类似底线表示认可。

Anthony Scaramucci (SkyBridge创始人)

他将此事件描述为政府对私营企业的“霸凌”,认为政府不应强迫公司违背其核心准则。

历史背景

Anthropic曾是美国国防部最青睐的合作伙伴之一,其Claude模型是首个获准在五角大楼机密网络上运行的大型商业模型,合同价值高达2亿美元。然而,双方在“安全准则”的具体解释权上长期存在分歧。

“我们不能昧着良心接受那些无法阻止模型被用于大规模监控或自主武器的条款。” —— Anthropic CEO Dario Amodei

消失的“红线”差异

令人困惑的是,OpenAI宣称其协议中也包含“禁止自主武器”和“禁止国内监控”的红线,这与Anthropic坚持的原则在字面上几乎一致。然而,OpenAI通过建立一个“安全栈”(即多层技术与政策控制系统)并允许政府参与监督,缓解了军方的焦虑。

五角大楼认为,AI模型必须能用于“所有合法目的”,任何预设的硬性限制都被视为对国防能力的削弱。

时间线

事件发展脉络

  • 1

    2026年2月下旬

    五角大楼要求Anthropic移除Claude模型中的军事使用限制,双方谈崩。

  • 2

    周五上午

    特朗普在社交媒体宣布封杀Anthropic,国防部长将其列为供应链风险。

  • 3

    周五下午

    Sam Altman向员工透露OpenAI已与五角大楼达成潜在合作协议。

Q&A

Q: 为什么Anthropic被视为“供应链风险”?

A: 这通常是针对有外敌关联公司的标签。但在本案中,是因为政府认为其拒绝配合军事任务限制了国防部的合法权力,构成了对国家安全的阻碍。

你知道吗?