Synth Daily

特朗普下令联邦机构全面停用Anthropic:AI安全边界与军事需求的公开决裂

特朗普总统近日宣布,由于人工智能公司Anthropic拒绝取消其模型Claude在军事用途上的限制,所有联邦机构必须在六个月内彻底停止使用该公司的技术。这一决定的导火索是Anthropic与国防部之间长达数月的僵局:公司坚持拒绝将AI用于大规模国内监控全自动自主武器,而五角大楼则要求获得“所有合法用途”的使用权。尽管政府威胁动用《国防生产法》强制干预,Anthropic CEO达里奥·阿莫代伊仍选择坚守原则,称这关乎民主价值与公共安全。此次事件标志着硅谷尖端实验室与华盛顿军事意志之间的矛盾达到了顶峰,不仅可能重塑美国AI产业的版图,也引发了关于AI在核预警等极端场景下可靠性的广泛讨论。

要点

  • 1全面禁令:特朗普要求所有联邦机构立即启动为期六个月的过渡期,分阶段淘汰Anthropic的产品。
  • 2谈判僵局:争议核心在于Anthropic拒绝放开针对“大规模监控”和“无人干预自主武器”的技术护栏。
  • 3强制威胁:国防部曾警告将动用《国防生产法》或将该公司列为“供应链风险”,意图实施事实上的行业封杀。
  • 4核武风险:双方在AI是否应介入核导弹预警和防御决策这一极端假设场景上存在根本性分歧。

视角

特朗普政府

我们不需要也不想要这家由“激进左翼”运行的公司。国家命运应由政府掌握,而非不受控制的AI企业。政府必须拥有对先进技术的完整掌控权。

Anthropic (达里奥·阿莫代伊)

我们无法违背良心接受要求。现有的AI技术尚不够可靠,无法在没有人类干预的情况下执行致命任务,且大规模监控将破坏基本的宪法自由。

OpenAI (山姆·奥特曼)

政府确实需要AI合作伙伴,公司也应在法律框架内支持国防,但不赞成动用《国防生产法》等极端手段来强迫企业合作。

核噩梦与决策困境

此次冲突最令人不安的细节在于AI在核战争场景中的应用。据透露,五角大楼曾向Anthropic询问:如果在核导弹向美国飞来的极端时刻,公司是否会因为“禁止自主武器”的条款而拒绝提供辅助。Anthropic对此持谨慎态度,引发了军方的极大愤怒。

“目前的技术并不足以支撑如此高风险的决策。研究显示,在模拟战争中,AI模型比人类更有可能建议采取核手段。”

军方希望利用AI加速决策,但专家警告,历史上多次核危机都是靠人类的直觉和冷静才得以避免,完全依赖尚未被理解的“黑箱”算法可能导致毁灭性的误判。

自选主题:私人实验室与政府军械库的碰撞

不同于诞生于政府实验室的互联网或核能技术,现代AI完全由私人企业研发。这种权力的错位导致了深刻的文化冲突。像波音或洛克希德·马丁这样的传统军工巨头几乎从不拒绝政府的订单,但Anthropic等AI公司更像是一群深感技术风险的科学家。

“AI系统不是被建造出来的,而是‘生长’出来的。我们甚至无法完全理解它们是如何运作的,更不用说预测它们在战场上的所有行为。”

这种不可预测性是Anthropic坚持设置护栏的根本原因。他们认为,技术的安全性优先于合同的履行,而政府则将其视为对国家权力的挑战。

时间线

冲突升级进程

  • 1

    2025年12月

    五角大楼官员就核打击预警场景向Anthropic CEO施压,双方关系开始恶化。

  • 2

    2026年2月中旬

    国防部长赫格塞斯发出最后通牒,要求公司在周五前取消所有技术限制。

  • 3

    2026年2月26日

    Anthropic公开发文,明确拒绝国防部关于“所有合法用途”的要求,坚守红线。

  • 4

    2026年2月27日晚

    特朗普在社交媒体正式宣布封杀令,要求所有联邦机构停用Anthropic技术。

Q&A

Q: 为什么军方非要使用Anthropic的技术不可?

A: Anthropic的Claude模型在逻辑推理和复杂任务处理上处于世界领先地位。军方希望利用其处理海量卫星数据、情报分析以及辅助决策,以在未来的“AI速度”战争中占据优势。

Q: 如果Anthropic被踢出,谁将受益?

A: 特斯拉CEO马斯克旗下的xAI被视为潜在的接替者。此外,OpenAI和谷歌也在积极寻求更符合军方要求的合作协议。目前只有xAI的Grok模型被获准处理五角大楼的绝密信息。

你知道吗?