美国总统特朗普下令所有联邦机构在六个月内停止使用 Anthropic 及其 AI 模型 Claude。此举源于国防部与该公司在 AI 安全准则上的尖锐对立:国防部要求移除禁止将 AI 用于大规模监控和自主武器的限制,而 Anthropic 坚持这些安全红线。这一决策标志着政府与私营科技公司在国家安全与技术伦理边界上的冲突全面升级。
冲突的核心:安全准则与军事需求
国防部与 Anthropic 的谈判已陷入僵局数月,核心矛盾点在于技术的使用边界:
- 禁止大规模监控: Anthropic 拒绝取消防止其 AI 被用于针对美国公民进行大规模监控的限制。
- 限制自主武器: 公司坚持 AI 不应被整合进完全自主的武器系统中。
- 法律效力之争: 特朗普指责 Anthropic 试图强迫国防部遵守其企业服务条款,而非服从美国宪法,称其为“左翼疯子的灾难性错误”。
升级的威胁与强制措施
政府方面采取了极为强硬的立场,试图通过行政手段迫使公司屈服,或彻底将其排除在政府供应链之外:
- 供应链风险名单: 国防部长皮特·海格塞斯此前威胁,若 Anthropic 不撤销安全限制,将其列为“供应链风险”。
- 刑事责任警告: 特朗普公开表示,若 Anthropic 在过渡期内不配合,将动用总统职权使其面临严重的民事和刑事后果。
- 六个月过渡期: 联邦机构(包括国防部)必须在半年内完成从 Anthropic 产品的迁移。
各界的担忧与反弹
多家倡导组织和行业专家认为,这种强制干预将损害美国的创新生态和政府信誉:
“这种行为开创了一个危险的先例。它扼杀了私营公司就技术合理用途与政府进行坦诚交流的空间,在缺乏公开透明度的国家安全领域尤为严重。”
批评者指出,这种做法可能产生以下后果:
- 破坏合作信任: 削弱私营部门与政府合作的意愿,使企业担心因技术立场遭受政治报复。
- 扭曲市场激励: 通过行政命令干预特定企业的服务条款,可能导致技术开发向非理性方向倾斜。
- 行政权力扩张: 这种直接干涉企业运营的模式,引发了各界对行政权力过度扩张的警惕。
Anthropic 方面表示,目前的谈判几乎没有进展,尽管政府提出了所谓的“折中方案”,但在法律层面上仍允许随时无视安全准则。公司表示愿继续谈判,以确保国防部运营的连续性。