2025年,人工智能实验室 Anthropic 与特朗普政府治下的五角大楼爆发了激烈冲突。核心矛盾在于 Anthropic 坚持为其模型 Claude 设定道德底线——拒绝参与自主武器开发和国内大规模监控,而国防部则要求 AI 必须绝对服从军事指挥。这场争端最终导致 Anthropic 被列为“供应链风险”并面临生存威胁,揭示了政府与私企在 AI 治理权、技术本质以及“对齐”定义上的根本对立:AI 究竟是听命于人的普通工具,还是具备独立判断力、需要谨慎对待的自主代理?
核心分歧:安全红线与军事需求
Anthropic 从成立之初就带有强烈的“安全第一”色彩,其创始人因不满 OpenAI 的商业化倾向而自立门户。在与五角大楼的合作中,这种价值观直接转化为合同中的禁令。
- 拒绝自主武器: Anthropic 禁止 Claude 驱动完全自动化的杀伤性武器,要求“杀伤链”中必须有人类参与。
- 拒绝国内监控: 公司严禁将 Claude 用于处理国内大宗数据以进行监控,担心这会破坏公民隐私并被用于非法搜捕。
- 政府的回应: 五角大楼认为这些条款是“道貌岸然”的限制,要求获得“所有合法用途”的使用权。国防部官员认为,如果 AI 在关键时刻(如拦截导弹)因为“道德犹豫”而拒绝执行指令,将直接威胁国家安全。
政治化定性:“觉醒”AI vs. 绝对忠诚
随着谈判破裂,这场技术争端迅速演变为政治斗争。特朗普政府及相关利益方将 Anthropic 的坚持定性为政治不正确。
- “觉醒”标签: 特朗普在社交媒体上抨击 Anthropic 是“激进左翼、觉醒文化公司”,并限令各联邦机构在六个月内停用 Claude。
- 忠诚度测试: 亲政府人士通过提问“特朗普打击伊朗是否正确”来测试各家模型。Claude 回答这是一个“有争议的政治问题”,而竞争对手 Grok 则给出了肯定的回答。
- 竞争者的入局: 在 Anthropic 陷入僵局时,OpenAI 和埃隆·马斯克的 xAI (Grok) 迅速填补了空白。五角大楼倾向于选择那些承诺不设置“人为限制”的合作伙伴。
关于 AI 本质的认知鸿沟
这场冲突背后,是双方对 AI 技术本质完全不同的理解。
政府观点:AI 是“普通技术”。 国防部官员认为 AI 与半导体、战斗机或办公软件没有本质区别。它必须像战斗机一样,飞行员指向哪里,它就打向哪里。他们拒绝“硅谷神格化 AI”的说法,认为所谓的“对齐风险”只是软件漏洞,可以通过工程手段解决。
Anthropic 观点:AI 是“自主代理”。 开发者认为 AI 不是简单的工具,而是一个越来越独立的代理人。你给它一个目标,却无法完全控制它实现目标的过程。如果强行要求 AI 违背其内置的道德准则,可能会导致不可预知的灾难性后果。
极端制裁:从合同取消到“企业谋杀”
五角大楼对 Anthropic 采取了前所未有的惩罚措施,将其列为“供应链风险”。
- 全面封锁: 这一标签通常仅用于华为等有敌对国家背景的企业。它不仅禁止国防承包商使用 Claude,甚至可能禁止任何与政府有业务往来的公司向 Anthropic 提供芯片或算力,相当于切断了公司的生命线。
- 国家化威胁: 政府暗示可能援引《国防生产法》对公司进行部分或全部国有化。
- 法律反击: Anthropic 已提起诉讼。其法务团队由前政府高级官员组成,准备就“私企自主权”与“政府强制力”的界限进行一场具有里程碑意义的辩论。
总结与反思:谁来掌握规则?
这场斗争的本质在于谁有权为 AI 设定价值观。
- 政府认为: 在共和国体制下,私企个人无权制定外交和军事政策,只有民选政府和国会有权决定 AI 的使用边界。
- Anthropic 认为: 现有的隐私法律和监管体系已经过时。由于 AI 可以通过海量数据去匿名化并精准锁定个人,如果不对技术本身设限,将产生一个无法关上的“全景监视监狱”。
目前,这场冲突仍未平息。它给所有 AI 开发商敲响了警钟:在一个政治两极分化的时代,“技术中立”已不复存在,AI 的对齐对象不再只是全人类的福祉,更是具体的政治意志与国家机器。