德克萨斯大学教授、AI 专家斯科特·阿伦森(Scott Aaronson)就五角大楼与 Anthropic 公司之间的冲突发表了见解。事件的核心在于 Anthropic 拒绝取消其 AI 模型在军事用途上的“红线”(如禁止用于自主杀伤和大规模监视),导致五角大楼将其标记为“供应链风险”并威胁要强行将其国有化。阿伦森指出,这种做法不仅具有专制色彩且逻辑自相矛盾,更会破坏市场原则和言论自由,最终可能因疏远科技人才而损害美国的国家安全。
冲突的起因:原则与权力的碰撞
Anthropic 最初为了支持国家安全,与五角大楼签署了在机密网络上使用 Claude 模型的合同。然而,五角大楼随后试图推翻合同中关于禁止某些军事用途的限制条款。
- Anthropic 的立场: 坚持在合同中明确“红线”,确保 AI 不被用于自动杀人或监视本国公民。
- 五角大楼的手段: 当 Anthropic 拒绝让步时,政府将其列为“供应链风险”,并威胁动用《国防生产法》接管其知识产权。
这种不一致正是威权主义的体现:五角大楼声称 Claude 既是因风险过大而不能让军方使用的威胁,又是因极其关键而必须由军方强行征用的资源。
OpenAI 的模糊策略
与 Anthropic 陷入僵局形成鲜明对比的是,OpenAI 迅速与五角大楼达成了协议。
- 表面的共识: 萨姆·阿尔特曼(Sam Altman)公开表示支持 Anthropic 的原则。
- 实际的操作: 专家推测,OpenAI 接受了五角大楼要求的“所有合法用途”这一模糊措辞。这意味着如果军方违规,责任在于法律解释而非公司,这为 OpenAI 规避了直接冲突,但也削弱了对 AI 滥用的约束。
危险的先例与国家安全
阿伦森认为,五角大楼的行为是对自由市场和意识自由的侵犯,将产生深远的负面影响:
- 人才流失: 如果政府保留随时“抓着公司的脚踝把他们拖入深水区”的权力,顶尖的硅谷公司将不再愿意与国防部合作。
- 缺乏对比的惩罚: 这种针对国内公司的“供应链风险”定义极具讽刺意义,因为类似的标签甚至尚未全面应用在真正的对手(如中国的 DeepSeek)身上。
科幻小说走进现实
过去人们常嘲笑“军方接管实验室”是庸俗的科幻情节,但现在的现实比小说更缺乏创意。
- 非强制性的传统: 即便在二战最艰难的时刻,美国政府也没有持枪强迫科学家制造核武器,那是基于道德判断的自愿合作。
- 必然性的抗争: 即使有人认为“有原则的开发者失去控制权”是必然的,阿伦森依然强调在这个自由国家,人们有权对这种鲁莽的行为提出抗议。
我们必须永远放弃那种“这听起来太像科幻情节”的辩解。你最好习惯科幻,因为我们正生活在其中。
目前,Anthropic 已提起诉讼,指控五角大楼侵犯其言论自由和正当程序权。这场官司的结果将定义私有科技财产与国家权力在 AI 时代的边界。