美国国防部近期先是计划封杀 Anthropic 的 Claude 模型并将其列为供应链风险,随后迅速转身与 OpenAI 达成协议。这一系列动向标志着 AI 竞争已正式脱离纯粹的技术研发阶段,进入了高风险、非假设性的政治与经济博弈。尽管 Anthropic 在技术可靠性和伦理标准上备受推崇,但 OpenAI 凭借更强的政治适应性和市场操作能力,在这场与权力的权力博弈中占据了上风。
AI 正式进入“大联盟”时代
2026 年 2 月将被视为 AI 发展的转折点。这不仅关乎技术突破,更意味着 AI 已成为政治与经济的核心叙事,其影响力巨大到连最坚定的怀疑论者也无法忽视。
- 从论文走向现实: 我们已经结束了“白皮书”阶段,政府官员与 AI 企业 CEO 们正在做出具有重大后果的决策。
- 能力的阶梯式飞跃: 在经历了 2025 年的停滞后,LLM(大语言模型)在近几个月表现出了显著的可靠性和速度提升,能够处理更复杂的任务。
技术领先与政治妥协的博弈
虽然技术圈普遍认为 Claude 是目前最优秀、最可靠的模型,但在与政府的互动中,技术实力并非唯一衡量标准。
- OpenAI 的实用主义: OpenAI 显然比 Anthropic 更加“放得开”。为了达成政府协议,OpenAI 愿意在某些 Anthropic 坚持的准则(Guardrails)上表现得更具许可性。
- “觉醒”标签的误导: 政治人物指责 Anthropic 过于“觉醒”(Woke)只是一种政治掩护。实际上,顶级 AI 实验室更关注的是伦理与有效利他主义,这与传统的政治标签并不相符。
美国政府的核心利益在于拥有最强的军事能力。未来的战争必然涉及 AI,而政府需要在技术专家和官僚程序之外,快速做出具有法律效力的决策。
企业版图的重构
这次风波将对 AI 行业的格局产生深远影响,改变了各家实验室在公众心目中的定位。
- OpenAI 的“Meta 化”: OpenAI 正在展现出类似 Facebook/Meta 那种冷酷且专注于底线的权力运作风格。虽然这有助于筹集资金和获得政府合同,但可能导致顶级人才向技术更纯粹的实验室流失。
- Anthropic 的品牌固化: 尽管在估值和市场准入上暂时受挫,但 Anthropic 通过坚守立场,巩固了其作为“最讲伦理”AI 实验室的品牌形象。
- 政治色彩的划分: 随着合作的深入,OpenAI 正逐渐被贴上“保守派”标签,而 Anthropic 则更受自由派青睐。这种极化对面向大众市场的技术产品来说,潜藏着品牌风险。
治理能力的隐忧
当前的局面在某种程度上呈现出一种“博弈论式的平衡”:政府获得了控制权,OpenAI 赢得了合同,Anthropic 保住了名声。然而,美国政府的治理效能和硅谷对政治的幼稚看法依然令人担忧。
- 政治不是舍入误差: AI 实验室往往将政治视为计算“生存风险”(p(doom))时的微小变量,但现实证明,政治决策往往是决定性的。
- 缺乏有效监管: 快速的 AI 增长是否能与民主制度兼容尚不确定。当前的许多决策场景甚至带有一种荒诞的现实感。
核心洞见: AI 的发展速度已经迫使政府在“最好的技术”和“最听话的技术”之间做出选择。OpenAI 选择了后者作为切入点,这不仅是技术的胜利,更是政治游说的胜利。