Synth Daily

Anthropic 现在何去何从?

特朗普政府宣布立即终止与人工智能公司 Anthropic 的合作,禁止所有联邦机构使用其技术。这一决定的核心矛盾在于 Anthropic 拒绝将其 AI 模型 Claude 用于大规模国内监控和全自动武器。此次决裂标志着硅谷私人创新与政府军事需求之间的关系发生了剧烈波动,也引发了关于 AI 技术在国家安全与伦理边界之间的深度讨论。

合作终止的导火索

此次断交并非渐进式,而是采取了极其强硬的手段:

  • 立即停用: 所有联邦机构被要求立即停止使用 Anthropic 的技术,相关产品已从总务管理局(GSA)的采购平台中下架。
  • 军事背景: Anthropic 此前曾获得国防部 200 亿美金的合同,Claude 是唯一获准处理机密数据的先进生成式 AI,甚至被用于协助捕捉委内瑞拉总统马杜罗的任务。
  • 底线分歧: Anthropic 坚持不让 Claude 用于无限制的国内监视全自动杀伤性武器(如自主选择目标的无人机)。

权力的博弈:国防部的高压手段

由于 Anthropic 拒绝妥协,美国国防部采取了被视为“历史上最激进”的监管举措:

  • 战争法案威胁: 国防部威胁动用《国防生产法》(DPA)强制接管或指挥公司生产。
  • 供应链风险限制: 官方将其标记为“供应链风险”,这意味着任何与美军合作的机构或公司可能都无法再与 Anthropic 开展业务。这将直接打击 Anthropic 与亚马逊、谷歌等巨头的云计算与融资合作。

“我们不能凭良心答应国防部的要求。任何恐吓或惩罚都不会改变我们的立场。” —— Anthropic CEO 达里奥·阿莫代伊(Dario Amodei)

硅谷的反应与行业裂痕

这一事件在科技界引发了连锁反应,揭示了私人企业与政府在技术控制权上的根本冲突:

  • 普遍支持: 超过 500 名来自 OpenAI 和谷歌的员工签署联名信支持 Anthropic。OpenAI CEO 奥特曼也重申,AI 不应被用于大规模监控或自主攻击武器。
  • 技术代差: 目前最顶尖的 AI 创新源于私营部门而非政府。政府在依赖这些技术的同时,又试图打破私营公司的产品规则。
  • 内部矛盾: 一方面政府认为 Claude 对国家安全至关重要,必须强制征用;另一方面又因其创始人的政治立场和伦理约束将其标签化为“觉醒文化(Woke)”的产物,认为其本身就是安全风险

未来走势与现实意义

特朗普给予国防部 6 个月的时间来寻找 Claude 的替代方案,这反映了高端 AI 在军事行动中已具备不可替代性。

  • 技术可靠性: 阿莫代伊指出,当前的 AI 模型不够可靠,无法胜任全自动武器的任务,强行部署反而会危及士兵和公民。
  • 行业重组: Anthropic 的遭遇给其他 AI 公司敲响了警钟。未来,硅谷可能会分化为两派:一派坚持伦理底线,另一派(如 Anduril)则可能选择全面拥抱不受限的军事需求。

这场冲突的核心在于:当最先进的技术掌握在私人公司手中时,政府是否拥有最终的“解释权”和“使用权”? 这场博弈的最终结果将决定未来几十年 AI 发展的伦理基调。