Synth Daily

Anthropic 反击:美军将其列为“供应链风险”

美国国防部长皮特·赫格塞斯(Pete Hegseth)正式将人工智能初创公司 Anthropic 列为“供应链风险”,禁止所有美军承包商、供应商或合作伙伴与其进行任何商业活动。这一突如其来的制裁源于双方在 AI 军事用途上的谈判破裂:国防部要求对 AI 拥有“所有合法用途”的使用权,而 Anthropic 坚持拒绝将其技术用于大规模国内监控或全自动武器。目前,Anthropic 已宣布将通过法律途径挑战这一决定,而其竞争对手 OpenAI 则已与军方达成包含安全条款的合作协议。

冲突核心:AI 使用权的边界

这次制裁并非源于技术安全漏洞,而是关于 AI 伦理与控制权的硬碰硬:

  • 国防部的立场: 要求军方能够将 Anthropic 的模型应用于“所有合法用途”,不接受特定限制。
  • Anthropic 的底线: 坚持在合同中加入禁令,禁止将其技术用于对美国公民的大规模监控,以及开发全自动杀伤性武器
  • 惩罚措施: 赫格塞斯通过社交媒体宣布,任何与美军有业务往来的公司(包括亚马逊、谷歌、微软等巨头)都不得再与 Anthropic 产生商业往来。

行业震动:是安全保护还是行政报复?

硅谷对这一决定反应强烈,许多专家认为这开创了一个危险的先例:

“这是我见过的美国政府最令人震惊、最具破坏性且越权的行为。我们本质上是在制裁一家美国本土公司。” —— 美国创新基金会高级研究员 Dean Ball

  • 针对性打击: 业内人士质疑此举具有“冲动性和报复性”。
  • 寒蝉效应: 专家担忧这会向科技界传递一个信号:只要尝试与国防部接触,就可能被迫交出所有技术控制权,否则将面临毁灭性制裁。

鲜明对比:OpenAI 的“软着陆”

就在同一天,OpenAI 宣布与国防部达成协议,允许其模型在机密环境中使用。

  • 达成共识: OpenAI 表示,国防部已同意其关于禁止国内监控保留人类火力控制权的安全原则。
  • 策略差异: 相比 Anthropic 的公开对峙,OpenAI 似乎通过谈判在军方需求与公司底线之间找到了某种平衡。

法律争议与未来不确定性

Anthropic 明确表示将提起诉讼,理由是国防部长缺乏法定权力直接通过社交媒体发布此类禁令。

  • 法律界限模糊: 法律专家指出,目前的“供应链风险”定义通常针对外国控制的企业,用于对付一家美国本土顶尖 AI 公司在法律上极具争议。
  • 承包商的困境:Nvidia、亚马逊和谷歌 这样既是军方供应商又是 Anthropic 合作伙伴的巨头,目前正处于观察期。如果禁令严格执行,这些公司可能被迫在利润丰厚的军方合同和先进的 AI 技术栈之间做出二选一。
  • 流程漏洞: 通常此类评估需要通知国会并完成正式风险评估,而本次指令的“即刻生效”属性被认为程序不当。

核心洞察: 这场纠纷本质上是政府行政权力与科技公司伦理规范的正面对撞。如果 Anthropic 败诉,美国 AI 企业在面对政府需求时将失去议价能力;如果政府让步,则意味着军方必须接受 AI 开发商设定的道德约束。