这场博弈的本质是美国政府与 AI 巨头之间关于“技术终极控制权”的战争。美国五角大楼要求 Anthropic 无条件开放其 AI 模型(Claude)用于所有军事用途,而 Anthropic 以安全和伦理为由坚决拒绝。这不仅关系到一家公司的生死,更将决定未来人工智能是由私营企业根据安全准则运行,还是由国家机器完全接管。
冲突爆发:五角大楼的最后通牒
美国战争部长皮特·赫格塞斯向 AI 公司 Anthropic 下达了最后通牒:要求其提供对 Claude AI 的全面、无限制访问权限。
- 五角大楼的立场: 军方认为 AI 是赢得未来战争的关键,供应商不应在合同之外对政府的使用方式指手画脚。
- Anthropic 的回应: 首席执行官 Dario Amodei 明确拒绝,称出于良知和安全考虑,无法满足这一要求。
- 导火索: 此次冲突源于此前在一次针对委内瑞拉的军事行动中,Claude 被发现通过第三方平台(Palantir)间接参与。Anthropic 员工对该用途的质疑引起了军方的高层不满。
Anthropic 的两条“红线”
尽管 Anthropic 已经在处理价值 2 亿美元的国防合同,但它坚持技术应用必须有边界。
- 拒绝全自动武器: 公司认为目前的 AI 系统不够可靠,无法在没有人类干预的情况下独立决定攻击目标。
- 拒绝大规模国内监控: Anthropic 认为 AI 驱动的监视会对公民的基本自由构成严重、前所未有的威胁。
“前沿 AI 系统现在的可靠性,还不足以支撑起全自动杀伤武器。” —— Anthropic 首席执行官 Dario Amodei
五角大楼的惩罚工具箱
面对不听话的科技公司,政府正在动用一些极端的法律和行政手段:
- 《国防生产法》(DPA): 这是一项冷战时期的法律,可以强制私营企业优先执行国防订单。政府可能利用它强迫 Anthropic 训练专门用于战争的 AI 模型。
- 供应链风险清单: 这是一个杀伤力巨大的武器。如果将 Anthropic 列为“风险企业”(通常用于华为等敌对国家企业),将禁止所有国防承包商使用其产品,这会直接摧毁该公司的商业市场并终结其 IPO 计划。
- 取消合同: 直接终止现有的 2 亿美元合同,并转向其他更愿意配合的竞争对手(如 xAI)。
核心争端:是安全准则还是“违抗军令”?
这场冲突暴露了政府监管与企业自主权之间的深刻矛盾:
- 逻辑上的悖论: 评论家指出,五角大楼一边宣称 Claude 具有“国家安全风险”,一边又坚持要将其收归国有并强制用于战争,这在逻辑上是站不住脚的。
- 先例的危险性: 如果政府通过行政手段强制企业屈服,将意味着任何美国 AI 公司都无法再保持独立的安全性研究或伦理限制。
- 缺乏立法: 在国会没有明确立法限制 AI 军事应用的情况下,这种“谁拳头大谁说了算”的局面,可能将人类引向一个失去控制的黑暗未来。
当前的局势表明,这场关于 AI 控制权的较量已经不再局限于技术开发,而是演变成了一场关乎法律边界和生存权的政治角力。