人工智能公司 Anthropic 正在起诉美国国防部,反驳五角大楼将其列为“国家安全风险”的指控。最新提交的法庭文件揭露,在政府公开宣布与其断绝关系后,高层官员私下里却承认双方在核心争议点上已“非常接近一致”。Anthropic 认为,政府的指控源于对技术的根本性误解,其真实目的是报复公司在 AI 安全上的公开立场。
核心矛盾:公开指责与私下示好
去年 2 月,美国政府以 Anthropic 拒绝向军方无限制开放技术为由,公开宣布切断合作。然而,新披露的文件显示:
- 反转的邮件:在五角大楼正式认定 Anthropic 存在供应链风险后的第二天,国防部次长 Emil Michael 曾给 Anthropic CEO 发邮件称,双方在自主武器和大规模监控等敏感议题上“非常接近达成一致”。
- 前后矛盾:在发送这封私下示好邮件的一周后,该官员却在媒体上公开表示双方“完全没有”恢复谈判的机会。
- 不存在的“审批权”:政府指控 Anthropic 试图干涉军事行动审批,但 Anthropic 明确表示从未提出过此类要求,相关指控在谈判期间从未被提及,直接出现在法庭文件中令公司猝不及防。
技术澄清:无法干预的“隔离系统”
针对政府担心的“远程瘫痪技术”或“数据泄露”问题,Anthropic 提供了技术细节反驳:
一旦 AI 模型 Claude 部署在政府控制的物理隔离系统中,Anthropic 就完全失去了访问权限。
- 没有后门:系统不存在远程关闭开关或后门,Anthropic 无法从外部干涉 AI 的运行。
- 数据隔离:公司无法看到政府用户在系统中输入的内容,更无法提取相关数据。
- 更新机制:任何模型变更都必须经过国防部的明确批准和手动安装,不存在所谓的“自动干预”。
身份安全与法律定性
- 员工背景检查:政府曾质疑 Anthropic 雇佣外籍员工。公司回应称,其员工已通过了美国政府最高级别的安全审查,且 Anthropic 是唯一一家由通过审查的人员直接开发核心模型的公司。
- 第一修正案争议:这是美国政府首次对本土公司实施此类供应链风险认定。Anthropic 认为,这实质上是政府对其公开倡导 AI 安全立场的报复行为,涉嫌侵犯言论自由。
关键洞见
这场诉讼的核心在于控制权与透明度的博弈。政府希望拥有对前沿技术的绝对控制力,而 Anthropic 试图在提供技术的同时保留安全底线。目前披露的证据表明,五角大楼的“安全风险”标签可能并非基于技术事实,而是作为谈判筹码,或对不顺从企业的行政惩罚。