美国国防部近期与两家顶尖 AI 公司——Anthropic 与 OpenAI——因军事合作条款产生严重分歧。Anthropic 因坚持禁止将技术用于大规模监控和自主武器,被五角大楼列为“供应链风险”并遭到封杀;而 OpenAI 则迅速与军方达成协议,虽然声称设有安全防护,但被质疑其条款缺乏实际约束力。这一事件暴露了现有法律在限制政府滥用 AI 方面的无力,也表明仅靠公司层面的合同约束难以防止技术滥用,真正的监管最终需要依靠国会立法。
核心冲突:原则 vs. 妥协
上周,人工智能行业上演了一场关于伦理与权力的对决。国防部长皮特·海格塞斯(Pete Hegseth)要求 Anthropic 取消其合同中禁止将 Claude 用于大规模监控和完全自主武器的条款。
- Anthropic 的立场: 拒绝妥协,坚持 AI 不应成为政府监控民众或制造“杀人机器人”的工具。
- 政府的报复: 特朗普下令联邦机构停止使用 Anthropic 技术,海格塞斯随后将其列为“供应链风险”,意图切断其与所有政府承包商的业务往来。
- OpenAI 的介入: 在 Anthropic 被封杀几小时后,OpenAI 宣布与五角大楼达成协议。萨姆·奥特曼声称军方同意不将模型用于自主武器或监控,但这一说法遭到广泛质疑。
虚设的“安全护栏”
OpenAI 的合同条款被指存在严重的法律漏洞。其承诺的所谓“保护”实际上只是要求遵守现有法律(如 FISA 法案等)。
这里的核心问题在于:现有的法律和监管机制在历史上并未能阻止政府对数百万美国人进行电话记录等大规模监控。
- 历史教训: 2013 年的斯诺登事件证明,政府官员曾公开否认监控行为,但实际上却利用法律解释权进行大规模数据搜集。
- 数据的灰色地带: 国防部下属机构(如 DIA)在没有搜查令的情况下购买商业智能手机位置数据。OpenAI 承诺的“不进行无限制监控”在政府眼中可能有完全不同的解释。
- 合规性质疑: OpenAI 聘请了前政府官员负责国家安全事务,这种紧密的“旋转门”关系让外界怀疑公司是否真的能对军方行为起到制衡作用。
致命自主武器:远虑还是近忧?
虽然 Anthropic 和 OpenAI 都表示反对自主杀伤性武器,但短期内这更多是一个伦理姿态而非技术限制。
- 技术局限: 当前的尖端模型(如 GPT-4 或 Claude)由于算力需求高、空间推理能力尚不足,并不适合直接装载在无人机等小型移动设备上进行实时目标定位。
- 合同措辞: OpenAI 的合同仅规定不“独立指挥”违反部门政策的自主武器。然而,美国目前的法律并未明确禁止全自主无人机。
- 未来的隐患: 随着模型的小型化和效率提升,当前的模糊表述将为未来“杀人机器人”的出现留下后门。
行业分裂与立法的必要性
五角大楼在谈判中利用 OpenAI 作为筹码来向 Anthropic 施压,这种“分而治之”的策略取得了成功。
- 不公平的竞争: OpenAI 的妥协姿态使其在政府合同竞争中占据优势,而坚持原则的 Anthropic 则面临被排挤出政府供应链的风险。
- 合同的局限性: 即使有严格的合同,也很难要求在保密项目工作的工程师充当“吹哨人”。此外,政府还可以转向 xAI 等限制更少的公司或使用开源模型。
依靠公司与政府签署的私下协议来保护公民权利是不靠谱的。真正的约束力必须来自国会立法,制定适用于所有 AI 供应商和政府机构的统一底线。
Anthropic 的抗争虽然使其陷入困境,但它成功将 AI 滥用 的风险带到了公众和立法者的视野中心。这场冲突证明,仅靠科技巨头的“自我克制”无法应对强大的行政力量,建立透明、法治的监管框架已迫在眉睫。