OpenAI 与美国战争部(DoW)近期达成的初步协议引发了广泛质疑。此前,AI 公司 Anthropic 因拒绝将其模型用于大规模监控和自主武器,被官方列为“供应链风险”。OpenAI 随即填补了这一空白,尽管其首席执行官萨姆·奥尔特曼声称合同包含安全保障,但其核心条款“所有合法用途”(all lawful use)实际上为政府权力留下了巨大的操作空间。由于现行法律在监控和武器领域存在诸多漏洞,且战争部有权自行修改政策,这意味着 OpenAI 的 AI 最终可能被合法地用于极具争议的军事与情报活动。
协议背景:不合作就出局
美国战争部将 Anthropic 标记为“供应链风险”,这是该标签首次应用于美国本土公司,原因仅仅是后者坚持不在监控和自主武器上妥协。紧接着,OpenAI 与战争部达成协议。
- Anthropic 的底线: 明确禁止将其 AI 用于大规模监控或自主杀伤。
- OpenAI 的立场: 声称有保障措施,但在合同中接受了“所有合法用途”这一笼统表述。
- 专家的担忧: 如果战争部拒绝给 Anthropic 让步,那么在 OpenAI 的合同里,那些所谓的“保障”很可能是形同虚设的。
“合法用途”的法律陷阱
“合法”并不等同于“安全”或“合乎道德”。在国家安全领域,法律的定义极其宽泛且充满弹性。
- 法律随你定义: 战争部关于自主武器的政策(如 3000.09 指示)是由其自行制定的。这意味着他们可以随时通过修改政策来改变“合法”的定义。
- 解释权的缺失: 尽管 OpenAI 声称协议指的是“签约时的法律”,但这不符合合同法的常规解释。一旦法律或政策变动,原有的限制将不复存在。
国内大规模监控:透明的隐私
虽然法律名义上限制对美国人的监控,但实际上留下了巨大的后门。
- “偶然获取”数据: 政府在监听外国目标时,可以“顺便”获取数百万美国人的数据。只要这些数据是“偶然”得到的,存储它们就是合法的。
- 购买第三方数据: 这是一个巨大的法律真空。政府可以从 Facebook 或电信公司直接购买数据,这种行为几乎不受任何现有监控法律的约束。
- AI 消除成本障碍: 过去,政府无法翻阅每一条短信是因为人力成本太高。AI 解决了规模和成本问题,它可以自动分析海量信息,给每个公民打出“忠诚度评分”。
过去,规模是最大的限制;现在,AI 让大规模监控变得既廉价又高效。
自主武器:失去人性的制衡
目前的法律并未严厉禁止自主武器,仅有的约束力来自战争部的内部指令。
- 模糊的词汇: 政策要求保留“适当水平的人类判断”,但从未定义什么是“适当”。由使用武器的机构来定义“适当”,这本身就是一种讽刺。
- 机器人不抗命: 人类士兵是防止独裁暴政的最后一道防线,因为他们可能拒绝执行屠杀平民等非法命令。但完全自动化的机器人军队会无条件服从任何指令。
拆解 OpenAI 的 FAQ 话术
针对公众的质疑,OpenAI 提供了一些解释,但被专家认为具有误导性。
- 关于云端部署: OpenAI 称不进行“边缘部署”(在武器硬件上直接运行模型)就能防止自主武器。实际上,AI 完全可以在云端远程操控无人机。
- 关于人员参与: OpenAI 声称会有人员参与监督。但法律专家高度怀疑,在高度机密的军事行动中,战争部是否真的会允许外人介入。
核心洞见:技术治理的失败
这份协议反映了一个危险的趋势:科技公司在强大的政府压力面前正在丧失议价权。
- “合法”是最低标准: 在法律滞后于技术的今天,仅满足于“合法”就等同于放弃了社会责任。
- 透明度极低: OpenAI 拒绝公开合同全文,这让所有的“安全承诺”都显得苍白无力。
- 问责制缺失: 如果政府违反了合同,OpenAI 几乎没有追责的手段,甚至可能面临进一步的报复。
关键问题: 如果 OpenAI 的技术被用来分析政府购买的美国人数据,或者用于远程操控的杀人机,这些在目前看来全都是“合法用途”。我们是否真的准备好接受这样的未来?