OpenAI 与美国国防部(五角大楼)签署了一项机密合同,承诺不将技术用于大规模国内监控或自动致命武器。然而,法律专家通过分析合同公开片段发现,其中的界限极其模糊,存在大量法律漏洞,可能变相允许军方利用 AI 辅助监控和武器决策。此次合作标志着 OpenAI 在政府强硬姿态下做出了妥协,以换取利润丰厚的订单,同时也引发了公众对技术军事化和个人隐私流失的深度担忧。
合作背景:接手 Anthropic 留下的订单
在 OpenAI 签署这份合同之前,另一家 AI 巨头 Anthropic 因在安全条款上与五角大楼产生严重分歧而被“封杀”。美国国防部甚至将 Anthropic 贴上“供应链风险”的标签,要求所有合作伙伴停止使用其产品。
OpenAI 迅速填补了这一空缺。尽管首席执行官萨姆·奥尔特曼(Sam Altman)声称 OpenAI 会设立“红线”以防止技术被滥用,但外界普遍怀疑,OpenAI 是通过提供比 Anthropic 更宽松的条件才赢得了这份合同。
监控疑云:合法的“大规模监视”?
虽然 OpenAI 公开表示禁止将技术用于“大规模国内监控”,但法律专家指出,合同中的措辞实际上非常微妙:
- “合法用途”陷阱:合同规定国防部可以将 AI 系统用于一切“合法目的”。专家认为,这意味着只要在现有法律(如 FISA)框架下,政府仍可以利用 AI 分析大规模拦截的通信数据、手机定位和商业购买的个人信息。
- 定义的含糊性:诸如“蓄意”或“追踪”等词汇在法律上有特定的窄义解释。前陆军官员指出,普通人眼中的“监控”与国安局(NSA)定义的“监控”完全是两回事。
“普通民众认为的大规模监视,在 OpenAI 看来似乎是可以接受的。” —— 布拉德·卡森,前陆军副部长。
致命武器:从“禁止”到“人类负责”
在自动武器领域,OpenAI 的态度也发生了显著变化。此前,OpenAI 曾倾向于全面禁止将其技术用于致命武器。
- 红线的软化:目前的合同要求在武力使用中保持“人类责任”,而非绝对禁止。这意味着只要决策链条中有一个人“负责”,AI 就可以被集成到自动武器系统中。
- 引用军事指令:合同引用了五角大楼的 3000.09 指令,该指令实际上为开发和部署全自动武器提供了合法的技术路径,而非禁令。
信任危机:反复无常的公开信息
OpenAI 在处理此次公关危机时表现得极度混乱。公司在过去一周内多次修改官方博客内容,甚至删除或更改了已经发布的合同文本。
- 前后矛盾:奥尔特曼在社交媒体上的表态与公司随后发布的合同片段时有出入。
- 透明度缺失:OpenAI 仅公布了合同的极小部分片段,拒绝提供关键术语的定义。
“这种做法往好里说是他们还没搞清楚状况,往坏里说则加深了人们的印象:OpenAI 并不坦诚。” —— 艾伦·罗森斯坦,明尼苏达大学法学教授。
权力博弈:AI 巨头必须“听话”
这次事件揭示了 AI 企业与美国政府之间不对等的权力关系。五角大楼通过封杀 Anthropic 释放了一个明确信号:AI 公司要么按政府的规矩办事,要么就彻底出局。
为了维持业务和政治地位,OpenAI 选择了妥协。尽管公司宣称会部署“安全堆栈”来独立核实红线是否被逾越,但一旦政府与公司产生分歧,法律往往站在权力的一方。通常情况下,政府会先行采取行动,而将法律争议留到事后再处理。