在 Anthropic 与美国国防部的谈判破裂并遭到政府封杀后,OpenAI 迅速与其达成合作协议。尽管 CEO 萨姆·奥特曼(Sam Altman)承认此次签约过程“确实仓促”且“观感不佳”,但公司坚称通过云端部署、人员监管和法律合同建立了多重红线,禁止技术用于自动武器或大规模监控。此举旨在缓解 AI 行业与国防部之间的紧张关系,但也因可能存在的监控漏洞引发了公众质疑。
合作背景:填补竞争对手留下的空缺
在特朗普政府将 Anthropic 列为“供应链风险”并要求联邦机构停止使用其技术后,OpenAI 迅速填补了这一真空。
- 突发转向: Anthropic 因未能达成协议而面临业务受限。
- 快速跟进: OpenAI 立即宣布达成协议,将其模型部署于机密环境。
- 战略意图: 奥特曼表示,此举是为了缓和政府与技术行业之间的对立情绪。
OpenAI 划定的“技术红线”
为了回应公众对 AI 军事化的担忧,OpenAI 明确了三项禁止使用的领域:
- 大规模国内监控: 不允许利用 AI 收集和监视本国公民信息。
- 自动武器系统: 禁止将模型直接集成到能够自主杀伤的武器中。
- 高风险自动决策: 例如类似于“社会信用”的评价系统。
多层安全防护机制
OpenAI 强调,他们不仅仅依赖合同文字,更通过部署架构来确保安全。
- 云端控制: 模型通过 OpenAI 拥有的云端 API 部署,这意味着模型无法被直接安装在导弹或传感器等硬件上。
- 人工参与: 经过背景审查的 OpenAI 人员将参与流程,保持对安全堆栈的完全控制。
- 法律约束: 合同条款补充了现有的美国法律保护,防止技术被滥用。
争议与风险
尽管有上述保证,这项协议仍面临严厉批评:
“部署架构比合同语言更重要。通过将部署限制在云端 API,我们可以确保模型不会直接集成到武器系统或操作硬件中。” —— OpenAI 国家安全合作伙伴负责人 Katrina Mulligan
- 监控漏洞: 有批评指出,协议中提及的某些行政命令可能允许国家安全局(NSA)在海外截获数据时顺带获取美国人的信息,从而实现变相的国内监控。
- 舆论反弹: 由于此次签约过于仓促,OpenAI 面临巨大的舆论压力,其产品在应用商店的排名甚至一度被竞争对手超越。
核心洞见
奥特曼承认这是一场高风险的赌博。如果此举成功降低了政府对 AI 行业的敌意,OpenAI 将被视为行业的救星;如果失败,公司则会被贴上“急功近利且不顾后果”的标签。目前的重点在于:物理上的技术隔离(云端部署)是否真的能阻挡强大的军事需求。