OpenAI 已与美国国防部达成协议,允许其 AI 模型进入政府机密网络使用。在竞争对手 Anthropic 因坚持使用限制而面临政府禁令的背景下,OpenAI 通过在合同中明确禁止“大规模国内监控”和要求“人类对武力负责”的条款,成功达成了合作。此举标志着 AI 企业与军方在安全边界问题上达成了初步共识,旨在将行业从法律对抗推向技术协作。
合作背景:禁令下的转机
由于未能就 AI 的使用范围与国防部达成一致,OpenAI 的竞争对手 Anthropic 目前正面临严峻挑战。
- Anthropic 的僵局:因担心 AI 被用于大规模监控和全自动武器,Anthropic 拒绝了政府“允许所有合法用途”的要求。
- 政府的强硬回应:特朗普政府对 Anthropic 实施了供应链风险禁令,禁止任何与军方有业务往来的供应商使用其产品。
- OpenAI 的介入:Sam Altman 宣布已达成协议,并声称其条款恰好解决了此前引发争议的核心安全问题。
核心安全原则:明确“红线”
OpenAI 在协议中明确了两项基本安全原则,作为模型进入机密网络的先决条件:
- 禁止大规模国内监控:防止 AI 被用作侵犯公民隐私的工具。
- 确保人类对武力的控制:针对自主武器系统,强调必须由人类对使用武力的决定负责。
“国防部同意这些原则,并将其反映在法律和政策中,我们已将这些内容写入协议。” —— Sam Altman
技术保障:由企业掌握“安全开关”
与简单的法律承诺不同,OpenAI 强调将通过技术手段确保模型不被滥用。
- 建立“安全栈” (Safety Stack):OpenAI 将构建专门的技术防御层。如果政府要求模型执行违反预设安全准则的任务,模型将有权拒绝执行,且政府承诺不会强迫 OpenAI 更改。
- 工程师现场协作:OpenAI 将派遣工程师与国防部共同工作,实时监督模型的安全性并提供技术支持。
行业呼吁:从对抗转向共识
Sam Altman 呼吁国防部将这些相同的条款提供给所有 AI 公司,以化解当前的行业危机。
- 推动标准化:OpenAI 认为这些条款是所有公司都应接受的底线。
- 降级法律冲突:Altman 表示,希望通过这种“合理协议”的方式,让 AI 行业摆脱与政府之间的法律斗争,转向更实际的技术安全合作。