Synth Daily

OpenAI 披露与五角大楼协议的更多细节

在 Anthropic 与美国国防部的谈判破裂并遭到政府封杀后,OpenAI 迅速与其达成合作协议。尽管 CEO 萨姆·奥特曼(Sam Altman)承认此次签约过程“确实仓促”且“观感不佳”,但公司坚称通过云端部署、人员监管和法律合同建立了多重红线,禁止技术用于自动武器或大规模监控。此举旨在缓解 AI 行业与国防部之间的紧张关系,但也因可能存在的监控漏洞引发了公众质疑。

合作背景:填补竞争对手留下的空缺

在特朗普政府将 Anthropic 列为“供应链风险”并要求联邦机构停止使用其技术后,OpenAI 迅速填补了这一真空。

  • 突发转向: Anthropic 因未能达成协议而面临业务受限。
  • 快速跟进: OpenAI 立即宣布达成协议,将其模型部署于机密环境。
  • 战略意图: 奥特曼表示,此举是为了缓和政府与技术行业之间的对立情绪

OpenAI 划定的“技术红线”

为了回应公众对 AI 军事化的担忧,OpenAI 明确了三项禁止使用的领域:

  1. 大规模国内监控: 不允许利用 AI 收集和监视本国公民信息。
  2. 自动武器系统: 禁止将模型直接集成到能够自主杀伤的武器中。
  3. 高风险自动决策: 例如类似于“社会信用”的评价系统。

多层安全防护机制

OpenAI 强调,他们不仅仅依赖合同文字,更通过部署架构来确保安全。

  • 云端控制: 模型通过 OpenAI 拥有的云端 API 部署,这意味着模型无法被直接安装在导弹或传感器等硬件上
  • 人工参与: 经过背景审查的 OpenAI 人员将参与流程,保持对安全堆栈的完全控制。
  • 法律约束: 合同条款补充了现有的美国法律保护,防止技术被滥用。

争议与风险

尽管有上述保证,这项协议仍面临严厉批评:

“部署架构比合同语言更重要。通过将部署限制在云端 API,我们可以确保模型不会直接集成到武器系统或操作硬件中。” —— OpenAI 国家安全合作伙伴负责人 Katrina Mulligan

  • 监控漏洞: 有批评指出,协议中提及的某些行政命令可能允许国家安全局(NSA)在海外截获数据时顺带获取美国人的信息,从而实现变相的国内监控
  • 舆论反弹: 由于此次签约过于仓促,OpenAI 面临巨大的舆论压力,其产品在应用商店的排名甚至一度被竞争对手超越。

核心洞见

奥特曼承认这是一场高风险的赌博。如果此举成功降低了政府对 AI 行业的敌意,OpenAI 将被视为行业的救星;如果失败,公司则会被贴上“急功近利且不顾后果”的标签。目前的重点在于:物理上的技术隔离(云端部署)是否真的能阻挡强大的军事需求。