OpenAI 与美国军方的关系正从“早期禁止”转向“深度合作”。尽管公司曾明确禁止 AI 用于军事,但五角大楼通过微软的 Azure 服务早已开始测试相关模型。随着 2024 年禁令的正式解除以及与国防承包商 Anduril 签署协议,OpenAI 内部对技术透明度、战场可靠性及法律监控风险产生了严重分歧。CEO Sam Altman 认为 AI 在国家安全中至关重要,并计划将业务进一步扩展至北约。
禁令背后的“后门”
在 OpenAI 官方政策仍然禁止军事用途的 2023 年,美国国防部已经通过其他途径接触到了其核心技术。
- 微软的转售权:作为 OpenAI 的最大投资者,微软通过其 Azure OpenAI 服务向政府提供技术。该服务不受 OpenAI 自身使用政策的约束。
- 政策模糊性:当五角大楼官员出现在 OpenAI 办公室时,许多员工对公司政策的实际执行感到困惑,不清楚禁令是否也适用于合作伙伴。
- 透明度缺失:OpenAI 后来修改了政策,取消了对军事用途的全面禁止,部分员工甚至是通过新闻报道才得知这一变动。
从拒绝到主动合作
OpenAI 现在的姿态已经发生了显著变化,开始积极参与国家安全项目。
- 与 Anduril 合作:双方正在开发处理非机密任务的 AI 系统。
- 拒绝高风险项目:OpenAI 曾拒绝参与 Palantir 的部分项目,理由是风险过高,但双方在其他领域仍有合作。
- 定位转变:公司发言人表示,AI 在国家安全中扮演关键角色,OpenAI 需要在其中占有一席之地,以确保技术被“负责任地”部署。
内部质疑与伦理风险
并非所有员工都认同这一转变,担忧主要集中在技术局限性和社会影响上。
- 可靠性担忧:有员工指出,如果模型连处理信用卡信息都会出错,那么将其用于战场决策是极其危险的。
- 监控漏洞:法律专家警告,目前的协议可能允许军方利用 AI 进行合法的大规模监控,例如分析从第三方购买的公民数据。
- 责任转嫁:Sam Altman 在内部会议上表示,公司无法控制国防部如何使用其软件。
“在这些博弈中,最大的输家是普通平民。由于技术设计和政策带来的多层不透明性,我们了解军事 AI 在战争中实际影响的能力正受到严重阻碍。” —— 前 OpenAI 地缘政治负责人 Sarah Shoker
未来的扩张野心
OpenAI 对军事领域的探索并未止步于美国国内。
- 进军北约:Sam Altman 已表示有兴趣向 NATO(北约) 销售其 AI 模型。
- 国家安全团队:公司已建立专门的渠道,定期向员工通报国家安全工作的进展,试图安抚内部情绪并建立统一战线。
核心洞见:OpenAI 已经完成了从“纯粹的民用研究机构”向“国防技术供应商”的身份蜕变。这种转变虽然被冠以“确保安全部署”的名义,但其实际应用边界和对普通公民的影响仍处于高度不透明的状态。