OpenAI 机器人业务负责人 Caitlin Kalinowski 宣布辞职,以此抗议公司与美国国防部达成的合作协议。尽管她承认人工智能在国家安全中具有重要作用,但认为该协议在预防国内监控和限制致命自主武器方面缺乏必要的司法监督与审议。这次人事变动凸显了 AI 巨头在军事合作与伦理底线之间的激烈冲突。
辞职的核心原因
Kalinowski 此前曾领导 Meta 的增强现实硬件团队,于 2024 年 11 月加入 OpenAI。她明确表示,此次离开是基于治理原则而非个人恩怨:
- 缺乏审议: 她认为 OpenAI 与五角大楼的协议签署过程过于仓促。
- 红线模糊: 在没有定义清晰“护栏”的情况下发布协议,属于治理上的重大失误。
- 伦理担忧: 重点关注技术是否会被用于未经授权的监控或全自动杀伤性武器。
“人工智能在国家安全中扮演着重要角色。但在没有司法监督的情况下监控美国公民,以及在没有人类授权的情况下赋予武器致命自主权,这些红线值得比现在更多的深入讨论。”
OpenAI 的官方立场
针对这一变动及外界质疑,OpenAI 强调其协议并非毫无节制。公司发言人表示,与五角大楼的合作建立在负责任的使用基础之上:
- 明确禁止: 协议条款中明确禁止将技术用于国内监控和制造自主武器。
- 多层防御: 公司声称不仅通过合同语言,还通过技术手段来确保这些底线不被逾越。
- 持续对话: 承诺将继续与员工、政府及社会各界讨论相关的伦理问题。
行业背景:安全与风险的博弈
此次合作协议的背景是 AI 行业在军事领域的高度竞争。
- Anthropic 的前车之鉴: 另一家 AI 巨头 Anthropic 曾因无法在防止大规模监控和自主武器的条款上与军方达成一致,导致谈判破裂。
- 供应链风险: 五角大楼随后将 Anthropic 列为“供应链风险”,这给其他 AI 公司带来了巨大的行政压力。
- OpenAI 的快速介入: 在 Anthropic 退出后,OpenAI 迅速填补空白,允许其技术在机密环境中使用,这一举动被部分内部人士视为对安全底线的妥协。
关键点总结: Kalinowski 的辞职反映了 AI 顶级人才对“治理先于交易”的坚持。在军工需求与技术伦理的拉锯战中,OpenAI 选择通过深度介入国家安全事务来换取市场地位,而这种“先签协议、后谈护栏”的做法正引发内部和行业的深度不安。