Synth Daily

OpenAI 机器人负责人离职:AI 军事化边界的伦理博弈

OpenAI 机器人与硬件部门负责人凯特琳·卡林诺夫斯基(Caitlin Kalinowski)宣布离职,理由是担心 AI 在军事应用中缺乏足够的伦理讨论。这一变动发生的背景是,OpenAI 近期与美国五角大楼达成了一项机密合作协议,允许其技术用于国防项目。卡林诺夫斯基明确反对在没有法院监督的情况下利用 AI 进行国内监控,以及在没有人类授权的情况下使用致命的自主武器系统。她认为,尽管 AI 在国家安全中扮演重要角色,但目前的决策过程未能对这些关键红线进行充分审议。与此同时,竞争对手 Anthropic 因坚持更严格的限制条款被五角大楼列入黑名单,这一系列事件凸显了硅谷技术专家与政府军事需求之间深层次的文化与伦理冲突。

要点

  • 1核心分歧: 离职的主因在于 AI 是否应被用于无司法授权的国内监控,以及是否允许无人参与的致命武力决策。
  • 2行业震荡: OpenAI 选择了与五角大楼签署包含特定“护栏”的协议,而竞争对手 Anthropic 因拒绝让步而被视为“供应链风险”。
  • 3资深背景: 卡林诺夫斯基曾是苹果和 Meta 的硬件高管,曾主导研发了被誉为“最先进 AR 眼镜”的 Orion 项目。

视角

凯特琳·卡林诺夫斯基

“这关乎原则而非个人。无司法监督的监控和缺乏人类授权的致命自主权,这些红线值得比现在更多的审议。”

OpenAI 官方

“我们与五角大楼的协议明确了红线:禁止国内监控和自主武器。我们将继续与各方讨论这些复杂的议题。”

五角大楼(埃米尔·迈克尔)

“我们不能过度依赖某个可能因‘护栏’而随时拒绝服务的软件供应商,军队需要技术冗余来确保安全。”

自选主题:AI 实验室的“站队”抉择

在国家安全的巨大需求面前,AI 巨头们正面临前所未有的压力。OpenAI 与 Anthropic 的截然不同遭遇,展示了两种生存策略的碰撞。OpenAI 选择了“合作中建立约束”,通过派遣工程师驻场和设置技术限制来获取信任;而 Anthropic 则因坚守条款而被政府视为威胁。

这种分歧不仅是商业策略的竞争,更是关于“谁拥有 AI 最终控制权”的博弈:是开发者预设的代码逻辑,还是政府的法律意志?

时间线

关键冲突发展史

  • 1

    2024年11月

    卡林诺夫斯基离开 Meta 加入 OpenAI 领导机器人团队。

  • 2

    2026年1月

    美军在委内瑞拉行动后,Anthropic 对其技术用途的质疑引发五角大楼警觉。

  • 3

    2026年3月初

    五角大楼将 Anthropic 列为“供应链风险”;OpenAI 随后接手机密合同。

  • 4

    2026年3月7日

    卡林诺夫斯基通过社交媒体正式宣布因原则问题辞职。

Q&A

Q: OpenAI 接受军事合同的前提是什么?

A: OpenAI 坚持两项底线:禁止用于国内大规模监控,且任何武力的使用必须由人类控制。公司表示通过技术手段和现场监督来确保这些限制被执行。

你知道吗?