Synth Daily

Anthropic 与五角大楼之间的“杀手机器人”争议内幕

美国国防部与 AI 领军企业 Anthropic 的合作谈判宣告破裂。争议的核心在于伦理红线:军方要求取消对大规模国内监控和自主武器(“杀人机器人”)的限制,而 Anthropic 认为当前的 AI 技术尚不足以安全地应用于致命决策,并拒绝参与对美国公民数据的深度分析。此次谈判失败导致五角大楼禁止其承包商使用 Anthropic 的技术,而 OpenAI 则通过接受类似的“云端部署”条款与军方达成协议,引发了行业内的伦理争议。

谈判破裂的导火索:隐私与监控

双方原本在合同修改上接近达成一致,但最后的底线冲突让谈判彻底崩盘:

  • 文字游戏: 五角大楼试图在协议中加入“视情况而定”等模糊字眼,为其未来使用 AI 进行大规模监控或部署自主杀人机器预留漏洞。
  • 公民隐私: 军方坚持使用 Anthropic 的 AI 来分析美国公民的批量数据
  • 涉及范围: 这些数据包括但不限于:
    • 搜索历史和聊天记录。
    • GPS 追踪的行动轨迹。
    • 信用卡交易记录。
  • 后果: Anthropic 认为这超出了伦理底线,拒绝妥协。作为报复,五角大楼下令所有承包商(包括为其提供算力支持的 Amazon)停止与 Anthropic 合作。

“杀人机器人”:安全还是不可控?

Anthropic 并非完全反对自主武器,但对现阶段的技术成熟度表示极度担忧。

就像自动驾驶汽车在某些情况下比人类驾驶更安全一样,杀人无人机未来可能比人类操作员更精确,减少平民伤亡。但目前,AI 还没达到那个水平。

核心风险点:

  • 误伤风险: 模型可能导致机器进行无差别攻击,危及平民甚至美军自身。
  • 不可靠性: 在尚未达到安全阈值时,直接将 AI 接入武器系统极其危险。

云端 vs. 战场:一个虚假的界限

为了促成交易,军方曾建议将 AI 仅保留在“云端”,而不直接安装在无人机等硬件(边缘设备)上。然而,Anthropic 识破了这种架构上的伪装:

  • 界限模糊: 在现代军事架构中,云端与战场边缘并非完全隔离。无人机群通过网络与云端实时连接,云端的计算实际上就在引导战场决策
  • 伦理责任: 如果 AI 在云端做出了致命的错误指令,即使它没在无人机内运行,其伦理责任也是无法逃避的。

行业的裂痕:Anthropic 的退出与 OpenAI 的加入

在 Anthropic 因坚持原则而被封杀的同时,竞争对手 OpenAI 选择了另一条路。

  • OpenAI 的选择: 尽管 CEO 萨姆·奥特曼曾公开表示反对将模型用于自主武器,但 OpenAI 随后便宣布与五角大楼达成新协议。
  • 妥协方案: OpenAI 接受了“仅在云端部署”的条款——这恰恰是 Anthropic 认为无法解决实质问题而拒绝的方案。
  • 内部反弹: 近百名 OpenAI 员工签署联署信,支持与 Anthropic 相同的伦理红线,质疑公司为何在监控和自主武器问题上退缩。

总结来看,这不仅是商业合同的失败,更是 AI 行业在面对军工压力时,关于“技术边界”与“人类安全”的一次重大分歧。