Synth Daily

OpenAI 陷入“五角大楼之争”:技术、伦理与权力的拉锯战

OpenAI 近期因与美国国防部(DoD)达成合作协议,陷入了前所未有的舆论风暴。此前,竞争对手 Anthropic 因坚持“不用于自主武器”和“不用于大规模监控”的伦理底线,拒绝了军方的强制性要求,随后遭到特朗普政府的制裁和封杀,被列为“供应链风险”。OpenAI CEO Sam Altman 选择接手合约,此举引发了公众和内部员工的强烈反弹。大量用户发起“QuitGPT”运动,转投 Anthropic 阵营,使其应用 Claude 迅速登顶 App Store。尽管 Altman 随后紧急修改协议条款以平息怒火,但这场争议已演变成一场关于 AI 军事化、行政权力扩张及技术社会影响的深层危机。

要点

  • 1伦理红线:Anthropic 拒绝将 AI 用于自主武器和国内大规模监控,导致其被政府“封杀”。
  • 2市场反弹:由于不满 OpenAI 的军事协议,ChatGPT 遭遇大量差评,竞争对手 Claude 下载量暴涨。
  • 3信任危机:Sam Altman 承认协议签署过程“仓促且难看”,正试图通过修订条款进行补救。
  • 4抗议升级:公众对 OpenAI 的不满已从军事合作扩展到气候变化、贫富差距和艺术侵权。

视角

Dario Amodei (Anthropic CEO)

当前的顶级 AI 系统根本不够可靠,无法驱动完全自主的武器,我们不能昧着良心提供可能危害美军和公民的产品。

Missy Cummings (机器人专家)

AI 公司此前过度吹嘘技术能力,现在却说它不能用于军事。LLM 模型容易产生“幻觉”,让它参与军事决策会造成误伤。

Dean Ball (前政府政策制定者)

政府将本国科技公司列为供应链风险是危险的先例,这更像是行政权力的政治报复,而非国家安全考量。

历史背景

长期以来,硅谷与五角大楼的关系一直处于微妙的平衡中。Anthropic 的创始人曾因安全理念分歧离开 OpenAI,如今这种分歧在国家安全领域彻底爆发。政府动用“供应链风险”这一通常针对外国敌对势力的手段来对付本土初创公司,被视为行政权力扩张的标志性事件。

“如果不按我们的条款办事,我们就杀掉你的公司。我无法想象还有比这更糟糕的商业信号。”

技术风险与局限

专家警告称,当前的 AI 技术远未达到可以主导战争的水平。大语言模型存在的“幻觉”问题意味着它会编造信息,在生死攸关的军事环境下,这种不确定性可能导致灾难性的后果。

“你不仅会杀死非战斗人员,还可能杀死自己的士兵。我不确定军方是否真的理解这些技术的局限性。”

“QuitGPT”背后的社会不满

在 OpenAI 总部外的抗议活动中,人们关注的不仅是军事协议。抗议者指责 AI 数据中心消耗了大量的水和电力资源,加剧了气候危机;同时,技术巨头的财富积累与城市住房负担能力之间的矛盾,也让科技公司成了贫富不平等的象征。

时间线

危机演进全记录

  • 1

    2月24日

    五角大楼向 Anthropic 发出最后通牒:必须全面配合。

  • 2

    2月27日

    特朗普宣布政府停用 Anthropic 技术;当晚 OpenAI 宣布接手军方合约。

  • 3

    2月28日

    Claude 跃升至 App Store 下载榜首,大量用户取消 ChatGPT 订阅。

  • 4

    3月2日

    Sam Altman 公开承认沟通失败,宣布修改协议以增加公民自由保护。

  • 5

    3月3日

    OpenAI 旧金山总部爆发抗议,员工内部会议讨论技术滥用风险。

Q&A

Q: 既然已经被封杀,军方现在还在使用 Anthropic 的技术吗?

A: 是的。五角大楼官员承认目前仍在使用 Claude 处理文件和物流,因为完全替换该系统至少需要三个月以上的时间。

你知道吗?