OpenAI 近期因与美国国防部(DoD)达成合作协议,陷入了前所未有的舆论风暴。此前,竞争对手 Anthropic 因坚持“不用于自主武器”和“不用于大规模监控”的伦理底线,拒绝了军方的强制性要求,随后遭到特朗普政府的制裁和封杀,被列为“供应链风险”。OpenAI CEO Sam Altman 选择接手合约,此举引发了公众和内部员工的强烈反弹。大量用户发起“QuitGPT”运动,转投 Anthropic 阵营,使其应用 Claude 迅速登顶 App Store。尽管 Altman 随后紧急修改协议条款以平息怒火,但这场争议已演变成一场关于 AI 军事化、行政权力扩张及技术社会影响的深层危机。
要点
1伦理红线:Anthropic 拒绝将 AI 用于自主武器和国内大规模监控,导致其被政府“封杀”。
2市场反弹:由于不满 OpenAI 的军事协议,ChatGPT 遭遇大量差评,竞争对手 Claude 下载量暴涨。
3信任危机:Sam Altman 承认协议签署过程“仓促且难看”,正试图通过修订条款进行补救。
4抗议升级:公众对 OpenAI 的不满已从军事合作扩展到气候变化、贫富差距和艺术侵权。
视角
Dario Amodei (Anthropic CEO)
当前的顶级 AI 系统根本不够可靠,无法驱动完全自主的武器,我们不能昧着良心提供可能危害美军和公民的产品。
Missy Cummings (机器人专家)
AI 公司此前过度吹嘘技术能力,现在却说它不能用于军事。LLM 模型容易产生“幻觉”,让它参与军事决策会造成误伤。