美国国防部近期将 AI 初创公司 Anthropic 列入“供应链风险名单”,原因在于该公司拒绝让其 AI 技术被用于大规模监控或全自动武器。与此同时,OpenAI 迅速填补空白,与军方签署了协议。这一事件引发了广泛争议:人们开始质疑,如果美国政府通过强迫私企合作来构建监控国家,那么这场以“反抗权威”为名的 AI 竞赛是否已经失去了初衷?目前,这已引发了大规模的 QuitGPT 抵制运动以及技术从业者的联合抗议。
五角大楼的“黑名单”与 OpenAI 的选择
在 AI 领域,Anthropic 和 OpenAI 一直是竞争对手。此次冲突的核心在于两家公司对待军事合作的态度:
- Anthropic 的红线: 该公司坚持在其合同中加入禁止条款,明确 AI 不得用于大规模国内监控或全自动致命武器。由于拒绝让步,五角大楼将其列为“风险名单”,这种待遇通常只针对华为等外国敌对企业。
- OpenAI 的入局: 在 Anthropic 被封杀仅几小时后,OpenAI 便与五角大楼达成协议。虽然其 CEO Sam Altman 声称坚持类似的伦理底线,但合同语言的差异决定了结果。
“所有合法目的”:一个危险的法律漏洞
OpenAI 在合同中允许军方将 AI 用于“所有合法目的”。这听起来似乎合情合理,但在专家看来,这是一个巨大的漏洞:
- 法律滞后于技术: 当前的法律并未限制政府从私企购买海量个人数据。在 AI 出现之前,处理这些数据需要耗费巨大的人力;而现在的 AI 可以轻松实现自动化分析和预测性监控。
- 缺乏有效监管: 所谓“合法”并不等同于“安全”或“符合伦理”。在法律真空地带,AI 实际上可以被用来进行技术层面的大规模监视,且依然处于“合法”范畴。
核心矛盾点:如果一项监控行为在技术上实现了大规模压迫,但因为法律尚未更新而显得“合法”,那么它依然违反了最基本的公民权利。
讽刺的“军民融合”:美国正在模仿对手
长期以来,美国科技巨头一直鼓吹“AI 军备竞赛”,称美国必须赢过中国。然而,五角大楼目前的做法——逼迫私企交出创新成果否则就封杀——被指责是在照搬竞争对手的“军民融合”策略。
- 霸凌行为: 这种对美国本土企业的行政打压,动摇了商业与国防领域长期以来的信任基础。
- 逻辑荒谬: 如果美国政府为了“战胜权威主义”而把自己变成了一个监控国家,那么这场竞赛的胜利还有什么意义?
抵制浪潮:从 QuitGPT 到行业联名
公众和技术人员对 OpenAI 的妥协表现出了强烈的反弹:
- QuitGPT 运动: 一场大规模的消费者抵制运动已经发起,超过 150 万人参与。许多用户转而使用 Anthropic 的 Claude,使其下载量激增。
- 员工内部起义: 来自 OpenAI 和 Google 的数百名员工签署了名为《我们不会被分裂》的公开信,要求领导层站稳脚跟,共同拒绝为大规模监控和全自动武器提供技术支持。
总结而言,当前的 AI 发展正处于一个危险的十字路口:技术进步是否必须以牺牲公民自由为代价?如果缺乏明确的国际条约和联邦法律约束,仅仅依靠企业的“自觉”或“工程师的良知”,显然无法挡住权力的扩张。