人工智能公司 Anthropic 与美国国防部(五角大楼)之间的矛盾近期急剧升级。冲突的核心在于 Anthropic 拒绝将其 AI 技术用于大规模监控和完全自主武器,导致其被列入供应链风险名单并遭到封杀。这起事件引发了行业内的罕见声援,并暴露了美国在 AI 监管法律上的巨大真空。
冲突的导火索:技术伦理与国家安全的博弈
Anthropic 因拒绝五角大楼提出的合作条款而陷入困境。这些条款可能允许政府将 AI 用于对美国公民的大规模国内监控,或驱动全自动杀伤性武器。
- 政府的报复: 五角大楼将 Anthropic 列为“供应链风险”,实际上禁止了所有政府承包商使用其产品。
- 法律反击: Anthropic 提起诉讼,指控政府的行为违宪且带有意识形态偏见。
- 管理层的强硬态度: 面对 Anthropic 的坚持,五角大楼官员指责其 CEO 达里奥·阿莫代(Dario Amodei)具有“上帝情结”,并称其行为危及国家安全。
罕见的行业结盟:对“全景监视”的恐惧
尽管处于竞争关系,OpenAI 和 Google DeepMind 的数十名员工(包括 Google 首席科学家 Jeff Dean)仍签署了法律文书支持 Anthropic。他们担心 AI 会打破数据孤岛,造成不可逆的监控后果。
AI 系统如果用于大规模监控,可以将人脸识别、位置记录、交易信息和社会关系网关联起来,同时对数亿人进行监控。
目前,OpenAI、Meta 和 Google 都已经撤销了此前对 AI 军事用途的限制,而 Anthropic 的坚持使其在行业中显得孤立且激进。
监管真空:没有规则的权力游戏
这场纠纷暴露了一个严峻的事实:美国目前缺乏任何针对生成式 AI 或在线数据收集的法律框架。
- 缺乏外部约束: 现有的自动武器政策模糊不清,且并非正式法律,极易受到行政干预。
- 透明度缺失: 特朗普政府倾向于对 AI 实施全面控制,而非通过社会共识制定法律。他曾公开表示“像解雇狗一样”解雇了 Anthropic,显示出对理性讨论的排斥。
- 责任转嫁: 当被问及行业发展是否过快时,企业往往将责任推给“世界”,而政府则试图在没有问责机制的情况下掌握控制权。
核心挑战与现状
AI 技术的发展已经远远超出了现有法律的覆盖范围。这不仅体现在军事领域,还涉及以下现实威胁:
- 版权与教育: 传统学习方式过时,版权法在 AI 训练面前失效。
- 就业与能源: 自动化可能导致数百万人失业,而 AI 数据中心正在透支全球电力和气候目标。
- 权力失衡: 我们正面临双重危机——既要防止公司比政府更强大,也要防止政府拥有不可撼动的、不受监督的 AI 权力。
目前,公众只能寄希望于政府高层和科技巨头的“自觉”。美国正奔向一个没有人为 AI 后果承担责任的未来,而所有普通人都将承受其代价。