Anthropic 因拒绝将其 AI 技术用于美国政府的大规模监控和自主武器系统,被特朗普政府列入黑名单并切断合作,面临高达 2 亿美元的合同损失。MIT 物理学家 Max Tegmark 指出,这反映了 AI 行业长期抵制监管的后果:由于缺乏明确的法律界限,公司在面对政府压力时毫无保护。Tegmark 强调,超级智能更像是一种国家安全威胁而非资产,所谓的“与中国竞赛”只是游说辞令,行业亟需像医疗行业那样的严格监管,以避免不可控的技术风险。
突发的黑名单事件
近期,由于 Anthropic 创始人 Dario Amodei 明确拒绝将技术用于针对美国公民的大规模监控以及无需人类干预的杀人无人机,美国国防部援引国家安全法,终止了与该公司的所有业务往来。
- 经济损失: 至少 2 亿美元的潜在合同化为乌有。
- 连锁反应: 特朗普要求所有联邦机构立即停止使用 Anthropic 技术,该公司可能被完全排除在政府供应链之外。
- 法律反击: Anthropic 已表示将在法庭上对五角大楼的决定提出挑战。
自食其果:监管真空的代价
Max Tegmark 认为,Anthropic 及其他 AI 巨头正在吞下自己种下的苦果。多年来,这些公司一直游说政府反对强制性监管,声称“自我约束”就足够了。
“现在美国对 AI 系统的监管甚至不如对三明治的监管。如果三明治店的厨房有老鼠,监管员会让你停业;但如果你发布一个可能颠覆政府的超级智能,监管员却无权干涉。”
- 承诺的廉价: 尽管这些公司标榜“安全优先”,但当利益冲突时,Google、OpenAI、xAI 和 Anthropic 都曾先后打破过自己的安全承诺或撤销安全团队。
- 法律护城河的缺失: 如果早先就有法律规定“禁止将 AI 用于杀戮”,公司现在就能以此为法律依据回绝政府的不合理要求,而不是陷入目前的被动局面。
拆解“中美竞赛”的伪命题
AI 公司常以“如果不这样做,中国就会领先”为借口来逃避监管。Tegmark 反驳了这一观点:
- 控制权是核心: 中国政府同样厌恶失控。中国正在限制甚至禁止某些 AI 应用,因为他们意识到失控的 AI 会威胁政权稳定。
- 超级智能是威胁: 这种技术更像是核武器,竞赛的终点不是胜利,而是共同毁灭。
- 国家安全风险: 如果一个数据中心里的“数字天才国家”能够推翻政府,那么它对任何政权来说都是巨大的威胁。
现状与未来的转型
AI 的进步速度远超专家预测。研究显示,GPT-4 和 GPT-5 在通往通用人工智能(AGI)的道路上已经走过了相当长的一段距离。
- 行业的虚伪: 就在 Anthropic 拒绝合同后,OpenAI 虽然口头表示支持 Anthropic 的底线,但随即宣布了自己与五角大楼的交易。
- 必要的转型: 必须停止给 AI 公司“豁免权”。应该模仿药物研发的临床试验模式,在发布强大系统前,必须向独立专家证明其可控性。
提炼核心洞见: AI 行业正处于一个“真面目暴露”的时刻。通过牺牲监管来换取发展速度,最终让这些公司在面对政治权力的强势介入时,失去了法律的盾牌。要实现 AI 的红利,必须从“信任公司”转向“信任法律”。