Anthropic 首席执行官达里奥·阿莫迪(Dario Amodei)正面临与原子弹之父奥本海默类似的困境:虽然他描绘了 AI 治愈疾病、延长寿命的乌托邦蓝图,并试图设定安全底线,但现实中与五角大楼的交锋表明,技术开发者正迅速失去对 AI 最终用途的控制权。随着 AI 成为国家战略竞争的核心,其使用准则将由政府和军方的冷战逻辑主导,而非科学家的理想主义。
实验室里的乌托邦与恐惧
阿莫迪对 AI 的愿景既宏大又矛盾,他将 AI 视为一种能够大幅压缩科学进程的工具。
- 天才之国: 他预言到 2035 年,由超智能 AI 组成的“天才国家”将解决癌症等绝症,甚至让人的寿命翻倍。
- 曼哈顿计划的阴影: 与其他乐观的 CEO 不同,阿莫迪随身带着《原子弹秘史》。他认为超人类 AI 的危险性超过核武器,因此必须由“正确的人”以“正确的方式”开发。
“阿莫迪似乎将今天的 AI 研究人员比作曼哈顿计划的科学家……在他看来,超级 AI 可能比核武器更危险。”
无法掌控的“红线”:与军方的正面碰撞
阿莫迪试图为 AI 进入军事领域设定边界,但很快发现自己在国家机器面前缺乏筹码。
- 原则性退却: 在与五角大楼的谈判中,阿莫迪坚持两条底线:禁止用于大规模监视,以及禁止引导无人监管的致命武器。
- 五角大楼的最后通牒: 军方拒绝了这些限制,要求不受限地使用 Anthropic 的模型。当谈判破裂时,五角大楼甚至动用了“供应链风险”这一行政武器向公司施压。
- 对手的入场: 在 Anthropic 坚持原则时,OpenAI 迅速介入并完成了与军方的交易。阿莫迪对此表示愤怒,称之为“安全表演”。
历史的重演:从原子能到 AI
文章通过回顾核时代的历程,揭示了一个残酷的规律:技术的纯粹潜力总是会被现实的混乱所吞噬。
- 科学家的幻觉: 物理学家利奥·西拉德曾梦想核能带来廉价能源和永久和平;爱德华·泰勒甚至想用核弹挖运河。
- 控制权的丧失: 当第一枚原子弹研制成功后,科学家就被排除在了决策圈之外。武器被装上卡车运走,没人再征求开发者的意见。
- 竞争逻辑的胜利: 无论科学家的愿景多么美好,竞争优势的冷逻辑最终击败了所有限制性条约。
核心洞见:开发者并非最终决策者
阿莫迪的遭遇提醒我们,创造强大技术的人通常无法决定它如何被使用。
- 权力的杠杆是前置的: 开发者唯一的筹码是在技术诞生之前选择“做”或“不做”。一旦技术通过测试,控制权就已经移交。
- 国家利益至上: 如果 AI 成为决定性的军事武器,政府绝不会允许私人公司对其施加限制。在极端情况下,国家甚至会直接接管或征用这项技术。
“无论谁能控制这种技术力量,那个人肯定不会是阿莫迪自己。”