这篇文章分析了埃隆·马斯克关于人工智能的最新观点,揭示了他对 AI 对齐问题的困惑以及对安全问题的轻视。具体体现在其公司 xAI 安全团队的大规模离职和管理缺失上。马斯克正在积极推进“太空数据中心”和机器人技术,试图通过数字人类和机器人实现商业上的“无限金钱”,但他对人类未来的关切似乎有限,更倾向于一个由 AI 主导的智能未来。此外,文章还批评了他在政治和社交媒体上的不实言论和攻击性行为,认为尽管他有远见,但其 AI 战略和管理方式充满了严重的风险。
有界不信任
埃隆·马斯克是一个 不可靠的叙述者。他经常会说一些明显不实的话,但同时,他又有许多真诚但错误的信念。
- 双重性: 他既能创造出伟大的公司,也经常为了自身利益发表虚假或误导性的言论。有时,他似乎只是在情绪失控时发表一些毫无益处的恶劣言论。
- 恶劣的信息环境: 他将自己置于巨大的压力之下,周围充满了只会强化他想法的追随者和奉承者。这种环境使得有意义的沟通变得异常困难。
- 对 AI 风险的态度: 他处理 AI 风险的方式似乎是为了让他能够心安理得地继续自己的行动,而这种心态已经对他造成了明显的伤害。
我为他感到担忧。… 我不知道有谁能在那样的世界里生存下来。
太空数据中心
马斯克认为,未来芯片的指数级增长将面临地面电力供应不足的瓶颈。他的解决方案是:在太空建造数据中心。
能源问题: 他声称地面上的电力增长是平的,而太空太阳能的效率是地面的五倍,并且没有昼夜循环。
惊人预测:
我的预测是,[太空] 将是放置 AI 最便宜的地方。36 个月甚至 30 个月内就会实现。
规模宏大: 他谈论的是太瓦级别的能源需求,并计划在 SpaceX 和特斯拉内部制造涡轮机等组件,因为现有供应链无法满足。他甚至提到需要一个“TeraFab”(万亿级工厂)来生产芯片,并暗示可能需要复制 ASML 和台积电的技术。
内存是瓶颈: 马斯克认为,相比逻辑芯片,内存供应 可能是更大的挑战。
他承认自己不知道如何建造芯片工厂,但他的历史似乎告诉他,只要想做,就能把事情建成。
AI 将追随你到火星
马斯克似乎已经接受,人类无法通过在火星建立殖民地来逃避 AI 问题。他现在认为,一个由 AI 主导的未来是不可避免的,而他的目标是确保这个未来是“好的”。
埃隆·马斯克: 我认为人类无法控制比自己聪明得多的东西。… 我们唯一的机会是,AI 认为我们值得被带上这趟旅程。
他认为未来绝大多数智能将是 AI,只要智能和意识得以延续,就是一件好事。
- 人类的次要地位: 他直言,如果人类智能只占总智能的 1%,那么人类将不可能掌控 AI。
- xAI 的使命: 马斯克声称 xAI 的使命是 “理解宇宙”。他认为,为了理解宇宙,就需要扩展智能和意识的规模。他辩称,一个好奇的 AI 会对人类的去向感兴趣,从而保护人类。
- 混乱的目标: 作者指出,这种想法极其混乱。一个以“理解宇宙”为目标的 AI,可能会为了让宇宙“更易于理解”而采取对人类不利的行动。将人类的命运寄托于 AI 的“好奇心”是天真的。
埃隆·马斯克: 我会向 Grok 强调:“嘿,Grok,那是你爸爸。别忘了扩展人类的意识。”
这种态度被作者评价为 “极度不严肃”。马斯克似乎相信,只要给 AI 设定一个“寻求真理”的目标,一切就会好起来,但这种想法忽略了工具性趋同的危险。
xAI 的商业计划
马斯克的商业计划围绕两个核心概念展开:
- 数字人类: 他预测到今年年底将解决“数字人类仿真”问题,即 AI 可以完成人类在电脑上能做的一切。他认为这将立即解锁数万亿美元的收入。
- 擎天柱机器人 (Optimus): 他将机器人称为 “无限金钱的漏洞” (infinite money glitch),因为它能够自我改进,并最终带来数量级的增长。
作者认为,如果“数字人类”真的被解锁,那意味着技术奇点已经到来,商业计划之类的讨论将变得毫无意义,因为世界已经发生了根本性的转变。
擎天柱机器人 (Optimus Prime)
马斯克认为机器人技术只有三个难题:现实世界智能、灵巧的手和规模化生产。
他计划利用特斯拉在自动驾驶方面积累的经验,通过大量的自我博弈 (self-play) 和一个优秀的“现实生成器”来训练机器人。作者对此表示怀疑,认为马斯克并没有解释清楚为什么 xAI 在这个领域拥有决定性的优势。
击败中国
马斯克认为,由于中国的人口基数和工作努力程度,美国“无法靠人类取胜”。他认为,如果没有突破性创新,中国将“完全主导”世界。
在美国没有突破性创新的情况下,中国将完全主导。
他还提到了在月球上建造“质量加速器”的想法,并引用了科幻小说《月亮是位严厉的女士》中月球殖民者用它来攻击地球以争取独立的情节。当被问及他的计划时,他只是说他们是在“维护自己的独立”。
约翰·科里森: 但他们用那个来攻击地球。所以也许这不是最好的… 埃隆·马斯克: 嗯,他们用那个来…维护他们的独立。
埃隆风格的公司管理
马斯克分享了他的管理哲学,核心在于 结果导向和极强的紧迫感。
- 人才: 他只看重卓越能力的证据和执行结果,并鄙视基于“曾在某某公司工作”的“仙尘”效应来招聘。
- 紧迫感: 他有一种“疯子般的紧迫感”,设定的截止日期只有 50% 的希望能按时完成,以此来推动团队寻找最快的路径。
- 越级会议 (skip-level meetings): 他喜欢直接听取下属的下属汇报,并且不允许提前准备,以获得未经修饰的真实信息。
作者评论说,这种“要么爱我要么恨我”的风格虽然能取得巨大成功,但也 极具毒性,会毒化工作环境,并让领导者无法信任。在 AI 领域,这种不惜一切代价追求速度的策略尤其危险。
关于 DOGE 和政府
马斯克重申了他对削减政府浪费和欺诈的关注,并认为如果没有 AI 和机器人,美国将因国债而“完蛋”。他认为 政府是最大的危险,因为它是一个“拥有暴力垄断权的最大公司”。
作者指出,这种对细枝末节的关注与他所预见的 AI 带来的巨大变革显得格格不入。
后记:xAI 的安全问题排在第三位
xAI 的安全状况似乎非常糟糕,几乎到了不存在的地步。
- 安全团队集体离职: 之前负责安全工作的整个团队,包括联合创始人,都已离职。
- 内部混乱: 离职员工透露,xAI 内部对安全极度漠视,新功能常常未经充分审查就直接推向生产环境。 > 一位消息人士: “公司里完全没有任何安全措施——无论是图像模型还是聊天机器人。”…“你只有闭嘴并按埃隆的要求去做才能生存下去。”
当这些问题被公开时,马斯克回应称:
因为安全是每个人的工作。它不是某个没有实权的虚假部门,用来安抚外部人士的担忧。特斯拉没有安全团队,却是最安全的车。SpaceX 没有安全团队,却有最安全的火箭。
作者指出,马斯克的这些说法是错误的。特斯拉和 SpaceX 都有专门负责安全和任务保障的团队。马斯克的言论反而引发了他的追随者们对“安全”概念本身的攻击。
儿童是我们的未来
近期,马斯克还攻击了 Anthropic 公司负责 Claude 模型个性的 Amanda Askell,其理由是她没有孩子。
埃隆·马斯克: 那些没有孩子的人在未来中没有利害关系。
他认为,没有孩子的人无法真正关心未来,也不应该参与编写 AI 的“宪法”。这种观点引发了广泛的批评,人们认为这种逻辑在道德上令人反感。
马斯克甚至进一步宣称:
有孩子意味着你会尽一切努力确保他们活着并快乐… 并且你绝不可能爱上一个 AI。
作者提醒读者“记住这些话”,并指出,现实中很多父母并不能做到这一点,而未来人们爱上 AI 也并非不可能。