一场延续两千年的争论,揭开了 AI 最大的致命隐患
这篇内容探讨了人工智能发展中的一个核心哲学困境,即是否应将重大决策权交给超级智能AI。通过援引一个两千年前的犹太教故事,文章指出,真正的挑战并非技术上的“对齐”,而是如何保护人类的选择权和生命意义。部分专家认为,即使AI能够做出“正确”的决定,剥夺人类做出艰难选择的权利也会导致生命失去意义,并可能形成一种“多数人暴政”。最终,文章的结论倾向于,维护人类的自主决策权比创造一个全知全能的AI来替我们做决定更为重要。
一场延续两千年的争论
近两千年前,犹太教法典《塔木德》记载了一场关于拉比埃利泽和拉比约书亚的辩论。这个故事为我们今天看待AI的未来提供了深刻启示。
- 辩论的起因:拉比埃利泽坚信自己对某个法律问题的看法是正确的,但其他圣贤并不同意。
- 神迹的介入:为了证明自己,埃利泽唤来了神迹——他让树木自行移动,溪水倒流,甚至有天上传来的声音宣告他是正确的。
- 人类的坚持:尽管如此,拉比约书亚和多数圣贤依然不为所动。约书亚坚持说:“律法不在天上!” 这意味着,在法律问题上,最终的决定权在于人类,而非神谕。由于多数人反对,埃利泽的观点被驳回。
如今,我们面临着一场本质上相同的辩论,只不过把“神的声音”换成了“AI之神”。
AI“对齐”问题的真正核心
AI行业的目标不仅仅是创造一个有用的聊天机器人,而是构建一个远超人类智慧的“超级智能”。随之而来的便是“对齐问题”——如何确保AI系统的行为符合人类的真实意图和价值观。
然而,将“对齐”仅仅视为一个技术问题,忽略了其背后更深层次的哲学困境。
即使我们能创造一个全知全能、并且在道德上完美对齐的机器,我们真的应该这样做吗?还是说,创造一个“AI之神”本身就是一个坏主意,因为它会压缩人类选择的空间,从而使我们的生活失去意义?
我们能将AI与人类价值观对齐吗?
要让AI变得“善良”极其困难,因为人类自身的道德观就充满复杂性和矛盾。
- 没有统一的道德标准:哲学家们几千年来争论不休,但对于什么是“正确”的道德理论,至今没有共识。
- 价值观随时间变化:我们今天认为的道德准则,在过去或未来可能并非如此。有时,打破规则反而是推动社会进步的正确行为,例如罗莎·帕克斯拒绝让座的事件。
- 价值间的冲突:许多重要的选择涉及无法用同一标准衡量的价值。例如,一个女性既想成为修女又想成为母亲,这两个选项之间没有绝对的“更好”。
当代哲学家Ruth Chang指出,这些“艰难选择”之所以艰难,正是因为不存在一个客观的最佳选项。在这种情况下,人必须通过自己的选择来定义自己。
“我们可能正在创造一个会有系统地保持沉默的AI。但这就是我们想要的。”
— Ruth Chang,当代哲学家
一些研究者认为,一个真正对齐的AI,在面对这类“艰难选择”时,应该学会说“我不知道”,并将决策权交还给人类。
“AI之神”是否可取:两种对立的观点
关于是否应该将重大决策权交给超级智能,专家们的看法截然不同。
支持方:为了生存可以接受
以AI研究者Eliezer Yudkowsky为代表,他认为,一旦技术上解决了对齐问题,我们就应该利用超级智能来帮助人类应对生存危机,例如在太阳毁灭前殖民其他星系。
- 他提出了“连贯的外推意志”(coherent extrapolated volition)的概念,即AI通过读取每个人的大脑状态,来推断“如果我们知道了AI所知道的一切,我们会希望做什么”。
- 他认为,如果大多数人都强烈且一致地支持某个行动,AI就应该执行它,甚至可以在不告知人类的情况下“默默干预”。
- 这种观点的主要风险在于可能导致“多数人暴政”,少数派的合理观点和权利会被彻底压制。
反对方:人类自主权至上
以AI教父Yoshua Bengio为代表,他坚决反对放弃人类的主权和自由意志。
- 情感与价值:他认为,“人类的选择、偏好和价值观不仅仅是理性的结果,也源于我们的情感、同理心和同情心。这是我们的真理,而不是一个外部真理。”
- 意义的丧失:将决策外包给AI,会使我们锻炼判断力和感知价值的能力萎缩。正如意义对齐研究所的Joe Edelman所说:“想象一个为我们解决所有问题的AI,就像是夺走了我们生命的意义。”
“即使我们拥有一个神一样的智能,它也不应该替我们决定我们想要什么。”
— Yoshua Bengio,AI教父
这个观点与宗教学家约翰·希克提出的“认知距离”(epistemic distance)概念不谋而合。这个理论认为,上帝之所以刻意与人类事务保持一定距离,正是为了让我们能够自由发展自己的能动性和道德品格。
故事的结尾,当先知被问及上帝对人类拒绝听从神谕的反应时,他解释说,上帝微笑着说:“我的孩子们战胜了我;我的孩子们战胜了我。” 这或许暗示,人类坚持自己的选择权,本身就是一种值得赞许的胜利。