Synth Daily

道德设计范式

本文将伦理学类比为软件开发中的“设计模式”,主张通过运用精心打磨的“伦理设计模式”,人类可以构建更有效、更可预测的社会结构。文章通过“勿酒驾”等成功案例和历史及当代的失败教训,阐释了伦理规则的作用。其核心论点聚焦于人工智能(AI)安全领域,指出当前存在多重伦理目标的冲突,例如“防止人类灭绝”与“反对集权控制”之间的矛盾。最终,文章呼吁构建“桥接伦理启发式”来协调这些冲突,从而促进理性的公共对话和有效行动,避免社会分裂与政策反弹。

伦理学如同软件设计模式

大型软件应用如果代码杂乱无章,将难以维护和扩展。但通过使用设计模式,这项任务变得相对可行。同样,试图通过直接的后果主义来对大规模人类社会产生可预测的积极影响,几乎是不可能的。然而,通过使用伦理启发式——我称之为“伦理设计模式”——我们可以创造出更易于推理和导航的社会环境。

  • 许多这样的模式源于悠久的传统,如“说真话”、“待人友善”。
  • 有时,人们也会针对新情况成功地创造出新的伦理设计模式,例如“勿酒驾”

我们如何构建直觉

人类主要依靠直觉来导航世界。这并非因为我们的直觉天生与世界吻合,而是因为我们不断地调整和设计。

  • 修正直觉以匹配世界: 我们通过观察数据和刻意练习来修正错误的直觉。伟大的物理学家和优秀的教师都会引导人们有意识地建立更准确的物理或数学直觉。
  • 设计世界以适应直觉: 我们也会主动设计我们所处的环境,使其更符合直觉。例如,在数学中,我们选择那些能让规律更“自然”的定义和术语,比如将1排除在素数之外,是为了保证“唯一素数分解”的优雅。在软件开发中,无数的设计选择旨在让复杂的系统能够被人的头脑所理解和修改。

伦理学如何帮助我们构建可预测的社会

在个人生活中,我们都使用“说真话”、“不酒驾”等伦理规则。同样,大型组织也依赖“公平晋升”等伦理设计模式来维持运转。这些规则帮助我们创造一个可预测、不易“事与愿违”的环境。

在人类互动中,许多行为的结果难以预测,甚至可能适得其反:

  • 政治暗杀。
  • 试图强迫或操纵家人或公众。
  • 通过价格管制来降低物价。
  • 旨在降低AI风险的努力有时也会产生反效果。

然而,在某些领域,人们的行为结果却非常可预测:

  • 使用自己的财产(我买茶叶,就能喝到茶)。
  • 在非政治化领域分享事实信息。
  • 与朋友进行互惠互利的活动。
  • 在法治健全的环境中创办和扩展业务。

这些可预测领域的出现,并非偶然,而是有意进行伦理设计的结果。例如,“财产权”这一设计模式(通过“不偷窃”等规则实现)确保了我买茶的计划不会与他人的计划发生冲突。

我们使用“伦理设计模式”来创建能够忠于其初衷的机构。

以建立一个能长期有效运作的邮政服务为例,你需要采用一系列标准的设计模式:

  • 选择一个清晰、有价值的目标: “廉价可靠地递送邮件”。
  • 建立公平的激励机制: 将薪酬和晋升与高质量的工作挂钩。
  • 鼓励诚实和精确追踪: 通过文化倡导、易于测量的指标和吹哨人政策。
  • 营造尊重的内部文化: 善待员工,使他们更关心组织的成功。

通过这些设计,个人员工的目标与组织的目标得以对齐,组织本身也能更稳健地抵御少数不良行为者的破坏。没有这些设计,组织很可能退化为内部政治斗争的场所。

伦理:一种用于校准“次级优化器”的模式语言

从更广的视角看,伦理启发式可以被视为一种模式语言。它的作用是引导个人内心以及人际政治中出现的各种“次级优化器”(mesaoptimizers),使其能量导向于同时有益于个体和集体(如家庭、公司、国家)长远利益的方向。

成功与失败的案例

成功的伦理启发式

  • “勿酒驾”: “反酒驾母亲协会”(MADD)成功地创造了一系列深入人心的启发式,如“酒后驾驶者”这一负面标签,以及“朋友不会让朋友酒后开车”的社会责任感。同时,“指定代驾”这一概念作为桥接方案,解决了“不酒驾”与“我们怎么回家”之间的实际冲突。
  • “赚取捐赠”: 这个短语为那些从事高薪工作(如金融)并希望回馈社会的人提供了一个清晰、正当的道德框架,使他们能够全身心地投入工作。
  • YIMBY(“在我家后院建”)运动: 这是一个仍在发展中的例子。它通过唤起人们对年轻人住房困境的同情,以及对“多建房、降房价”的理解,正在悄悄地改变公众的直觉。

伦理启发式的缺失

  • 历史案例:维也纳的“产褥热” 在19世纪40年代的维也纳,医生伊格纳兹·塞麦尔维斯用充分的数据证明,医生洗手可以大幅降低产妇死亡率。然而,这一观点在当时的社会难以被理性接纳。

    • 尽管证据确凿,塞麦尔维斯最终被解雇,并被视为疯子。
    • 社会无法消化“备受尊敬的维也纳医生因不洁而导致病人死亡”这一信息。这不仅是科学知识的缺失,更是社会和伦理框架的缺失。人们因为不知道如何同时处理“尊重医生”和“医生可能在杀人”这两个相互冲突的观念,而选择逃避和否认。
  • 当代案例:关于群体差异的公共讨论 今天,我们在讨论群体差异时也面临类似的困境。我们缺乏一个有效的“桥接伦理启发式”来调和两个同样有价值的伦理规则。

    • 启发式 A: 避免可能煽动种族主义的言论。
    • 启发式 B: 允许对所有重要议题进行自由探究和对话,揭示“房间里的大象”。

    由于缺乏桥梁,这个话题极易引发社会撕裂,导致人们无法坦诚对话。任何一方都感觉自己的核心价值观受到了威胁。

AI发展中的伦理挑战

在AI安全领域,我们同样面临伦理启发式缺失的困境。一个理想的伦理框架应能让我们:

  • 接收所有明显的信息,无需刻意回避。
  • 关心所有值得关心的事情,没有“缺失的情感”。
  • 建立一个个人激励与长期公共利益相符的环境。
  • 采取行动时,能避免大规模的意外反弹。

当前的进展

一些新的伦理启发式已经出现并起到了积极作用:

  • “许多顶尖研究者认为AI导致人类灭绝的概率达到两位数”: 这是一个无可争议的事实,为政策讨论提供了共同基础。
  • Katja Grace 关于“放慢AI发展”的讨论: 她的文章成功地为“一个可能毁灭我们的东西,我们或许不该那么快去建造它”这一观点建立了伦理桥梁,使其进入了公共讨论的视野。
  • “安全清洗”(Safetywashing): 借用“环保清洗”的概念,警惕那些只做表面功夫的AI安全承诺。

亟待弥合的鸿沟

我们面临一个核心的伦理冲突。一方面,我们有一个看似显而易见的启发式:

  • 启发式 C: “如果某样东西有超过10%的概率杀死所有人,我们或许不应该让公司去建造它。”

然而,许多人(包括一些值得尊重的人)在全心全意支持这条规则时感到犹豫。因为他们担心,这条规则的社会动能一旦过大,会碾压其他同样重要的价值观,特别是:

  • 启发式 D: “不要寻求对技术的集中/政府控制,以免助长极权主义。”
  • 启发式 E: “要站在进步的一边,支持经济活动和人们获取新知识、新能力。”
  • 启发式 H: “不要试图控制整个宇宙,而应寻求合作与共赢。”

如果我们无视这些冲突,强行推进启发式 C,将会付出高昂的代价

  • 增加极权主义的风险: 如果AI安全运动不能妥善处理对集权的担忧,它可能会无意中推动一个更坏的结果。
  • 引发不必要的对立: 那些憎恨极权主义的人会成为AI安全工作的反对者,使达成共识和合作变得更加困难。
  • 削弱我们自身的力量: 我们内心反对极权的部分会与AI安全工作产生冲突,导致我们精力分散、决策失误。
  • 为不良行为者提供掩护: 真正想集权的人可能会利用AI安全的口号来巩固权力,而AI安全倡导者可能错把他们当成盟友。

这些伦理启发式之间的紧张关系并非不可调和。正如我们用“善意的谎言”来调和“诚实”与“善良”一样,我们需要有意识地去构建“桥接伦理启发式”,找到一种能同时关心所有重要价值的叙事和方案。这项工作已经有人在进行,但需要我们投入更多的理论思考和明确的努力,以建立一个能够理性应对AI风险的功能性社会结构。