Synth Daily

人工智能什么时候会在“受限”这件事上超过我们?

在涉及谈判、合作和信任的场景中,拥有更强的能力并非总是优势。适度的“能力受限”反而能带来好处,因为它让行为变得可预测,从而更容易获得他人的信任与依赖。这一逻辑同样适用于人工智能(AI),一个能力过强、无法被有效约束的 AI,即使在技术上更先进,也可能因其不可预测性而成为一个更差的合作者。

“更有能力”并非总是好事

在很多互动场景中,尤其是在需要建立信任的合作关系里,完全的能力和自由反而是一种负担

一个核心观点是,在谈判中,让对方知道你的“手被绑住了”(即你没有权力做出无限的让步),反而是一种优势。

这个原则不仅限于商业谈判,也适用于日常生活中的各种承诺和协作。

为何“受限”能建立信任

当我们需要信任另一个体时,我们实际上是在寻找其行为的可靠性和可预测性。能力的局限性恰好提供了这种保障。

  • 承诺: 一个能够做出并信守承诺的人,通常是因为他们为自己设置了限制,无论是实际上的障碍还是道德上的约束。一个没有任何束缚、可以轻易违背承诺的个体,其承诺本身就变得毫无价值。

  • 透明度: 人类很大程度上通过面部表情和身体语言来判断他人的内心状态。正是因为我们通常无法完美控制这些信号,它们才成为建立信任的可靠依据。能够完全控制自身外在表现的人,往往会令人感到恐惧和不信任。

  • 一致性: 我们之所以能预测一个人的未来行为,是因为我们观察到他们过去的行为模式具有高度的一致性。一个可以随时彻底改变自己行为模式、仿佛“切换人格”的个体,是无法预测的,因此也难以信任。

  • 风险范围: 与一个能力有限、无法造成巨大破坏的人互动,显然更加安全。例如,你更愿意雇佣一个不会黑客技术的人当会计,因为你确信他没有能力窃取你的账户。相比之下,一个能力极强的 AI 如果无法被充分信任,反而会带来更大的风险。

对人工智能的启示

通常我们认为 AI 的发展路径是不断超越人类,直到在所有任务上都优于我们。但上述逻辑让这个图景变得更加复杂。

在需要与人类或其他智能体互动的世界里,一个 AI 的某些“超能力”可能反而成为它的负累。

对于 AI 来说,以下这些能力虽然强大,但可能会使其在协作中处于不利地位:

  • 完美说谎,使其外在表现与内部动机完全脱钩。
  • 在完全不同的“人格”之间无缝切换。
  • 拥有强大的、不受约束的黑客技能

因此,AI 的发展轨迹不应仅仅是追求在所有任务上超越人类。在许多场景下,一个能力稍弱但更可信、更可预测、更安全的 AI,可能会比一个无所不能但难以捉摸的 AI 更受欢迎,也更有价值。