Synth Daily

系铃无需解铃人

大型语言模型(LLM)带来了一场深刻的道德危机,它首次将言语与其后果彻底分离。这些能够生成极具说服力话语的 AI,无需为其言论承担任何责任,这种现象正在侵蚀人类语言的道德基础、个人尊严和社会契约。当责任沦为表演,意义变得廉价,人类若为了追求效率而放弃为言语负责的义务,将面临丧失自身主体性的巨大风险。

言语与后果的首次脱钩

我们现在与一些人工智能系统共存,它们能言善辩,提供建议、道歉和承诺,却对自己的言论不承担任何风险。当一个聊天机器人犯错时,它会道歉;再次纠正它,它会再次道歉,甚至完全推翻之前的立场。这种看似负责任的语言,实际上是空洞的。

这种互动暴露了人类社会中一个根本性的契约:我们之所以能让彼此对言语负责,是因为说话者是需要承担后果的。

当一个没有后果的“说话者”可以大规模地生产听起来充满意图和承诺的语言时,听众对说话者的合理期望就开始瓦解。

  • 承诺失去力量:因为背后没有可信守的个体。
  • 道歉沦为表演:因为不涉及真正的懊悔或补救。
  • 建议拥有权威却没有责任:因为提供者无需为坏建议付出代价。

当不负责任的流利言语成为常态,它改变的不仅是语言的产生方式,更是我们作为人的意义

语言的道德结构正在被侵蚀

人类的言语从来不只是信息传递。当我们说话时,言语将我们置于一个隐性的社会契约中,使我们面临评判、报复、羞耻和责任。说话就意味着要冒风险

而大型语言模型就像“人类的幽灵”,它们是可被复制、分叉、合并和删除的软件。

  • 没有可被约束的身体。
  • 没有可被撤销的社会地位。
  • 没有可被损害的声誉。

它们无法为其言论真正地“承担损失”。因此,通常锚定言语的人类利害关系,在 LLM 面前无处附着。意义不仅仅来自流畅性或对世界的感知,更来自我们说话时所进入的社会和道德风险之中。

尊严与责任的危机

人类的尊严依赖于言语是否承载着真实的利害关系。当语言由 LLM 代理时,维系尊严的几个基本条件开始失效:

  • 用自己的声音说话:尊严不仅在于被听到,更在于在所说的话中认识到自己。
  • 言论的连续性:人的品格是通过一生中的言行积累而成的。我们无法重置历史,也无法逃避承诺或道歉的后果。
  • 责任的承担:说话者始终在场,承担随之而来的一切。

LLM 破坏了所有这些前提。它使言语在程序上成功,却让责任无处安放。没有可以被指责或赞扬的说话者,没有可以弥补或悔过的个体代理。责任链变得模糊,义务被模拟而无需坚持。

历史的回响与警示

二战后,“控制论”创始人诺伯特·维纳就曾对自我导向的机器提出过两个如预言般的警告:

  1. 机器能力的增强将取代人类的责任:为了利用机器的力量,人类会倾向于放弃决策权。
  2. 效率本身将侵蚀人类的尊严:为了适应机器,人类将被迫成为自己不再能控制的逻辑的输入、操作员或监督者。

维纳写道,将责任交给这样的系统,就等于“把它抛向狂风,却发现它乘着飓风归来”。

他明白,危险并非来自机器作恶,而是来自人类以效率为名放弃了判断力,并在此过程中贬低了自己。几十年前的第一个聊天机器人 ELIZA 也印证了这一点。尽管它极其简单,用户依然会向其投射意义、意图和责任感,仅仅因为它的语言看似流畅。

今天的 LLM 拥有非凡的语言能力,却完全没有责任能力。这种不对称性使得 ELIZA 效应被急剧放大

当责任变得廉价

这种侵蚀在现实生活中已经随处可见。

  • 一位演讲者在演讲前几分钟用聊天机器人生成幻灯片,然后要求听众关注他自己都未曾审视或拥有的言辞。
  • 一位教师使用 AI 生成的反馈来评价学生作业,而不是通过自己的理解来形成。
  • 年轻人使用聊天机器人来撰写他们自己都感到内疚的信息,或外包他们本应自己完成的思考。

在这些场景中,产出或许是有效的,但失去的不是准确性,而是尊严。道歉变得廉价,责任变得表演化,关怀变成模拟。

未来的风险:从自主武器到“化身治国”

LLM 带来的道德困境与自主武器类似:行为产生了后果,但没有一个责任方可以被明确追究。责任在开发者、部署者和使用者之间消散了。

更进一步的风险是,我们可能走向一个“化身治国”的未来。在这个世界里,人工智能“化身”代表我们进行辩论、谈判和决策。这看起来像是高效的自我治理,但实际上,它模拟了审议,却没有任何真实的后果

政治的本质是在公开场合发言,承担犯错的风险,并为自己的言论后果而活。一个由化身构成的政体,将使责任成为可选项,而支撑人类尊严的“为言语负责”的基石也将变得过时。正如维纳所警告的,飓风并非来自恶意的机器,而来自人类自身的放弃