Synth Daily

外包大脑

将认知任务外包给大型语言模型(LLM)引发了关于其利弊的讨论。虽然“思考不会枯竭”的观点认为AI能让我们思考更重要的问题,但过度依赖AI可能导致认知能力退化。尤其是在个人沟通、写作表达和积累隐性知识方面,AI的介入会侵蚀人类独特的表达、思考过程和通过重复性任务积累经验的能力。因此,社会需要认真反思AI对生活方式、教育和价值观的影响,在追求效率的同时,找到与人文价值的平衡点。

“认知肿块谬误”的挑战

一种普遍的批评认为,将思考任务外包给AI会导致心智萎缩,即“用进废退”。然而,也有观点挑战这种看法,称之为“认知肿块谬误”。

  • 核心论点: 这种观点认为,世界上不存在“固定数量的思考”。将思考外包给机器并不会让我们变得懒惰或愚蠢。
  • 类比: 这类似于经济学中的“劳动肿块谬误”,即认为社会上的工作总量是固定的。
  • 结论: 思考往往会催生更多需要思考的事情。因此,让机器辅助思考,我们便可以转而去思考其他问题。

然而,问题远比“思考会催生更多思考”要复杂得多。我们需要更深入地探讨“外包思考”带来的关键问题。

何时不应使用生成式语言模型?

在某些活动中,使用LLM的弊大于利。以下是一些不应外包思考的关键场景:

  • 当它能帮你建立未来所需的 复杂隐性知识 时。
  • 当它是一种向他人 表达关怀和存在感 的方式时。
  • 当它本身就是一种 宝贵的体验 时。
  • 当伪造它是一种 欺骗行为 时。
  • 当问题至关重要,而你 无法完全信任 外包对象时。

分歧不在于这个列表本身,而在于究竟有多少日常活动属于这些范畴。

个人沟通与写作

在个人沟通中,我们如何表达自己至关重要,这不仅关乎信息交换,更关乎人与人之间的关系和信任。

  • 伪造的欺骗性: 让机器转化我们的言语,违背了沟通的基本期望。我们选择的词语和句子本身就承载着意义,机器的介入会污染这种互动。
  • 语言即意义: 将意义和表达分开是不可能的。改变措辞就会改变信息。让AI来措辞,会严重削弱我们发展思想的思考过程。
  • 丧失个人声音: 过度依赖AI会让我们失去发现自己独特声音的机会,成为一种拐杖而非助力。目前聊天机器人的设计,使得从拼写检查到由模型代笔的界线异常模糊。
  • 效率的代价: 尽管许多人追求效率,只想完成工作、发送邮件,但当所有人都使用AI时,我们失去的是思想的多样性。为了写得更好,你需要亲自去写;为了思考得更好,你需要亲自去思考。
  • 侵蚀信任: 并非所有文本都一样。“功能性文本”(如代码、食谱)问题不大。但带有个人作者并面向人类读者的文本,依赖于特定的信任。这种信任的侵蚀将是人类的损失。

我唯一的建议是,在你依赖它之前,先确定你是否真的需要这根拐杖。

宝贵的体验

我们不应将本身就很有价值的体验外包出去。大型语言模型公司常宣传用其产品来计划假期、组织派对或给亲友写信。

这触及了 作为人的核心问题。现代生活让我们倾向于将一切都视为“杂务”,并希望尽可能避免做我们不想做的事。这种心态导致我们无法在现实生活中发现机会和满足感。

理论上,自动化可以为更有意义的事情腾出时间,但我们已经到了连计划假期都觉得是件苦差事的地步。我希望AI的出现能帮助我们重新认识到,哪些事情值得我们投入时间和精力。

建立知识

建立知识不仅发生在刻意学习时,也发生在从事重复性工作时。认为有了互联网就不再需要记忆信息是一种误解。

  • 知识与应用的统一: 获取和记忆知识本身就是学习如何使用知识的重要组成部分。我们不能像电脑一样,简单地将“存储单元”与“处理单元”分开。
  • 即兴演奏的启示: 好的爵士乐即兴演奏并非凭空而来。它源于对大量现有曲目日复一日的练习,直到旋律和和弦深入骨髓。这种练习建立了音乐直觉,新的创作便从中涌现。
  • 重复性任务的价值: 我们严重低估了从枯燥任务中获得的知识。在追求效率的压力下,我们转向聊天机器人,正面临失去这些知识的风险。

对“扩展心智”理论的批驳

有人提出“扩展心智”的观点,认为我们的认知并不局限于大脑,也存在于手机等外部设备中。

这种说法是荒谬的。一件事情发生在你大脑里还是电脑上,这中间有天壤之别。人类不仅仅是信息处理器。将自身过程外包给外部设备而不考虑其后果,是一种极端的简化论。

记住朋友的生日并有意识地想起他们,与让聊天机器人自动发送祝福,这两种行为的意义完全不同。前者巩固了你们的关系,后者则没有。将丢失手机与切除部分大脑相提并论,更是脱离现实。

我们思考什么很重要

关于“认知肿块谬误”,我们确实不必担心思考会被“耗尽”。但这里存在另一个谬误:“我们思考什么并不重要,只要我们在思考就行”。

将枯燥的任务外包出去,自己处理更复杂的事情,这听起来很有吸引力。但我们必须认识到,某些心智任务,即使机器能做,也需要我们亲力亲为。

例如,将所有项目管理杂务外包给AI,虽然能让我有更多时间做研究,但也会剥夺我感受项目所有权、为高层决策建立基础的机会。在自动化一个流程时,我们总会失去一些东西。

结论

我们面临的巨大挑战是,弄清楚聊天机器人的长期适用范围。这项新技术正迫使我们直面关于 人性价值观 的问题。

  • 个人沟通的方式可能永远改变。
  • 教育系统需要彻底改革。
  • 我们需要更仔细地思考生活中哪些体验是真正重要的。

我们如何选择使用聊天机器人,不仅关乎效率和认知后果,更关乎我们希望建立一个怎样的生活和社会。我们有充分的理由保护某些人类活动,使其免受机器自动化的侵蚀。这基于我们的价值观,而不仅仅是工作效率或认知能力的研究结果。