长远来看,大模型让我们变笨

过度依赖大型语言模型(LLMs)会削弱我们的认知能力,因为思考过程中必要的摩擦和挣扎是心智成长的关键,就像身体需要锻炼一样。研究表明,完全依赖AI会损害记忆和批判性思维,产生“认知负债”。因此,我们应将AI作为辅助工具而非替代品,先进行独立思考,再利用AI进行优化,以保护和发展我们自己的认知能力。

思考需要“摩擦力”

将思考任务完全交给大型语言模型虽然轻松,但对我们有害。一定程度的认知负荷是必要的,如果我们过度简化,彻底停止思考,我们实际上会忘记如何思考。

这就像生活中的其他方面:

    • 总是抄作业的孩子最终会对学校的课程一无所知。
    • 从不自己处理账单的人,在伴侣不在时可能连简单的付款都无法完成。
    • 从不记路名或路线的人,一旦手机没电就会迷路。

这背后是“反脆弱”理论中的一个概念:少量的压力或不适会让我们变得更强大。

    • 肌肉通过举重增长。
    • 免疫力通过接触病原体建立。
    • 信心通过承担风险增长。
    • 技能通过重复练习变得娴熟。
    • 创造力通过解决难题得到拓展。

心智的运作方式也是如此。

思考的摩擦,那种努力寻找合适词语的笨拙挣扎——就是精神上的举重

持续依赖大型语言模型,就像忽视破窗理论所警示的:细小的失序(如涂鸦或破窗)会暗示无人管理,最终可能导致更严重的问题。如果我们不断将思考外包,最终会成为只会执行指令的“生物傀儡”。

研究证实了“认知负债”

最近的一项研究为这个观点提供了证据。研究人员将参与者分为三组撰写文章:

    • 纯脑力组: 无任何辅助。
    • 搜索引擎组: 使用谷歌搜索。
    • LLM组: 完全依赖 ChatGPT。

结果非常明显:

    • 在LLM组中,83%的参与者在写完文章后不久,无法引用自己文章中的任何内容,而其他两组几乎所有人都能做到。
    • 从使用LLM转向独立写作的参与者,其神经活动减少,表现出持续的思维不投入状态。
    • 而从纯脑力写作转向使用LLM的参与者,则保留了强大的记忆力,其神经活动模式与搜索引擎组相似。

研究者创造了 “认知负债” (cognitive debt) 这个词来描述这种现象:用AI辅助换来的即时便利,可能以牺牲批判性思维、记忆力和创造力等长期认知能力为代价。你向机器借用了脑力,但需要支付利息——这个成本会在你自身思考能力减弱时显现出来。

如何明智地使用AI

关键在于,不要让AI替你完成思考,而是让它辅助你的思考。

一个好的方法是:不要直接让它解决你的数学题,而是先给出你自己的解法,然后让它解释你可能错在哪里。从独立思考开始,再结合AI,这对认知发展更为健康。这就像核能,你可以用它来制造毁灭性武器,也可以用它作为清洁能源。

持续依赖AI工具可能会损害学习、记忆和创造力。

不适感不仅仅是麻烦,它是一个训练场。我们应该主动寻找、迎接并鼓励这种认知上的不适。