AI 可能不会像你想的那样伤害我们

本文探讨了生成式人工智能(如聊天机器人)是否真的会导致人类认知能力退化。虽然历史上有许多对新技术的类似担忧,且部分专家警示过度依赖可能削弱解决问题的能力和专业技能,但目前缺乏确凿的长期证据支持“数字痴呆”的说法。科学界对此尚无定论,核心建议在于保持对自己认知能力的清醒认识,既不盲目排斥辅助工具,也要坚持独立思考的价值,避免在不知不觉中丧失核心技能。

历史的回声:对新技术的古老恐惧

对技术腐蚀人类心智的担忧并非新鲜事,这种恐惧几乎与文明本身一样古老。

    • 苏格拉底的警告: 早在公元前 360 年,苏格拉底就曾批评“书写”这项技术。他警告说,文字会让学习者的灵魂变得健忘,因为他们不再使用记忆力。
    • 历史的循环: 这种恐慌在印刷机、电视、互联网和社交媒体出现时一再重演。如今,ChatGPT 等生成式人工智能工具再次点燃了这种延续千年的焦虑。

为什么这次 AI 让人格外担忧?

虽然谷歌搜索和导航应用也曾引发对记忆力和空间定位能力下降的担忧,但研究人员认为,生成式 AI 可能带来前所未有的长期风险。原因在于它不仅仅是信息的仓库,它模拟了人类的对话。

这种模拟带来了几个显著的隐患:

    • 错觉与信任: 与聊天机器人的互动感觉像是在与值得信任的人类交谈,这让我们很难去核实其提供的信息。
    • 误导性信息: 聊天机器人经常在一本正经地胡说八道,将错误信息包装在令人信服的人性化互动中。
    • 认知依赖: 这种动态交互可能导致一种不同于静态搜索的深度依赖。

正如荷兰拉德堡德大学的认知科学家 Olivia Guest 所言:“我们要赋予聊天机器人的权力,就像我们要赋予其他人的权力一样。这才是真正可怕的地方。”

潜在的负面影响:技能退化与思维懒惰

短期的小型研究表明,使用聊天机器人可能会导致解决问题的能力下降、助长思维上的“懒惰”并损害学习能力。

    • 专业技能的侵蚀: 如果我们依赖机器人来阅读、写作或编码,我们就失去了练习这些基本功能的机会。
    • 恶性循环: 当我们的专业知识退化后,就更难发现聊天机器人犯下的错误(这些错误对于非专家来说往往难以察觉),从而陷入能力的螺旋式下降。

反方观点:证据薄弱与“认知卸载”

并非所有科学家都持悲观态度。伦敦大学学院的认知神经科学家 Sam Gilbert 指出,目前关于“数字痴呆”(过度依赖技术导致认知衰退)的说法,其支持证据极其薄弱

    • 缺乏长期对照: 要证明 AI 造成长期伤害非常困难,因为很难找到完全不使用技术的对照组,且现在的 AI 普及时间尚短。
    • 旧技术的反例: 一些长达二十年的研究发现,使用数字技术(在聊天机器人之前)的老年人,其认知障碍的风险反而更低
    • 认知卸载(Cognitive Offloading): 使用工具(无论是纸笔还是 AI)来减轻精神负担并不一定有害。这种“卸载”甚至可以为大脑腾出空间来处理其他信息。

大脑扫描中看到的活动变化,可能只是针对特定任务的暂时性策略调整,并不代表大脑受到了永久性损伤。

核心建议:元认知与独立思考

专家建议,与其完全拒绝或盲目依赖,不如培养“元认知”能力——即“思考你是如何思考的”。

在使用 AI 之前,请评估自己的“心理工具箱”:

    • 认清自我能力: 在把任务外包给 AI 之前,先清楚自己不靠工具能做到什么程度。
    • 评估工具价值: 检查 AI 产出的内容是否真的比你自己做的更好。
    • 保持平衡: 不要彻底放弃“卸载”,但也别让记忆力和技能完全荒废。例如,如果你对自己记忆力过度自信而不使用提醒事项,可能会忘记吃药;反之亦然。

坚持“生而为人”的价值

部分学者强烈反对不加批判地采用 AI 技术。他们认为,亲自思考具有内在的价值,即使 AI 的产出看起来“足够好”。

“我们不能都写出专业诗人那样高水平的诗句……但也许这正是生而为人的意义:学习新东西并坚持下去,即使我们最终成不了世界闻名的诗人。”