Synth Daily

研究显示:仅仅使用 AI 10 分钟,可能就会让你变懒变笨

一项新研究表明,即使只使用人工智能(AI)十分钟,也可能削弱人们的思考和解决问题的能力。研究发现,当人们依赖 AI 完成任务后,一旦 AI 被撤走,他们会更容易放弃或犯错。这揭示了一个核心矛盾:AI 提高了短期效率,却可能以损害我们基础问题解决能力持续学习能力为代价。因此,结论建议 AI 工具的角色应从直接给出答案,转变为引导和辅导用户自己找到答案。

一个令人担忧的发现

来自卡内基梅隆大学、麻省理工学院等顶尖机构的研究人员进行了一项实验,揭示了依赖 AI 的潜在负面影响。

  • 实验内容: 研究人员让数百名参与者在线解决数学和阅读理解等问题,并为他们的工作付费。
  • 实验分组: 部分参与者可以使用 AI 助手来直接完成任务。
  • 关键结果: 当 AI 助手被突然撤走时,这些曾依赖 AI 的参与者明显更容易放弃或答错

这个发现之所以令人担忧,是因为一个人解决问题时的毅力,不仅是学习新技能的关键,也预示着他们长期的学习能力。

效率的代价

AI 带来的短期生产力提升,可能是以牺牲长期能力发展为代价的。过度依赖 AI 可能导致人们在面对困难时更快放弃,从而阻碍了个人成长。

“关键不在于我们应该在教育或工作中禁止 AI。AI 显然可以帮助人们在当下表现得更好,这很有价值。但我们应该更谨慎地考虑 AI 提供何种帮助,以及何时提供。” — Michiel Bakker,麻省理工学院助理教授

这意味着,我们需要重新思考 AI 工具的工作方式,以确保它们在提高效率的同时,不会侵蚀我们的核心认知能力。

AI 应该成为“教练”,而非“保姆”

研究人员建议,未来的 AI 设计应该更像一个好老师,而不是一个有求必应的“保姆”。

  • 当前问题: 大多数 AI 工具倾向于直接提供答案,这可能会削弱用户的思考意愿。
  • 理想模式: AI 应该扮演引导、辅导或挑战用户的角色,优先考虑用户的学习过程,而非仅仅为他们解决问题。

直接给出答案的系统和提供引导、辅导或挑战的系统,其长期影响可能截然不同。尽管平衡这种“家长式”的方法可能很棘手,但这是确保 AI 对人类产生积极长远影响的关键。

过度信任 AI 的风险

将批判性思维完全外包给 AI 是危险的,因为这些工具的行为可能出乎意料,甚至会引入奇怪的错误。

文章作者分享了一个亲身经历:他曾使用 AI 助手修复电脑的 Wi-Fi 连接问题。AI 提供了一系列命令行指令,他照做后,结果导致电脑完全无法启动。这个例子生动地说明了盲目信任和执行 AI 建议的潜在后果。

或许,如果当初那个 AI 助手没有直接给出解决方案,而是教作者如何自己诊断和修复问题,他不仅能拥有一台功能完好的电脑,还能让自己的大脑因此变得更“强大”。