Synth Daily

威胁正悄然逼近,让你逐渐迷失对自己所做之事的认知。

本文探讨了人工智能(AI)在科研训练中引发的深层危机。通过对比传统学习方式与 AI 辅助方式,文章指出,虽然 AI 能显著提升论文产出效率,但它可能导致研究者跳过必经的“认知苦旅”,从而失去对学科的深刻理解和直觉。如果科研评价体系只关注产出数量而忽视人的成长,科学界将面临一代“懂操作却不懂原理”的研究者。作者强调,科学的真正价值不在于结果本身,而在于培养具备独立思考能力的科学家。

两个学生,两种路径

导师给两个博士生 Alice 和 Bob 布置了类似的科研任务。从外部衡量标准看,一年后他们都交出了合格的论文,但在内部认知层面上,两人已截然不同:

  • Alice 的方式: 坚持用笔在论文页边标注,亲自推导公式,在代码报错中苦苦挣扎。她经历了一年的混乱和重读,在脑中构建了一套永久且独立的知识结构。
  • Bob 的方式: 秘密使用 AI 代理。AI 负责总结论文、解释统计方法、调试代码甚至撰写初稿。Bob 的每周进展看起来与 Alice 无异,但他只是完成了一次产品交付,而非掌握一门手艺。

评价体系的系统性失灵

当前的学术环境正在奖赏“Bob”而惩罚“Alice”。

  • 指标至上: 管理机构和资助部门只看论文数量和影响因子。在量化考核下,Alice 和 Bob 是等效的
  • 动机错位: 机构需要论文来换取经费,学生被视为生产手段。至于学生五年后是成为独立思考者还是“提示词工程师”,对机构来说并不重要。
  • 生存压力: 在“不发表就发臭”的学术圈,学生为了生存,理所当然地会选择能带来短期产出的 AI 工具。

被误解的“杂活”与直觉的缺失

许多人认为,调试代码或处理繁琐的数据是应当被 AI 取代的“杂活”。然而,这种观点忽视了认知的基本规律:

“这些失败的过程本身就是课程表,错误信息就是教学大纲。你感到困惑的每一小时,都是在脑中构建基础设施。”

  • 无法外包的直觉: 资深科学家之所以能识破 AI 的虚假结果,是因为他们曾经历过无数次“手动”计算,建立了敏锐的物理直觉
  • 监督的本质: 如果你没有亲自做过基础工作,你就无法对 AI 进行有效监督。你甚至不知道 AI 在哪里造假,也不知道结果为什么看起来不对。

AI 工具与认知外包的界限

文章并不主张禁止 AI,而是强调使用序列的重要性。

  • 辅助工具: 资深研究者利用 AI 处理琐碎的语法或格式,这是在已有认知基础上的提速
  • 认知外包: 初学者利用 AI 代替思考和决策,这是在剥夺自己的成长机会

“你可以把 AI 当成字典,但不能让它替你构思逻辑。一旦你利用机器绕过思考过程,你省下的不是时间,而是你原本应得的经验。”

真正的威胁:悄然逼近的“不理解”

真正的危险不是 AI 带来的剧烈崩溃,而是一种缓慢、舒适的漂移——我们逐渐变得不再理解自己所做的事情。

  • 能够产出,无法理解: 这一代研究者可能知道按哪个按钮能出结果,却无法向同行从底层解释清楚公式中某个项的物理意义。
  • 科学精神的丧失: 科学最伟大的地方在于“人”的转变——一个困惑的学生如何成长为独立思考者。如果跳过这个痛苦的过程,科学就只剩下了一堆冰冷的机器数据。

结论: AI 带来的效率提升是诱人的,但在科研训练中,“快”往往意味着“肤浅”。如果人类停止在错误和失败中摸索,我们将失去科学中最不可替代的部分:人类的智慧与洞察力。