Synth Daily

我不认为我们离“AI 科学家”已经很近了。

该内容探讨了为何当前的人工智能(AI)距离成为“AI科学家”还很遥远。核心论点在于,尽管 AI 能展现出类似直觉的模式识别能力,但其知识在训练后即被“冻结”,缺乏人类大脑持续学习和积累隐性知识的能力。目前的 AI 智能体通过有限的上下文、文件和外部记忆来工作,就像一个每周更换、只能依赖前任笔记的临时工,无法胜任需要长期积累、深度思考和原创洞察的复杂研究工作。因此,在可预见的未来,真正的深度思考仍需依赖人类。

AI的“直觉”与黑箱

作者通过一个实验引出了讨论:让 ChatGPT 识别一篇自己未曾发表过的文章。在提供了足够多的段落后,ChatGPT 成功认出了作者,但却无法解释其判断的具体依据。

这揭示了一个现象,类似于人类的“直觉”或“第六感”:

  • 人们知道某些事,但很难用语言完全解释清楚。我们常说“话到嘴边”、“凭感觉”或“直觉如此”。
  • 大型语言模型(LLM)同样如此,它们执行认知任务的能力,远超于解释自己如何完成这些任务的能力。

这种能力上的表现,与解释其背后原因的能力之间存在着巨大鸿沟。

人类与AI学习方式的根本差异

尽管都存在难以言说的“知识”,但人类与 AI 在学习机制上有着本质区别。

  • 人类大脑: 处于 持续学习 的状态。我们每天都在建立新的神经连接、识别新模式、形成新直觉,我们的隐性知识库在不断扩张。
  • 大型语言模型: 学习过程仅发生在训练阶段。一旦模型训练完成,其权重就会被“冻结”,学习新模式(例如新作者的写作风格)的能力会大幅减弱。

因此,AI 能够识别作者,仅仅是因为这些作者的作品在其训练数据中占有足够大的比重,而非在互动中学会的。

AI智能体的现状:强大但有限

目前,像 Claude Code 和 OpenClaw 这样的 AI 智能体备受关注,它们确实在编程等领域展现了高效完成任务的能力。行业领袖甚至期望在几年内打造出“自动化 AI 研究员”。

然而,作者对此持怀疑态度。一个基于当前 LLM 架构的“AI科学家”无法像人类科学家那样,从实验中获得丰富的、深层次的学习。它们缺乏一种可靠且可扩展的方式,来从推理过程中接触到的数据中建立新的隐性知识

“记忆碎片”式的工作模式

当下的 AI 智能体工作模式,好比电影《记忆碎片》中的主角,严重依赖外部笔记来维持连贯性。

  • 有限的上下文窗口: LLM 的工作记忆(即“上下文窗口”)容量有限。为了处理长期任务,AI 智能体必须不断将旧信息删除或总结,并将关键信息保存在外部文件中。
  • 像轮换的临时工: 这种模式就像一个办公室每周都更换新的临时工。每个新来的“临时工”(新的 AI 会话)都具备通用知识,但必须通过阅读前任留下的“工作文档”(外部文件)来了解具体任务的进展。

正如风险投资家马克·安德里森(Marc Andreessen)所言:“说到底,你的智能体就是它的文件集合。”

这种模式对于处理交易性、短期性的工作可能有效。但对于需要长期积累背景知识、与客户建立多年关系或进行数月深度研究的工作来说,这种模式完全行不通。仅仅为了“跟上进度”而阅读笔记,就会耗费掉所有时间。

无法传递的隐性知识

AI 的支持者可能会反驳,AI 阅读文档的速度远超人类。一个 AI 智能体可以在短时间内进行数千次“阅读-行动-写入”的循环,从而在复杂问题上取得进展。

但这并未触及核心问题:隐性知识的缺失

人类许多深刻的见解和原创思想,都源于无法轻易言说和记录的隐性知识

  • 它是一种比明确信念更深层的东西,是大量的直觉、模糊的联想和半成品的理论。
  • 一个想法在能够被清晰阐述之前,往往先以“直觉”或“灵感”的形式出现,需要在脑中反复酝酿。

这是创造原创见解的原始材料。而当前的 AI 智能体在不同会话之间交接时,只能传递明确记录在文件中的信息。

那些无法用语言、代码或其他明确形式表达的隐性知识,会在这个交接过程中完全丢失。

因此,只要 AI 无法实现真正的持续学习和积累隐性知识,那些需要深度思考、原创洞察和长期积淀的工作,在未来几年内仍将需要人类来完成。