真正的持续学习不仅仅是信息的累积,而是认知框架和知识体系的根本演进。大语言模型(LLM)目前依赖的是模仿学习,它能精准复制人类在某一时刻的表现(快照),但由于缺乏权重的持续更新,它无法像强化学习算法或人类大脑那样在封闭环境中实现自发性的进化。通过增加上下文窗口或辅助搜索(RAG)只能解决“记不住”的问题,却无法让模型产生“理解并开创前沿领域”的能力。
“真实”持续学习的核心特征
与大语言模型目前展现的能力不同,真正的持续学习(如 AlphaZero 或人类大脑)具备以下特征:
- 知识 vs. 信息: 系统不仅仅是在记录发生了什么,而是在安装全新的思维方式来理解和驾驭世界。
- 无尽的学习潜力: 学习可以从零开始,通过不断的自我迭代达到专家水平,每一层新知识都构建在旧知识之上。
- 自主探索与创新: 即使没有专家示例供模仿,也能自行摸索。就像人类在没有外部指导的情况下独立发明了语言、数学和现代科学。
为什么增加上下文无法替代学习
目前的 AI 讨论往往将“持续学习”误解为“不丢失信息”,并试图通过延长上下文或使用辅助工具来解决。
没有任何草稿本或辅助工具可以替代一个 15 岁少年成长为 35 岁领域专家所需的 20 年权重演化。
- 上下文不是万灵药: 增加上下文长度只能提供临时的信息存取,它无法像权重更新那样改变模型的底层逻辑。
- 层级跨越的鸿沟: 仅仅靠延长上下文,无法让 GPT-2 演变成 GPT-5。
封闭实验室的思想实验
设想将一群拥有天才水平的大模型关在一个虚拟环境中 100 年,切断所有外部新数据输入:
- 人类的表现: 如果是人类天才,100 年后可能会诞生全新的科学、哲学和思维方式。
- LLM 的局限: 由于缺乏权重更新,即便将全新的科学教材放在其上下文中,它们也无法真正理解、批判并在此基础上进行二次创作。
- 结论: 仅靠“在上下文中学习”无法模拟大规模的、跨越时间的知识进化。
模仿学习无法复制“进化的过程”
模仿学习在处理“长期学习”时存在严重的局限性:
- 快照模仿 vs. 过程模仿: LLM 能够很好地模仿“今天的你”或者“学习了一个月后的你”,但它无法模仿你在这一个月中发生转变的那个动态过程。
- 固定权重的束缚: 模型的权重在训练结束后就固定了。要让一个固定权重的模型仅靠激活状态(Activation)来模拟另一个复杂的、正在进行数百万步权重更新的算法,这在现实中是无法实现的。
- 无法应对新环境: 如果将一个只学会“模仿”的模型放入一个从未见过的全新环境,它无法像真正的强化学习代理那样,通过反复试错和自我迭代最终成为专家。
核心洞见: 想要实现真正的持续学习,唯一的途径是让算法在实践中真实地改变其内部权重。仅仅通过模仿已有的结果,永远无法学会如何去创造尚未存在的东西。