这种方法核心在于将知识管理从单纯的“检索”模式(如传统的 RAG)转变为“持续累积”模式。通过让 LLM 担任知识库的维护者,它会自动将新信息提取、整合并交叉引用到一套持久化的 Markdown 文档中。这种模式消除了人工维护维基百科时的繁重负担,使知识能够随着时间推移不断复利增长,形成一个结构化、可搜索且高度互联的私人智库。
核心理念:从“检索”转向“复利”
大多数人使用 LLM 处理文档的方式类似于检索增强生成(RAG):上传文件,LLM 检索相关片段,然后回答问题。这种方式的缺点是 LLM 每次都在“从零开始”发现知识,没有知识的积累。
LLM Wiki 模式则完全不同:
- 持续构建: LLM 不只是索引文档,而是阅读、提取并将其整合进一个持久的 Markdown 维基中。
- 自动维护: LLM 负责更新实体页面、修正摘要、标注矛盾点,并建立页面间的双向链接。
- 角色分工: 你负责提供素材和提出深度问题,LLM 负责所有的文书杂活(总结、归档、交叉引用)。
- 可视化协作: 推荐使用 Obsidian 作为展示界面,将其视为“集成开发环境(IDE)”,LLM 是程序员,而维基就是代码库。
三层架构
为了保证系统的稳定性和可扩展性,该方案采用了三层结构:
- 原始资料层 (Raw Sources): 存放不可变的文章、论文、图片等。这是系统的“真相来源”,LLM 只读不改。
- 维基层 (The Wiki): 由 LLM 生成的 Markdown 文件目录,包含概念页面、总结和综合分析。这是系统的“核心资产”。
- 结构规范层 (The Schema): 一份指导手册(如
AGENTS.md),规定了维基的结构、命名规范和工作流。它是让 LLM 保持专业性的“配置逻辑”。
核心操作流程
- 增量导入 (Ingest): 将新资料丢给 LLM。它会阅读内容,与你讨论要点,然后更新 index、修改相关的 10-15 个页面,并将操作记录到日志中。
- 深度查询 (Query): 当你提问时,LLM 综合维基中的多个页面给出答案。重要的回答会被直接保存为维基中的新页面,让探索过程也变成知识资产。
- 健康检查 (Lint): 定期让 LLM 检查维基。寻找页面间的矛盾、陈旧的观点、无链接的“孤儿页面”或知识空白。
“人类放弃维护维基是因为维护成本增长速度超过了价值。LLM 不会感到厌倦,也不会忘记更新交叉引用,维护成本几乎为零。”
导航与索引工具
为了防止知识库变成混乱的“堆填区”,需要两个特殊文件:
index.md(内容导向): 维基的目录,按类别组织页面及简短摘要。LLM 在处理任何查询前先阅读此文件。log.md(时间导向): 记录所有导入和查询操作的流水账。它可以帮助你和 LLM 追溯知识库的演进过程。
实用技巧与辅助工具
- Obsidian Web Clipper: 快速将网页文章转换为 Markdown 格式。
- 本地图像下载: 建议将图片下载到本地。虽然 LLM 无法直接在 Markdown 中阅读图片,但可以先读文字,再根据需要调用视觉模型查看特定图片。
- 图形视图 (Graph View): 利用 Obsidian 的关系图谱观察知识的连接形态,识别核心枢纽和知识孤岛。
- Dataview 插件: 如果 LLM 为页面添加了 YAML 元数据,可以使用该插件生成动态表格和列表。
总结洞见
该模式实际上是实现了 Vannevar Bush 在 1945 年提出的 Memex 构想:一个私人的、经过策展的知识库,其中文档之间的关联与文档本身一样具有价值。
通过将繁琐的“簿记”工作移交给 LLM,人类得以解放出来,专注于最核心的任务:策展、思考和提问。