project
LLM Wiki - Karpathy开源的自运行个人知识库
LLM Wiki是Karpathy推出的自主运行的个人知识库,突破传统RAG'每次查询从零检索'的局限。LLM Wiki通过Schema文件指导LLM主动维护结构化Markdown Wiki,将原始...
LLM Wiki是什么
LLM Wiki是Karpathy推出的自运行的个人知识库,突破传统RAG”每次查询从零检索”的局限。LLM Wiki通过Schema文件指导LLM主动维护结构化Markdown Wiki,将原始资料”编译”为带交叉引用、矛盾标注的持久化知识体。在三层架构(原始资料/Wiki/Schema)支持下,知识随使用持续累积增厚,非重复推导。人类专注提问与策展,LLM承担维护工作,让Obsidian成为IDE、Wiki成为代码库、LLM成为程序员。
LLM Wiki的主要功能
- 知识灌入(Ingest):将原始资料(PDF、文章等)放入
raw/目录,LLM 自动提取关键信息,撰写摘要,联动更新 Wiki 中的实体页、概念页及相关交叉引用(一次资料可能触发 10-15 个页面更新)。 - 智能查询(Query):基于已编译的 Wiki 内容回答问题,输出支持 Markdown、对比表格、Marp 幻灯片、matplotlib 图表等多种格式。
- 健康巡检(Lint):定期自动检查知识库矛盾、过时结论、孤立页面、缺失引用,提出新的研究方向。
- 索引维护:自动维护
index.md(内容目录,替代传统 RAG 的向量检索)和log.md(时间线日志),无需复杂数据库即可支撑中等规模(约 100 篇/40 万字)的知识管理。
如何使用LLM Wiki
- 环境准备:安装 Obsidian 作为阅读器,准备 Claude Code 等 LLM Agent 作为维护者。
- 初始化目录:创建包含
raw/(原始资料)、wiki/(生成内容)和CLAUDE.md(Schema 配置)的文件夹结构。 - 配置 Schema:将 Karpathy Gist 的内容复制给 Agent,让其生成定义 Wiki 结构、页面格式和工作流程的配置文件。
- 灌入资料:将新文件放入
raw/目录并指令 Agent 处理,LLM 会自动提取关键信息并联动更新 Wiki 中的摘要、实体页和交叉引用。 - 查询归档:向 Agent 提问获取基于 Wiki 的综合回答,并指令将优质答案存回 Wiki 成为新页面以实现知识持续累积。
- 健康巡检:定期指令 Agent 检查 Wiki 中的矛盾、过时结论和孤立页面,保持知识库结构清晰和内容一致。
- 浏览使用:在 Obsidian 中打开
wiki/文件夹实时查看最新更新、点击双向链接并使用图谱视图探索知识关联。
LLM Wiki的关键信息和使用要求
- 本质:让 LLM 主动维护持续累积的结构化知识库,而非传统 RAG 的”每次查询从零检索”。
- 架构:三层结构:raw/(原始资料,只读)→ wiki/(LLM 生成的 Markdown)→ Schema(如 CLAUDE.md 规则配置)。
- 核心操作:Ingest(灌入资料自动更新多页)→ Query(基于 Wiki 回答并可归档)→ Lint(定期健康检查矛盾与缺失)。
- 关键机制:知识编译一次、持续保鲜,交叉引用与矛盾标注持久化,越用越厚。
LLM Wiki的核心优势
- 知识复利累积:突破传统 RAG 每次查询”从零检索、用完即弃”的局限,Wiki 是持久化、可累积的产物——新资料自动整合进已有知识网络,交叉引用和矛盾标注持续沉淀。
- 零维护负担:LLM 承担所有繁琐维护工作,自动更新 10-15 个关联页面、标注新旧数据矛盾、维护索引和交叉引用。人类只需专注策展与提问,无需手动整理。
- 中等规模免基建:在 100 篇/40 万字规模内,仅靠 Markdown 索引文件即可高效检索,无需向量数据库、嵌入模型或复杂 RAG 架构,大幅降低技术门槛。
- 动态自增强:优质问答可一键归档回 Wiki 成为新页面,探索过程本身持续丰富知识库,形成”使用即增长”的飞轮效应。
LLM Wiki的项目地址
- GitHub仓库:https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f
LLM Wiki的同类竞品对比
| 对比维度 | LLM Wiki | NotebookLM (RAG 代表) |
Mem (AI 笔记代表) |
|---|---|---|---|
| 知识模式 | 主动编译, 持续累积 |
被动检索, 每次从零拼凑 |
AI 自动整理, 但无显式编译层 |
| 维护主体 | LLM 全职维护 (自动更新多页、 标注矛盾) |
无维护, 每次临时检索 |
AI 黑盒处理, 用户难干预规则 |
| 核心架构 | 三层分离: raw/(只读) wiki/(LLM写) Schema(规则层) |
单层: 原始资料直接作为 检索源 |
双层: 笔记内容 + AI 关联 |
| 索引机制 | Markdown 索引文件 (中等规模免向量库) |
向量嵌入 + 相似度检索 |
私有算法 (黑盒) |
| 可定制性 | 白盒控制: 通过 CLAUDE.md自定义页面格式、 更新规则、工作流 |
固定流程: 无法干预检索 和生成逻辑 |
黑盒限制: 仅能开关功能, 无法定义维护规则 |
| 输出沉淀 | 优质回答可 归档回 Wiki 形成新页面 |
回答消失于 对话历史 |
可保存但 缺乏结构化 归档机制 |
| 技术门槛 | 仅需 Markdown 文件 + Obsidian |
依赖 Google 基础设施 |
依赖第三方 云服务 |
LLM Wiki的应用场景
- 个人成长:追踪目标、健康、心理状态与自我提升历程,整理日记、文章、播客笔记,构建关于自我的结构化认知图谱。
- 学术研究:围绕特定主题进行数周或数月的深度钻研,阅读论文、报告,逐步构建包含演化论点的综合知识体系。
- 阅读伴侣:阅读书籍时逐章整理,建立人物、主题、情节线索的关联页面,最终形成类似 Tolkien Gateway 的完整知识网络。
- 企业/团队知识库:接入 Slack 对话、会议纪要、项目文档、客户沟通记录,由 LLM 自动维护实时更新的内部 Wiki,无需人工额外投入。