LLM_知识库_03_LLM_Wiki
提示词 1: 科技概念封面图,一个发光的智能体(代表 AI 管理员)站在中心,四周漂浮着错落有致的半透明立体书页和知识卡片(代表 Markdown 文件),一条条光束在卡片之间穿梭,自动建立连接与索引。表现 AI 全职管理并自动编排个人知识库,冷色系,几何抽象风格,横版 16:9,无文字,无中文,无字母
提示词 2: 科技概念封面图,画面分为底层暗色的文件夹矩阵(原始资料)与上层发光的三维连接网络(成品 Wiki),一道明亮的数据流从底层被提取并编织进上层结构中,上方悬浮着一个抽象的指令星环。表现 AI 根据 Schema 规范自动化处理知识库,极简科技感,横版 16:9,无文字,无中文,无字母
1 Karpathy 是谁
Andrej Karpathy 是 OpenAI 的创始成员之一,前特斯拉的 AI 高级总监。他在 AI 圈很有影响力,经常写通俗易懂的技术博客,也做一些开源项目。
2 LLM Wiki 方案
26年4月,Karpathy 提出了一种构建个人知识库的新范式——LLM Wiki。它的核心是不用每次临时去查资料(传统 RAG 模式),而是让大模型当个“全职管理员”,把你丢给它的所有资料消化掉,整理成一套互相链接、不断更新的 Markdown 文件集合(Wiki)。
这主要是个设计思路和提示词方案,并不是一个装上就能用的现成软件(具体可以看他的 idea file: https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f )。
在这个思路里,AI 负责干脏活累活:总结重点、提取概念、建双向链接、更新索引、查漏补缺。 整个知识库就是你本地的 Markdown 文件和图片,数据不上云,全受你控制。你可以用 Obsidian 或任何编辑器打开它,也可以随时换不同的 AI 模型(比如 Claude 或 GPT)来处理里面的内容。
3 架构逻辑
这套方案有个清晰的三层架构,就像一个 AI 全权运作的“出版系统”:
| 层级 | 角色 | 职责 | 谁控制 |
|---|---|---|---|
| 原始资料层 (Raw Sources) | 素材库 | 存你收集的文章、论文等原始文件。只读不写,保证源头不被改动。 | 你(负责收集) |
| Wiki层 (The Wiki) | 成品区 | AI 生成的 Markdown 文件。里面有摘要、概念解释、实体页面和交叉链接。 | AI(负责编写维护) |
| 模式层 (The Schema) | 出版规范 | 配置文件(比如 AGENTS.md),告诉 AI
按什么结构和工作流来维护这个 Wiki。 |
你(定规矩) |
4 核心工作流
系统靠这四步循环,会“越用越聪明”:
- 摄入 (Ingest):你往
raw/文件夹扔新文章并告诉 AI,它会立刻读取提取要点,然后同时去更新由于这篇新文章而受影响的其他十几个相关页面,并把改动记在日志里。 - 查询 (Query):你直接向 Wiki 提问。AI 先翻它自己写的目录索引
(
index.md) 快速定位相关页面,再给你综合出一份带引用的回答。 - 归档 (File Back):如果你觉得回答很好,可以直接把答案存回 Wiki 里。这样你每次深入思考的过程,也就成了知识库的一部分。
- 自检 (Lint):可以定期让 AI 给整个 Wiki 做体检,自动找出前后矛盾的地方、过时的结论或者没挂上链接的孤岛页面,并尝试修复或提醒你。
4.1 相关工具
QMD 地址:https://github.com/tobi/qmd qmd是一个命令行工具,和之前介绍的 basic-memroy, mempalace 差不多,也用于对本地文档的增删改查。它由TypeScript和Python实现,是Karpathy推荐的构建LLM Wiki的辅助工具,具体操作由 qmd 实现。
