前阵子 Karpathy 写了一篇关于 LLM Wiki 的文章,当时看了感觉挺有启发。
不过 AI 领域真实一天一个样子,变化太大了……可能有人没看到就被埋了,我再简单整理一下。
它讲的不是传统 RAG 那种“上传一堆文档,然后每次提问时临时检索几段内容”的方式。
他的核心想法是:让 LLM 帮你持续维护一个结构化的 Wiki 。
简单说就是:
- 原始资料还是原始资料,比如文章、论文、笔记、网页
- LLM 每次读完新资料后,不只是存起来等以后搜索
- 它会把里面的重要信息整理进一个 Wiki
- 如果新资料和旧内容有冲突,它会标记或更新
- 相关概念、人物、项目之间会逐渐形成链接
- 这个 Wiki 会随着你不断加入资料而变得越来越完整
我觉得这个想法有意思的地方在于,它把 LLM 从“临时回答问题的工具”,变成了“帮你长期整理知识的人”。
比如你研究一个领域、读一堆论文、做竞品分析、整理项目资料时,最麻烦的往往不是阅读,而是后续维护:归类、交叉引用、更新旧结论、发现矛盾。人很容易懒得做,但 LLM 很适合做这些重复性的整理工作。
原文主要是在讲这个理念和工作流,不是一个可以直接使用的产品。
所以我基于这个思路做了一个网站:
https://llmwiki.tools/
现在的目标很简单:让大家不用自己搭 Obsidian 、写目录结构、配置 agent prompt ,也能直接体验这种“LLM 帮你维护 Wiki”的工作方式。
使用方法比较简单粗暴:把你的文件( PDF 、docs 、图片、md 啥的都行)一股脑扔进去,然后在你的 AI 工具(比如 Claude )里面通过 mcp 连接到我们网站,跟你的 AI 说:帮我整理成 wiki ,之后就能在网页上看到整理得非常整齐的你的 wiki 知识库了。
可以用来做一些场景:
- 整理某个主题的学习资料
- 阅读论文或长文章后沉淀知识库
- 做竞品/行业研究
- 整理个人笔记、网页收藏
- 把零散资料变成可持续更新的结构化 Wiki
目前网站有免费额度,感兴趣的话可以直接试用。
不是想做成一个很重的知识管理工具,更多是想验证 Karpathy 这套 LLM Wiki 的思路,在浏览器里能不能变成一个普通人也愿意用的产品。
如果你也在折腾 RAG 、个人知识库、LLM 笔记整理这类东西,欢迎试试看,也欢迎提建议。