一、 引言:为什么我们不再需要"收藏夹"?
作为一名全栈开发者,我每天都在与海量信息打交道:从 WebGPU 的最新提案到 CPA 财管的复杂公式,从 Rust 的内存模型到量化交易的对冲策略。
以往,我们的知识管理流程是:发现好文 -> 丢进收藏夹/语雀/Notion -> 积灰。
这种"囤积式"学习的最大痛点在于:
- 搜索效率低:关键词匹配搜不到深层逻辑。
- 缺乏关联:金融知识和技术实现被物理隔离,无法形成跨学科直觉。
- 维护成本高:手动整理笔记的时间远超阅读时间。
直到我发现了 LLM Wiki 。它不仅仅是一个笔记软件,它是一个基于 LLM 的知识加工厂。它能将非结构化的原始文件(PDF/MD),通过自定义的 Schema,自动化转化为具有双链结构的结构化 Wiki。
二、 方案选型:为什么是 LLM Wiki?
在对比了 Logseq、Obsidain(纯手动)以及各类 RAG 插件后,LLM Wiki 的几个特性击中了我:
- 本地优先 (Local First) :所有
raw资料和生成的wiki都在本地,隐私安全,且能用 VS Code/Obsidian 直接编辑。 - 双步思维链 (Two-Step CoT) :先"分析"再"生成",保证了知识抽取的深度,而非简单的内容摘要。
- Schema 驱动:你可以像定义数据库表结构一样,定义你的知识提取逻辑。
- 深度研究 (Deep Research) :它能自动发现你知识库里的"断层",并主动建议你进行 AI 深度扩充。
三、 环境搭建:从源码到运行
1. 项目准备
LLM Wiki 采用 Tauri + Rust + React 构建,性能极其轻量。
- 项目地址 :nashsu/llm_wiki
- 前置要求:Node.js 20+、Rust 环境(如果选择源码编译)。
2. 安装步骤
建议直接下载 Release 版本的安装包,或者开发者模式:
Bash
bash
git clone https://github.com/nashsu/llm_wiki.git
cd llm_wiki
npm install
npm run tauri dev
3. 配置 LLM 引擎
进入 Settings,我个人推荐使用 OpenRouter。
- API Key: 配置你的 OpenRouter Key。
- Model : 推荐
anthropic/claude-3-5-sonnet。Claude 在结构化提取和逻辑关联上的表现目前优于 GPT-4o。 - Context Window: 建议设置在 128k 以上,保证 AI 能同时参考多个 Wiki 页面进行交叉链接。
四、 实战配置:定义你的知识"模具"
这是最核心的一步。LLM Wiki 需要一个 schema.md 来指导它如何干活。
1. 规范目录结构
在你的项目根目录下,必须手动建立以下结构:
/raw/sources/:放入你的原始资料(如:期权对冲策略.pdf)。/wiki/:这是 AI 产出成品的地方。schema.md:核心配置文件。
2. 编写 Schema.md
这是我目前使用的 Schema 模板,专门适配"金融+技术"双修场景:
Markdown
markdown
# Knowledge Schema
## Categories
- **Finance**: 涵盖期权交易、对冲策略、CPA 财管考点。
- **Technology**: 涵盖前端技术 (WebGPU/Vite)、Python 实现、AI 编程。
- **Concepts**: 跨学科的核心理论与术语定义。
## Extraction Rules
1. 提取文档中的核心实体。
2. 识别并建立实体间的逻辑联系,使用 [[双括号]] 建立链接。
3. 如果发现文档内容与现有 Wiki 存在冲突或补充,请在笔记中注明。
## Output Template
- **Summary**: 核心观点。
- **Context**: 应用场景。
- **Technical/Formula**: 公式或代码片段。
- **Audit**: 需要进一步深度研究的空白点。
五、 自动化流水线:把链接变成 Wiki
1. 原始资料摄入
不要只放 URL!LLM Wiki 需要实体文件。
- 技巧 :使用 Chrome 插件(项目自带
extension目录)将网页一键"剪藏"为干净的 Markdown,存入raw/sources/。
2. 执行 Ingest 任务
当你放入文件后,点击左侧的 Activity Panel。你会看到 AI 开始启动:
- Step 1 Analysis: AI 会生成一段黑色的 JSON/Markdown 预览,显示它提取到的知识点。
- Step 2 Save : 点击 Save to Wiki ,你会惊喜地发现
wiki/目录下瞬间长出了文件夹,里面全是排版精美的笔记。
六、 进阶:如何让知识库"活起来"?
1. 知识图谱 (The Graph)
点击图谱图标,你会看到你的节点。最初它们是孤立的,但随着你摄入的文章增多,你会发现"Python"节点自动连接到了"期权计算",而"期权计算"又连接到了"CPA 财管"。这种自动涌现的关联是手动笔记无法比拟的。
2. 深度研究 (Deep Research)
当你点击某个笔记中的 Deep Research 时,AI 不仅仅是在总结,它会去通过 RAG 寻找相关的跨学科证据。比如它会告诉你: "在 Python 中使用 scipy 计算 Delta 时,需要注意正态分布累积函数的性能瓶颈。" #### 3. 联动 Obsidian
将你的项目目录直接用 Obsidian 打开。
-
LLM Wiki 负责"生产生产"。
-
Obsidian 负责"沉浸阅读"和"二次创作"。
两者通过
.md文件完美互通。
七、 避坑指南:作为过来人的 3 条经验
- 路径敏感 :文件夹一定要叫
sources而不是source。 - API 频率:由于摄入任务会连续调用多次接口,如果使用 OpenRouter,注意 Tier 等级,防止 429 报错。
- Schema 简洁化:不要在 Schema 里写太啰嗦的指令,AI 会困惑。清晰的 Categories 列表是生成高质量笔记的关键。
八、 总结
在 AI 时代,我们不缺信息,缺的是信息的二次处理能力。LLM Wiki 帮我省去了繁琐的"排版"和"分类"工作,让笔记从"静态文档"变成了"动态神经网"。
无论你是正在备考的高压力学生,还是需要维护庞大技术栈的架构师,这套方案都值得你尝试。
如果你对 LLM Wiki 的进阶 Schema 配置感兴趣,或者在本地部署中遇到了 Rust 环境问题,欢迎在评论区留言,我们一起探讨!