告别碎片化收藏:基于 LLM Wiki 搭建“自动生长”的个人深度知识库

一、 引言:为什么我们不再需要"收藏夹"?

作为一名全栈开发者,我每天都在与海量信息打交道:从 WebGPU 的最新提案到 CPA 财管的复杂公式,从 Rust 的内存模型到量化交易的对冲策略。

以往,我们的知识管理流程是:发现好文 -> 丢进收藏夹/语雀/Notion -> 积灰

这种"囤积式"学习的最大痛点在于:

  1. 搜索效率低:关键词匹配搜不到深层逻辑。
  2. 缺乏关联:金融知识和技术实现被物理隔离,无法形成跨学科直觉。
  3. 维护成本高:手动整理笔记的时间远超阅读时间。

直到我发现了 LLM Wiki 。它不仅仅是一个笔记软件,它是一个基于 LLM 的知识加工厂。它能将非结构化的原始文件(PDF/MD),通过自定义的 Schema,自动化转化为具有双链结构的结构化 Wiki。


二、 方案选型:为什么是 LLM Wiki?

在对比了 Logseq、Obsidain(纯手动)以及各类 RAG 插件后,LLM Wiki 的几个特性击中了我:

  • 本地优先 (Local First) :所有 raw 资料和生成的 wiki 都在本地,隐私安全,且能用 VS Code/Obsidian 直接编辑。
  • 双步思维链 (Two-Step CoT) :先"分析"再"生成",保证了知识抽取的深度,而非简单的内容摘要。
  • Schema 驱动:你可以像定义数据库表结构一样,定义你的知识提取逻辑。
  • 深度研究 (Deep Research) :它能自动发现你知识库里的"断层",并主动建议你进行 AI 深度扩充。

三、 环境搭建:从源码到运行

1. 项目准备

LLM Wiki 采用 Tauri + Rust + React 构建,性能极其轻量。

  • 项目地址nashsu/llm_wiki
  • 前置要求:Node.js 20+、Rust 环境(如果选择源码编译)。

2. 安装步骤

建议直接下载 Release 版本的安装包,或者开发者模式:

Bash

bash 复制代码
git clone https://github.com/nashsu/llm_wiki.git
cd llm_wiki
npm install
npm run tauri dev

3. 配置 LLM 引擎

进入 Settings,我个人推荐使用 OpenRouter

  • API Key: 配置你的 OpenRouter Key。
  • Model : 推荐 anthropic/claude-3-5-sonnet。Claude 在结构化提取和逻辑关联上的表现目前优于 GPT-4o。
  • Context Window: 建议设置在 128k 以上,保证 AI 能同时参考多个 Wiki 页面进行交叉链接。

四、 实战配置:定义你的知识"模具"

这是最核心的一步。LLM Wiki 需要一个 schema.md 来指导它如何干活。

1. 规范目录结构

在你的项目根目录下,必须手动建立以下结构:

  • /raw/sources/:放入你的原始资料(如:期权对冲策略.pdf)。
  • /wiki/:这是 AI 产出成品的地方。
  • schema.md:核心配置文件。

2. 编写 Schema.md

这是我目前使用的 Schema 模板,专门适配"金融+技术"双修场景:

Markdown

markdown 复制代码
# Knowledge Schema

## Categories
- **Finance**: 涵盖期权交易、对冲策略、CPA 财管考点。
- **Technology**: 涵盖前端技术 (WebGPU/Vite)、Python 实现、AI 编程。
- **Concepts**: 跨学科的核心理论与术语定义。

## Extraction Rules
1. 提取文档中的核心实体。
2. 识别并建立实体间的逻辑联系,使用 [[双括号]] 建立链接。
3. 如果发现文档内容与现有 Wiki 存在冲突或补充,请在笔记中注明。

## Output Template
- **Summary**: 核心观点。
- **Context**: 应用场景。
- **Technical/Formula**: 公式或代码片段。
- **Audit**: 需要进一步深度研究的空白点。

五、 自动化流水线:把链接变成 Wiki

1. 原始资料摄入

不要只放 URL!LLM Wiki 需要实体文件。

  • 技巧 :使用 Chrome 插件(项目自带 extension 目录)将网页一键"剪藏"为干净的 Markdown,存入 raw/sources/

2. 执行 Ingest 任务

当你放入文件后,点击左侧的 Activity Panel。你会看到 AI 开始启动:

  • Step 1 Analysis: AI 会生成一段黑色的 JSON/Markdown 预览,显示它提取到的知识点。
  • Step 2 Save : 点击 Save to Wiki ,你会惊喜地发现 wiki/ 目录下瞬间长出了文件夹,里面全是排版精美的笔记。

六、 进阶:如何让知识库"活起来"?

1. 知识图谱 (The Graph)

点击图谱图标,你会看到你的节点。最初它们是孤立的,但随着你摄入的文章增多,你会发现"Python"节点自动连接到了"期权计算",而"期权计算"又连接到了"CPA 财管"。这种自动涌现的关联是手动笔记无法比拟的。

2. 深度研究 (Deep Research)

当你点击某个笔记中的 Deep Research 时,AI 不仅仅是在总结,它会去通过 RAG 寻找相关的跨学科证据。比如它会告诉你: "在 Python 中使用 scipy 计算 Delta 时,需要注意正态分布累积函数的性能瓶颈。" #### 3. 联动 Obsidian

将你的项目目录直接用 Obsidian 打开。

  • LLM Wiki 负责"生产生产"。

  • Obsidian 负责"沉浸阅读"和"二次创作"。

    两者通过 .md 文件完美互通。


七、 避坑指南:作为过来人的 3 条经验

  1. 路径敏感 :文件夹一定要叫 sources 而不是 source
  2. API 频率:由于摄入任务会连续调用多次接口,如果使用 OpenRouter,注意 Tier 等级,防止 429 报错。
  3. Schema 简洁化:不要在 Schema 里写太啰嗦的指令,AI 会困惑。清晰的 Categories 列表是生成高质量笔记的关键。

八、 总结

在 AI 时代,我们不缺信息,缺的是信息的二次处理能力。LLM Wiki 帮我省去了繁琐的"排版"和"分类"工作,让笔记从"静态文档"变成了"动态神经网"。

无论你是正在备考的高压力学生,还是需要维护庞大技术栈的架构师,这套方案都值得你尝试。


如果你对 LLM Wiki 的进阶 Schema 配置感兴趣,或者在本地部署中遇到了 Rust 环境问题,欢迎在评论区留言,我们一起探讨!


相关推荐
计算机魔术师2 小时前
【技术硬核 | 存储】ClickHouse 原理与 Langfuse 存储实践:当 LLM Trace 爆炸时,PG 还扛得住吗?
人工智能·clickhouse·工程实践·sbti·职场焦虑
manduic2 小时前
昆泰芯 KTH5701 三轴霍尔传感器 如何从根源解决摇杆漂移,升级智能交互体验
人工智能·交互
yanghuashuiyue2 小时前
langchain AI应用框架研究【前端-篇二】
人工智能·python·langchain
档案宝档案管理2 小时前
2026档案管理系统排名解析,易用性+安全性双维度对比
大数据·数据库·人工智能·档案管理
yongyoudayee2 小时前
AI Agent重构SaaS:一场CRM的范式革命
人工智能
ok_hahaha2 小时前
AI从头开始-黑马LongChain-提示词工程
人工智能
聚铭网络2 小时前
聚铭网络受邀参加“人工智能赋能教育高质量发展”研讨会暨学术年会
人工智能·网络安全
fīɡЙtīиɡ ℡2 小时前
【SpringAi最新版入门(二)】
java·javascript·css·人工智能·css3
补三补四2 小时前
模型评估方法论:从基础指标到AI裁判的全面指南
人工智能