📚 项目推荐:notes-on-llms
我在系统整理大语言模型(LLM)相关知识的过程中,长期维护了一个公开文档仓库 notes-on-llms。
这个项目不是零散的论文笔记或 Prompt 技巧合集,而是从 模型原理 → 训练范式 → 推理优化 → Agent 架构 → 安全与对齐 → 多模态,系统性拆解 LLM 技术栈,构建一份 结构化的认知地图。
如果你已经接触过 LLM,希望从"会用模型"进阶到"理解模型系统",这个仓库会更有参考价值。
🔗 项目地址:
https://likebeans.github.io/notes-on-llms/
⭐ 欢迎 Star / Follow,后续会持续更新。
LLM 资料太多了------论文、课程、帖子、Prompt 模板、框架教程......但真正让人难受的点往往不是"没东西看",而是:
- 看完一堆内容,脑子里还是一团散点
- 你知道 RAG、Agent、LoRA、RLHF、KV Cache、MCP 这些词,但不知道它们在同一张系统图里应该放哪
- 以及:工程落地时到底该从哪一步开始搭、怎么迭代、怎么评估
所以我做了一个长期维护的开源项目 notes-on-llms :把大模型相关的核心模块按"技术栈"的方式拆开,再按"系统工程"的方式串起来。

- GitHub 仓库:https://github.com/likebeans/notes-on-llms (GitHub)
- 在线文档站点:https://likebeans.github.io/notes-on-llms/ (LikeBeans)
一句话定位:
从 RAG 到 Agent,构建下一代 AI 应用 ------并用一套结构化文档把它讲清楚。(LikeBeans)
1)这不是"笔记集合",而是一个按技术栈拆解的 LLM 知识工程
你在 README 里能看到我对仓库结构的定义方式:不是"论文/链接堆砌",而是直接按模块把 LLM 应用最核心的链路拆开:RAG、Agent、训练微调、Prompt、多模态、MCP、面试与速查 ,并且每个模块都有进一步的子主题(例如 RAG 有范式演进、切分、Embedding、向量库、检索策略、重排、评估、生产实践)。(GitHub)
站点首页也把这些模块作为主导航,明显是"体系化知识库"的组织方式,而不是零散文章目录。(LikeBeans)
2)从 RAG 开始:把"能落地"作为学习入口
我在站点的推荐阅读路径里,把 RAG 概述 放进"新手入门"的首批入口,并强调先跑通最小闭环。(LikeBeans)
RAG 这一章我做得最"工程化"的地方,是直接把系统拆成离线与在线两条链路:
- 离线索引:解析 → 切分 → 向量化 → 入库
- 在线检索:Query → 检索 → Rerank → 生成 (LikeBeans)
同时还给出从 Naive→Advanced→Modular→Agentic 的范式演进,以及 Query 改写/HyDE、多路召回、GraphRAG、Agentic RAG 这些真实系统里会用到的升级路线。(LikeBeans)
如果你正准备做知识库问答、企业知识检索、私有数据接入,RAG 这部分可以当成你的"架构底稿"。
3)Agent:把"对话式 AI"升级成"能行动的系统"
很多人聊 Agent 还停留在"套个 ReAct 提示词"。我在 Agent 章里直接给出一个很清晰的系统定义:
\\text{Agent} = \\text{LLM} + \\text{Planning} + \\text{Memory} + \\text{Tools}
并把 Planning、Memory、Tools 各自要解决的问题拆出来写。(LikeBeans)
比如规划能力部分,从 CoT 到 ToT,再到 ReAct、Reflexion,强调它们对应的结构差异、适用场景和局限(例如 ToT 的"树状搜索+回溯"思路)。(LikeBeans)
记忆系统部分则把短期/长期记忆分层,并引入检索评分公式(recency/importance/relevance)来说明"长期记忆不是随便存向量"。(LikeBeans)
如果你想做"能执行任务的助手"、多步任务编排、工具调用、工作流自动化,这章会更像一本 Agent 系统设计说明书,而不是玩法集合。
4)训练微调:从"现代 Transformer"到对齐税,再到分布式工程
训练这一章我写得比较"全景":从架构改良讲到训练系统工程,核心目标是让你理解:
- Base / Instruct / Chat 三类模型版本的训练路径与适用场景
- 以及为什么会有"对齐税"(对齐后在某些任务上可能不如基座模型)(LikeBeans)
在架构部分,我把"现代 Transformer"的关键改良点拆出来:RoPE/ALiBi 位置编码、MQA vs GQA、RMSNorm、SwiGLU、MoE、Mamba 等,强调这些是大模型走向长上下文和稳定训练的工程必选项。(LikeBeans)
在训练系统部分,写了数据工程流水线(过滤、去重、PII、MinHash LSH 等)和多维并行策略(DP/TP/PP/SP)、ZeRO、激活重算等工程点。(LikeBeans)
如果你在做大模型训练/微调,或者面试准备想要"能讲清系统",这部分会很顶。
5)Prompt:从技巧到学科,再到上下文工程与安全
Prompt 这一章我明确写了一个定位:提示工程已经从"经验技巧"演进成融合认知科学、计算语言学与安全工程的系统学科,并提出"四层架构"的拆解方式。(LikeBeans)
内容上我重点讲了 ICL 机制、CRISPE 结构化框架、CoT/ToT/GoT、自洽性、APE 自动化提示工程等------这些更像"方法论与底层逻辑",而不是模板库。(LikeBeans)
如果你常写 Prompt 但觉得效果不稳定,这章会帮你把"随机玄学"变成"可解释的工程过程"。
6)多模态:从 ViT/CLIP 到连接器,再到统一架构
多模态这一章的结构也很"技术栈":视觉编码器(ViT)、对齐(CLIP)、连接器(LLaVA Linear / BLIP-2 Q-Former)、原生多模态架构(例如 Fuyu 的思路)、以及"统一模型"方向。(LikeBeans)
我希望它能让你快速建立一个判断:
当你要做 OCR、VQA、图像理解、图像生成、甚至具身智能时,系统的关键瓶颈与架构取舍到底在哪。(LikeBeans)
7)MCP:把工具调用从"每家一套"变成"USB-C"
MCP 这一章我写得比较认真,因为它正在变成一个很现实的问题:模型、IDE、工具、数据源之间的连接生态越来越碎片化。
我在文档里直接给出 MCP 的比喻:"AI 时代的 USB-C 接口" ,并用表格解释它如何把传统点对点集成的 M×N 复杂度,降低为 M+N 的协议式连接。(LikeBeans)
架构上拆了三层实体(Host/Client/Server)以及 JSON-RPC 2.0 协议分层、传输方式(stdio、SSE+HTTP POST)与三类核心原语(resources/tools/...)。(LikeBeans)
如果你正在做 Agent 工具生态、企业内部工具接入、或者想让"一个工具多处复用",MCP 是必须理解的。
8)你该怎么用这个仓库?
我在站点首页也给了推荐路径(新手/进阶/面试),你可以按你的目标选:(LikeBeans)
- 想落地:从 RAG 开始 → 再上 Agent
- 想变强:补 训练微调 的系统部分
- 想稳产出:把 Prompt 当作"上下文工程"来做
- 想前沿:看 多模态 / MCP 的架构与趋势
最后:欢迎 Star,让它变成"行业级知识地标"
notes-on-llms 不是"一次性写完"的项目,而是一个会持续更新的知识工程。我也把博客与仓库打通:博客更易读,仓库更结构化,站点更利于检索与复用。(GitHub)
- GitHub:https://github.com/likebeans/notes-on-llms (GitHub)
- 在线阅读:https://likebeans.github.io/notes-on-llms/ (LikeBeans)
如果这个仓库对你有帮助,欢迎 Star / Watch 。它会持续更新,也欢迎 Issue 提建议、一起完善。(GitHub)