1. 核心方法论 (Key Frameworks)
|----------------------|----------------------------------|------------------------------------------------------------------------------------------|----------------------------------------------------------------------------------------------------------------------------------------------------------|
| | | | 核心理论模型全称定义与核心价值来源 |
| MVW | Minimum Viable Workflow | 最小可行工作流。拒绝过度设计,先构建一个包含"输入-处理-反馈-输出"的最简闭环,验证 AI 协作的可行性。 | Module 02 |
| I-S-G-I-E | Workflow Stages | 知识处理五环。将复杂的知识任务拆解为标准步骤:输入(Input)、结构(Structure)、生成(Generate)、迭代(Iterate)、表达(Express)。 | Module 02 |
| S.C.O.R.E | Structure for Prompts | 提示词结构标准。通过角色(S)、背景(C)、目标(O)、要求(R)、评估(E)五要素,将模糊意图转化为机器可执行的"软协议"。 | Module 03 |
| MVR | Minimum Viable Repository | 最小可行知识库。基于 Git 版本控制和元数据规范构建的工程化知识底座,确保知识资产"机器可读"且"历史可溯"。 | Module 04 |
| PEAR | Agent Loop | 智能体运行闭环。将智能体行为解构为四个系统阶段:感知(Perceive) → 评估(Evaluate) → 行动(Act) → 反思(Reflect)。 | Module 05 |
| MVG | Minimum Viable Graph | 最小可行图谱。在本地构建包含核心实体与关系的最小知识图谱 (GraphRAG),赋予智能体跨文档推理与全局结构理解能力。 | Module 05 |
| Agentic Workflow | Agentic Workflow | 智能体式工作流。从被动的"问答模式"升级为"主动行动模式"。系统基于目标(Goals)、状态(State)与事件(Events)持续运行,而非单次触发。 | Module 05 |
| Agent Runtime | Agent Runtime | 智能体运行环境。承载智能体的系统基础设施,提供状态管理、记忆存储、行动接口与反馈通道,决定了智能体能力的上限。 | Module 06 |
| MVA | Minimum Viable Agent | 最小可行智能体。在本地运行环境中构建的具备完整 PEAR 闭环、且"推理外包、状态内生"的最小工程实体。 | Module 06 |
| DIKWA | Data-Info-Know-Wisdom-Action | 价值链重构。在传统的DIKW知识金字塔顶端增加Action (行动),标志着从"给建议"到"做任务"的范式跃迁。 |
2. 安装:
一、系统底层环境
1. 安装 Node.js(MCP 依赖)
-
打开 Node.js 官网,下载 LTS 长期支持版(64 位 .msi)。
-
双击安装,务必勾选 Add to PATH(自动配置环境变量)。
-
安装完成后,按
Win+R→ 输入cmd→ 打开命令提示符,执行:node -v npm -v出现版本号(如 v20.x.x)即成功。
输出:

2. 创建 Python 虚拟环境(隔离依赖)
打开 cmd,进入你的项目目录
第一步:切换到 D 盘
D:
第二步:进入目标目录
cd D:\my projects\Obsidian
创建虚拟环境:
python -m venv mcp-env
激活环境(命令行出现 (mcp-env) 即成功):
mcp-env\Scripts\activate
安装 MCP SDK:
# 使用阿里云镜像源安装 mcp[cli](最快、最稳)
pip install "mcp[cli]" -i https://mirrors.aliyun.com/pypi/simple/
4. 获取硅基流动 API Key(模型调用)
- 访问 硅基流动官网
https://siliconflow.cn/ 注册账号。 - 进入控制台 → API 密钥 → 新建密钥,复制
sk-xxxx密钥。
配置 Obsidian(核心知识库)
1. 安装 Obsidian
- 打开 Obsidian 官网,下载 Windows 版安装。
- 打开 Obsidian → Create new vault → 命名为
AI-Agent-Space→ 保存到D:\AI-Agent-Space(无空格、无中文)。

2. 基础设置
- 进入 Settings → Files & Links :
- Default location for new attachments:改为 In subfolder under current folder。

- 进入 Settings → Community plugins :
- 关闭 Restricted mode (允许第三方插件)。

- 关闭 Restricted mode (允许第三方插件)。
3. 安装 Text Generator 插件
- 社区插件市场搜索 Text Generator → Install → Enable。

- 配置:
- LLM Provider:Custom
- Endpoint:
https://api.siliconflow.cn/v1/chat/completions - API Key:粘贴你的
sk-xxxx - Model:
deepseek-ai/DeepSeek-R1-0528-Qwen3-8B

4. 安装 Tars 插件
- 搜索 Tars → Install → Enable。
- 配置:
- Provider:SiliconFlow
- API Key:粘贴
sk-xxxx - Model Name:
deepseek-ai/DeepSeek-R1-0528-Qwen3-8B


安装Dataview, 显示三个插件如下:

三、Cherry Studio 连接 Obsidian MCP(核心步骤)
1. 打开 Cherry Studio 设置
- 打开 Cherry Studio → 左下角 设置(⚙️) → 左侧 MCP 服务器。
- 点击 添加服务器 → 选择 Import from JSON(代码模式)。
2. 粘贴 MCP 配置(替换为你的 Obsidian 绝对路径)
json
{
"mcpServers": {
"Obsidian-Vault": {
"command": "npx",
"args": [
"-y",
"@modelcontextprotocol/server-obsidian",
"D:\\AI-Agent-Space"
]
}
}
}
- 注意:Windows 路径用
\\,必须是绝对路径、无空格。
在编辑MCP配置这里填入:
{
"mcpServers": {
"obsidian-vault": {
"command": "cmd",
"args": [
"/c",
"npx",
"-y",
"@mauricio.wolff/mcp-obsidian@latest",
"'D:\\my projects\\Obsidian\\AI-Agent-Space'"
]
}
}
}
注意:老师用 npx 直接作为命令,是因为他的课件基于 Linux/Mac 系统 ;而我们用 cmd 包装,是为了适配你的 Windows 10 系统------ 两者本质都是启动 MCP 服务,只是系统底层的命令解析规则不同。

- 保存并验证
点击 保存 ,等待指示灯变 绿色(连接成功)。
四、最终验证(确保全部成功)
-
在 Cherry Studio 聊天框输入: plaintext
读取我的 Obsidian 笔记 AI-Agent-Space -
能正常读取笔记内容 → 环境搭建完成。
3. 作业:
✅ 步骤 1:在 Obsidian 新建笔记并粘贴原始文本
- 打开 Obsidian,在你的仓库(
D:\my projects\Obsidian\AI-Agent-Space)里,右键「新建笔记」,命名为02-SCORE-Practice。
运行你的第一次对话
新建笔记 :点击左侧栏的 New note,命名为 00-Hello-World。
输入指令:在笔记中输入以下内容(这是给 AI 的指令):
你好,AI。请你扮演一位资深的 Python 工程师。
请用 3 句话向我解释什么是"Hello World",并输出一段 Python 的 Hello World 代码。
触发生成:
- 将光标停在文字末尾。
- 按下快捷键(默认通常是 Cmd+J 或 Ctrl+J,具体看插件设置)。
- 观察屏幕,如果一段文字自动流淌出来,环境觉醒成功。

运行你的第一次对话
步骤 1:呼出控制面板
在 Obsidian 的右侧边栏找到 Tars 的图标并点击,或者使用快捷键 Ctrl+P唤出命令面板,输入 Tars: 打开对话窗口,选择 Tars 有关的指令。
步骤 2:注入上下文并测试
01-python工程师
#我 :你好,AI。请你扮演一位资深的 Python 工程师。请用 3 句话向我解释什么是"Hello World",并输出一段 Python 的 Hello World 代码。并参考S.C.O.R.E.结构化提示工程框架,输出生成这段代码的提示词。#SiliconFlow :

💡 提示工程技巧: Tars 的核心工程优势在于动态上下文引用。除了自动读取当前笔记,你还可以在提问时使用特定的引用符(如 @),将知识库中任意的其他 Markdown 文件挂载到单次请求中。这是未来构建复杂"本地知识问答"底座的基础动作。
-
打开这篇笔记,把下面这段「混乱的原始文本」完整粘贴进去: plaintext
那个,关于下周的发布会,小王你记得去定一下会议室,要大的那个。然后海报设计得抓紧了,那个谁,UI组的小李,周三前得初稿吧。还有就是技术那边,服务器扩容的事情,张工说已经搞定了,但是得测试一下,周五前给个报告。哦对,发布会的PPT,我还没写完,可能要延后到周四给。大家辛苦一下。
把光标移到最后,然后ctrl+j 即可调用 Text Generator
text generator
- 在任意一行文本后按 `ctrl + j`,即可在后面自动生成文本。
- 如果左键选中文本,则该文本即为发送给 gpt 的上下文
- 如果打字光标前有文本,则该行文本即为发送给 gpt 的上下文
- 如果打字光标前无文本,则整个文档都将发送给 gpt 作为上下文
输入简单的提示词
在 Text Generator 中输入以下指令并运行:
帮我整理一下这个会议记录。

工程化的白盒解析
- S---Scrum Master:激活了模型关于"敏捷管理"、"Action Item"的专业知识权重,它立刻知道"任务"比"闲聊"更重要。
- C---Context:明确了输入数据的边界(【开始】...【结束】),防止 AI 把你的指令也当成会议记录去处理。
- O---Objective:通过使用"提取"、"识别"等原子化动词,并将大任务拆解为 4 个具体步骤(内容、负责人、DDL、状态),我们强制模型触发了思维链。这让模型在生成结果前,必须先在潜空间内完成逻辑推理,建立了从"模糊录音"到"清晰条目"的直接映射路径。
- R---Markdown表格:这是最关键的 "格式契约"。通过规定 Markdown 格式,我们保证了输出的数据可以直接被 Notion、Obsidian 或其他软件读取。
- E ---Check:修正了可能的逻辑漏洞(比如容易忽略张工已经做完的事实)。
03-数据清洗
"噢,我叫韩梅梅,不过我现在的同事都叫我 Meimei。我出生在 1996 年,现在正好 28 岁。我在上海已经工作 5 年了,目前在一家挺牛的广告公司担任资深文案策划。要说我的专长,那肯定是对品牌故事的深度挖掘,还有就是能写特别带感的短视频脚本。哦,我以前在复旦大学念的新闻学,拿了文学学士学位。工作之余,我自己还捣鼓了一个播客节目,叫《字里行间》,主要聊文学和城市文化,现在已经在各平台更了 50 多期了,粉丝反馈还不错。"
**S (角色)**:
你是一位资深的数据清洗工程师。你的核心能力是将混乱的自然语言提取并重构为生产级的 JSON 数据。
**C (背景)**:
处理一份非正式的面试自我介绍录音转录文本。
【原始文本开始】
{``{粘贴上面的韩梅梅文本}}
【原始文本结束】
**O (目标)**:
提取文本中的核心实体,生成一个单层的、无冗余的 JSON 对象。
**R (要求)**:
1. **语义契约 (Schema Contract)** (必须严格遵循以下字段定义):
- "full_name": String, 优先提取全名。
- "age": Integer, 仅保留数字。 // 注释:强制类型转换,防止字符串混入
- "occupation": String, 当前职位。
- "years_of_experience": Integer.
- "skills": String Array (数组).
- "education": Nested Object (嵌套对象), 包含 "university" 和 "degree"。
- "side_projects": String Array.
2. **格式规范**:
- **严禁** 使用 Markdown 代码块。 // 注释:确保输出纯净文本
- **严禁** 输出任何解释性文字。
- 输出必须以 `{` 开头,以 `}` 结尾。
- 使用压缩的单行 JSON 格式。
**E (评估)**:
在输出前自检:生成的 JSON 能否通过 JSONLint 校验?字段类型是否与 Schema 一致?
输出:

