接上篇。
上一篇的准备工作做好后还不能开始干活,需要做一些配置工作。
一、认识MCP
下面介绍的都是会用到的MCP。
1、sequential-thinking(结构化推理/分步思考 MCP)
Sequential Thinking MCP 是一种为 AI 提供 逐步结构化分析和分解思路 的服务。它不是简单返回一个结果,而是帮助模型:
- 把复杂任务分成多个 思考步骤**
- 按顺序推进、检查和修正每一步的输出
- 支持 思维分支(explore alternative strategies)
- 提供可解释的 中间思考状态 和 反思能力
这种 MCP 特别适合解决需要规划、设计、策略推敲等场景,比如:
✔ 复杂需求拆解
✔ 系统设计分析
✔ 有多个可能方案且需要比较优化
✔ 自我修正和深度探索的任务
它弥补了传统 LLM 一次性输出的局限,让思考过程显式化,有助于降低错误概率和提高可靠性。
不需要显示调用。
(👆🏻AI写的)
2、context7(实时文档/代码示例检索 MCP)
Context7 MCP 的核心目标是让 AI 获得 最新、最准确、与库版本匹配 的官方文档和代码示例:
- 在实际编码时动态检索官方文档。
- 避免 LLM 因训练数据滞后而生成过时/错误的 API 调用
- 减少所谓的 "幻觉代码"
换句话说,它给大语言模型装上了一副 实时文档眼镜,让模型在生成代码时能够:
- 获取最新发布版本的库文档
- 查询函数签名和参数说明
- 拿到真实可用示例代码
这对 AI 编程助手非常重要,可以显著提高生成代码的正确率和可运行性。
(👆🏻AI写的)
使用方法就是在提示词最后加上use context7。例如:AWS MQTT的连接方式?use context7。
在使用context7的时候,如果github上面有一些不太出名的项目,你希望context7也支持它,非常简单:
1.去Context7 - Up-to-date documentation for LLMs and A...官网,点击右上角的绿色Add >Docs
2.在github url输入框里面填入github地址
3.等待context7后端解析完毕,即可在mcp里面享受项目的文档和使用案例详解。
除了显示调用,最好配合skill来使用
3、serena(语义代码检索 & 精准编辑 MCP)
Serena MCP 是一个功能更强、更像 IDE 工具的 MCP 服务器,实现了 语义级代码搜索与编辑能力:
它不仅仅是提供文档、还能够:
- 对代码进行 语义级检索(不是简单关键词搜索)
- 理解项目中符号、函数定义、引用关系
- 识别变量、类型和依赖结构
- 提供类似 IDE 的 代码导航、引用查找、重构建议
- 结合 LLM 提供更精确的代码修改和补丁生成
它可视为让客户端(如 Codex CLI、Claude Desktop、Cursor 等)变得像一个有 IDE 能力的伙伴,而不是单纯语言模型。Serena 的 MCP 输出更接近 代码理解 + 编辑 而不仅是文本/文档查询。
⚠ 注意:Serena 需要 uvx 工具(现代 Python 包管理器)来启动,并且配置和依赖相对比前两个更复杂一些。
(👆🏻AI写的)
建议在AGENTS.md文件的最前面加入一句话显示开启Serena:
kotlin
## 显示激活Serena MCP
- IMPORTANT: If `serena.activate_project` has not been called in the context, then call it once first.
另外开启Serena后,项目的根目录会多一个.serena的文件夹,一般建议加入忽略文件。
二、认识config.toml文件
config.toml文件其实就是Codex的配置文件,打开方式(Mac)就是搜索~/.codex/config.toml找到这个文件打开即可。下面介绍一些需要添加的配置:
1、打开codex联网能力
kotlin
[features]
# 让codex有联网查询能力
web_search_request = true
2、打开skills能力
kotlin
[features]
# 打开skills能力
skills = true
3、其他
其他例如沙箱模式,指定模型等,建议需要用到的时候问AI吧,因人而异。
三、配置MCP和config.toml文件
MCP就是配置在config.toml文件中的,下面是一份我的config.toml文件供参考:
kotlin
model = "gpt-5.1-codex-max"
model_reasoning_effort = "high"
# 顶层全局默认:只读 + 从不升级
sandbox_mode = "read-only"
approval_policy = "never"
trust_level = "untrusted"
[features]
# 让codex有联网查询能力
web_search_request = true
# 打开skills能力
skills = true
[projects."/Users/river"]
[projects."具体项目根路径,自动生成的"]
# 如果你想让这个项目也继承只读,就不要在这里把 trust_level 改成 trusted,改成trusted codex可以修改你的项目文件,下面被注释掉了
# trust_level = "trusted"
[mcp_servers.figma_local]
url = "http://127.0.0.1:3845/mcp"
startup_timeout_sec = 20
tool_timeout_sec = 60
[mcp_servers.sequential-thinking]
command = "npx"
args = ["-y", "@modelcontextprotocol/server-sequential-thinking"]
startup_timeout_ms = 20000
[mcp_servers.context7]
command = "npx"
args = ["-y", "@upstash/context7-mcp"]
startup_timeout_ms = 20000
[mcp_servers.serena]
command = "uvx"
args = ["--from", "git+https://github.com/oraios/serena",
"serena", "start-mcp-server", "--context", "codex"]
startup_timeout_ms = 20000
AI怎么用,怎么放权看个人,比如你想让它只读,确实没有风险,但也很大的限制了AI的能力,如果允许AI写的话,请好好审查AI修改后的代码。