cursor新版本

备注:未经博主允许禁止转载,如有问题,欢迎指正。

个人笔记(整理不易,一起努力~)

笔记目录学习笔记目录_pytest和unittest、airtest_weixin_42717928的博客-CSDN博客

个人随笔工作总结随笔_8、以前工作中都接触过哪些类型的测试文档-CSDN博客

下载地址

https://cursor.com/download

安装提示,意思是这个用户版安装程序不适合以管理员身份运行,他是个人版的,如果需要为全部用户安装,去官网下载 System Installer(系统版安装程序)

这里我使用这个版本了

这里会有个问题,安装后发现登录和注册按钮点击无反应

这时候去打开这个浏览器,并且设置为默认浏览器,这时候按钮就能点击了

新界面

看不懂英文就Ctrl + Shift + X,安装个chinese插件

我习惯垂直显示,在设置-workbench.activityBar.orientation ,将其值改为 vertical,重启即可

可以看下内置的大模型

|----------------------------|-----------------|----------------------------------------------------------|
| 模型系列/名称 | 核心定位 | 关键原因 |
| Claude Opus 4.6 (Max) | 顶级全能代码模型 | SWE-Bench 通过率持续领先,系统级编程、复杂工程任务表现最强,上下文窗口最大,对长代码库理解深刻。 |
| GPT-5.3 Codex (Extra High) | OpenAI 最强编程代理 | 代码生成与调试能力顶尖,Terminal Bench 2.0 表现优异,主动协作和多步推理能力强,是工业界首选。 |
| Gemini 3 Pro | Google 多模态旗舰 | 原生多模态理解,复杂算法与数学推理能力突出,在 Codeforces 等平台表现超神,适合高难度算法题。 |
| GLM-5 | 国产开源旗舰 | 国内开源模型天花板,SWE-Bench 表现接近国际一线,在中文编程场景下有独特优势,可部署性强。 |
| DeepSeek-R1 | 国产代码模型新贵 | 专注代码领域,在代码生成、调试和重构上表现亮眼,SWE-Bench 通过率跻身第一梯队。 |
| Sonnet 4.5 | 高效全能模型 | 综合能力强,速度与质量平衡,适合中等复杂度任务,是 Opus 的高性价比替代。 |
| Nova 2.0 Pro | AWS 企业级代码模型 | 针对云原生和企业级应用优化,与 AWS 服务深度集成,稳定性和安全性高。 |
| GPT-5.2 Codex (Extra High) | 上一代旗舰编程模型 | 代码能力稳定可靠,广泛应用于生产环境,仍是很多团队的核心选择。 |
| Qwen3.5 | 阿里最新开源模型 | 代码生成精准度高,对中文注释和文档理解优秀,在轻量级部署上有优势。 |
| Composer 1.5 | Cursor 自研速度优先模型 | 针对代码库深度优化,多 Agent 工作流驱动,速度是同级别模型的4倍,适合快速迭代。 |
| GPT-5.2 (Extra High) | 通用旗舰模型 | 代码能力强,但非专门为编程优化,在纯代码任务上略逊于 Codex 系列。 |
| Claude 3.5 Sonnet | 前代高效全能模型 | 能力稳定,在新版本发布后仍属一线,但已被 Sonnet 4.5 超越。 |
| MiniMax M2.5 | 国产多模态模型 | 多模态理解能力强,代码能力处于中上水平,适合需要图文结合的开发场景。 |
| GPT-4o | OpenAI 前代多模态旗舰 | 多模态能力强,但代码能力已被 GPT-5.x 系列全面超越。 |
| Grok Code | X 社交向代码模型 | 适合快速脚本和原型开发,在特定场景有优势,但综合能力不及一线模型。 |
| Haiku 4.5 | 轻量高效模型 | 速度快,成本低,适合简单代码任务和实时补全,能力不及旗舰。 |
| Gemini 3 Flash | 极速轻量模型 | 响应极快,适合实时补全和简单任务,是速度优先场景的首选。 |
| GPT-5.1 Codex Max | 上一代专业编程模型 | 能力稳定,但已被 5.2/5.3 系列超越,主要用于兼容旧项目。 |
| Kimi K2 | 长上下文模型 | 长文本处理能力强,代码能力中等偏上,适合处理大型代码库文档。 |
| GPT-5.1 / 5.2 Mini | 轻量模型 | 成本极低,适合基础代码任务和教学场景。 |
| Composer 1 | 初代自研模型 | 已被 1.5 版本全面超越,仅作历史兼容。 |
| Gemini 2.5 Flash | 旧版轻量模型 | 能力不及 3 Flash,仅用于兼容旧环境。 |

也可以自定加入大模型

运行代码没运行按钮,就安装个插件

  • Open project: 打开本地已有的项目文件夹

  • **Clone repo:**直接从 Git 仓库克隆项目

  • **Connect via SSH:**通过 SSH 连接远程服务器上的项目,适合云服务器上的项目调试

  • **Recent projects:**列出最近打开的项目

也可以使用Ctrl + Shift + P,点击第一个安装

然后选择 在 PATH 中 安装 "cursor" 命令 - Shell Command: Install 'cursor' command in PATH 即可为系统 PATH 路径添加了 cursor 命令的引用

一些常用的命令行选项,可以通过 cursor --help 命令查看

控制台乱码:

方案1:在settings.json加上"code-runner.runInTerminal": true,这样 Code Runner 会在终端里跑 python,终端对中文支持会好很多,一般就不乱了,在设置 UI 中也可以搜:Code Runner: Run In Terminal,勾上即可

方案2:在settings加上

"code-runner.executorMap": {

"python": "set PYTHONIOENCODING=utf-8&& python -u"

}

含义:

  • PYTHONIOENCODING=utf-8:强制 Python 用 UTF-8 编码标准输出/错误。
  • Code Runner Output 面板按 UTF-8 解码 → 中文正常

接下来看看新旧版本的变化:

简单地说:

cursor从「AI 代码编辑器」彻底变成了「Agent 驱动的开发平台」

设计核心从「以文件为中心」变成「以 Agent 为中心」

旧版功能 新版对应模式 变化说明
Chat 模式(只读问答,不改文件) Ask 模式 完全继承旧版 Chat 的能力,纯解释、答疑、讲代码,不会修改你的任何文件,和你之前的用法完全一致
Composer 模式(写代码、改文件) Edit 模式 完全替代旧版 Composer,精准修改当前文件 / 选中的代码段,自动写入文件,支持逐行预览修改
旧版 Command 模式(终端命令执行) 整合进 Agent 模式 彻底移除独立入口,现在 Agent 可以自动调用终端、执行命令、查看运行结果,不用单独开模式

Shift+Tab就能快速切换模式

1. 🔄 Agent(智能代理模式)

  • 核心作用:这是新版最强大的模式,相当于旧版「Composer + Command + Chat」的超级整合体。它能自动理解复杂需求,跨文件修改代码、调用终端、运行命令、验证结果,全程闭环,不用你手动干预。
  • 对应旧版:旧版里你需要手动切换 Composer 改代码、Command 跑命令、Chat 问问题,现在 Agent 模式一个顶仨,自动帮你搞定。
  • 适用场景:全项目重构、多文件修改、自动修复终端报错、复杂工程化任务(比如 "给这个项目加登录接口")。
  • 怎么用:直接在聊天框输入需求(比如 "运行 test1.py 并修复报错"),Agent 会自动判断需要做什么,自动调用终端、修改代码、验证结果,全程不用你管。

2. 📋 Plan(规划模式)

  • 核心作用:让 AI 先 "想清楚" 再动手,先输出详细的执行步骤、修改计划,再按计划执行,避免盲目修改代码。
  • 对应旧版:旧版没有独立的 Plan 模式,现在是新增的 "先规划后执行" 能力,让复杂任务更可控。
  • 适用场景:超复杂任务(比如 "重构整个项目的架构"),你想先看 AI 的思路,确认没问题再让它动手,避免改乱代码。
  • 怎么用:在聊天框输入需求后,切换到 Plan 模式,AI 会先输出一份详细的执行计划(比如 "步骤 1:修改配置文件;步骤 2:新增接口;步骤 3:编写测试"),你确认后,再让它按计划执行。

3. 🐞 Debug(调试模式)

  • 核心作用:专门处理代码调试、报错修复,自动读取终端报错、定位问题根源、修改代码、重新运行验证,全程闭环,不用你手动复制报错。
  • 对应旧版:旧版里你需要手动复制报错→切到 Chat→粘贴→问问题,现在 Debug 模式一键搞定。
  • 适用场景:代码报错了,想让 AI 自动定位 bug、修复并验证;或者调试复杂逻辑(比如 "帮我调试这段算法的性能问题")。
  • 怎么用:代码运行报错后,切换到 Debug 模式,输入需求(比如 "修复终端里的报错"),AI 会自动读取报错、定位问题、修改代码、重新运行验证,全程不用你碰终端。

4. ❓ Ask(问答模式)

  • 核心作用 :纯问答、解释代码,完全不会修改你的任何文件,对应你熟悉的旧版「Chat 模式」,只读答疑,不改代码。
  • 对应旧版:旧版的 Chat 模式,用法完全一致,只是换了个名字。
  • 适用场景:问代码是什么意思、解释报错原因、查语法、讲概念(比如 "这段 Python 代码的逻辑是什么?""PEP8 规范是什么?")。
  • 怎么用:切换到 Ask 模式,输入问题,AI 只会给你文字解释,不会修改任何文件,安全又省心。
模式 会不会改代码 核心能力 对应旧版 适用场景
Agent ✅ 会改(全项目) 自动处理复杂任务,跨文件、调终端 Composer+Command+Chat 全项目重构、复杂任务
Plan ❌ 先规划,后执行 先出计划,再按计划改 新增功能 超复杂任务,先看思路
Debug ✅ 会改(精准修复) 自动读报错、修 bug 新增功能 代码报错、调试问题
Ask ❌ 完全不改 纯问答、解释代码 Chat 模式 答疑、讲代码、查概念

Edit模式:和右侧的全局聊天面板,是两个完全独立、默认不互通的对话空间,对话是临时、用完即走的快捷对话,关闭文件 / 重启 Cursor 后就会消失,不会自动保存到右侧的主对话历史里,避免零碎的小修改污染你的主对话记录

  • 绿色高亮的行:就是 AI 给你新增的注释内容,标绿是告诉你「这是本次新增的修改」,和旧版 Composer 的差异高亮逻辑一模一样。
  • 右下角的行级按钮(单条修改控制)
    • Keep Ctrl+Shift+Y:保留这一行的修改,确认要这行注释;
    • Undo Ctrl+N:撤销这一行的修改,不要这行注释,恢复成原来的样子。
  • 顶部的全局按钮(一键控制所有修改,最常用)
    • Accept Ctrl+回车一键接受所有修改,把 AI 给你加的所有注释都保留下来,直接写入文件,和你旧版 Composer 的「确认修改」完全一致!
    • Reject一键拒绝所有修改,不要 AI 改的任何内容,恢复成你原来的代码,和旧版的「取消修改」一致。
  • 底部的 Add a follow-up 输入框:如果你觉得改得不满意,想让 AI 调整(比如 "注释写得太简单了,再详细点"),就在这里输入需求,点右边的箭头发送,AI 会继续修改。
选项 对应旧版功能 核心用法 会不会改代码
Edit Selection(你现在选的,带对勾) 旧版「Composer 模式」 输入修改需求,AI 直接修改你选中的代码段,修改后会显示红 / 绿差异对比,你可以选择接受 / 拒绝 ✅ 会改代码
Quick Question 旧版「Chat 模式(快速问答)」 输入问题,AI 只会给你解释、答疑这段代码,比如 "这段代码是什么意思""有没有 bug",纯问答 ❌ 完全不改代码
Send to Chat 旧版「发送到聊天面板」 把你选中的代码,直接发送到右侧的大聊天窗口里,适合长需求、复杂对话,不用在小输入框里写 ❌ 不改代码,仅发送上下文
对比维度 行内 Edit 模式(Edit Selection) 右侧全局聊天面板(你截图里的这个) 对应你熟悉的旧版功能
对话生命周期 临时对话,关闭文件就消失,不保存历史 持久对话,所有内容永久保存,随时能翻历史记录 Edit 对应旧版 Composer 的临时修改弹窗;右侧面板对应旧版独立的 Chat 面板
作用范围 只能修改你选中的那一段代码,完全不碰其他内容,精准到行 可以跨文件、全项目操作,能改多个文件、调用终端、处理整个项目的复杂任务 Edit 是单点精准修改;右侧面板是全项目复杂任务
内容互通 对话只存在于当前代码的弹窗里,不会同步到右侧面板 所有发送的内容、AI 回复都会永久保存在这个对话里 旧版 Composer 的对话不会自动进 Chat 面板,逻辑完全一致
适用场景 10 秒就能搞定的小需求:加注释、改变量名、修小段 bug、优化几行代码 长对话、复杂需求:全项目重构、多文件修改、架构设计、需要保留历史记录的需求
可控性 极强,只会动你选中的代码,不会改乱其他内容 功能更全,可操作整个项目的任意文件

如果你想让 Edit 里的需求和对话,显示并保存在右侧的主聊天面板里,操作非常简单:

  1. 选中代码,唤起 Edit 输入框;
  2. 点击输入框里的「Edit Selection」下拉框;
  3. 选择 「Send to Chat」,就会把你选中的代码、输入的需求,一起发送到右侧的全局聊天面板里,对话就会永久保存在这里了。

给老用户的使用建议(对应你旧版的使用习惯)

  1. 快速改小段代码、加注释、修小 bug → 用行内 Edit Selection,快、无痕迹,不会污染你的主对话历史;
  2. 问长问题、复杂需求、需要保留对话历史、跨文件改东西 → 用右侧的全局聊天面板,对应你旧版的 Chat 模式;
  3. 全项目重构、多文件修改、自动跑终端命令 → 用右侧面板的 Agent 模式,这是旧版完全没有的新能力

旧版繁琐的「手动 @上下文」,现在被智能替代

旧版你必须手动@文件名@代码块,AI 才能拿到上下文;

新版默认智能感知,Agent 模式下会自动理解你的需求,去代码库里找对应的文件、依赖、函数,不用再手动 @了(当然也保留了手动 @的能力,精准控制上下文)

旧版本的Command模式,独立的 Command 标签页,只在 2024 年 2 月 - 2024 年 8 月的 v0.20~v0.35 这几个中间小版本 里短暂上线过,只不过用的少,后面我那个版本就转到底部终端左下角 ,写着 Ctrl+K to generate a command,这个就是 Command 模式的核心功能

Ctrl+K,就会弹出输入框,用自然语言说需求(比如 "运行当前 Test.py 文件""安装 pandas 库"),AI 就会自动生成终端命令并执行,和独立的 Command 模式功能完全一致

现在的旧版 Command 模式 ,整合进新版 Agent 模式的自动终端调用

新版:直接在右侧聊天面板用 Agent 模式 ,AI 会自动判断什么时候需要用终端,不用你手动切换模式

  • 比如你说 "运行 test1.py",Agent 会自动打开终端、执行命令、看运行结果
  • 比如你说 "安装 openpyxl",Agent 会自动运行 pip install openpyxl
  • 比如代码报错了,Agent 会自动读取终端报错、定位问题、修改代码、重新运行验证

新版 Cursor 的 AI 在读取终端时,默认有一套「优先看最新内容」的逻辑

它的读取规则是:

  1. 优先看「最后一次运行」的输出 :它会自动识别终端里的命令提示符(比如 PS F:\...>C:\...>),只读取最后一个命令之后的所有内容;
  2. 自动跳过旧的、已结束的命令:上面旧的报错,因为是在之前的命令里输出的,AI 会自动忽略;
  3. 重点关注红色报错:它会优先识别终端里标红的错误信息,自动过滤掉普通的白色 / 灰色输出

3 种让它 100% 只看最新报错的方法(实操)

如果你想完全保险,避免它偶尔看错,可以用下面这 3 种方法,按推荐程度排序:

方法 1:运行代码前,先清空终端

这是最彻底的方法,清空后终端里只有最新的输出,AI 绝对不会看错:

  1. 清空终端旧信息
  2. 运行代码获得最新的运行结果 / 报错
  3. 直接在 Agent 模式说:"看终端报错并修复",AI 只会读取这唯一的最新内容。

方法 2:在需求里加「关键词」,明确引导它

如果你不想清空终端,就在你的 prompt 里加几个词,明确告诉它只看最新的:

  • ❌ 普通说法:"看终端报错"
  • ✅ 精准说法(直接复制):
    • "看终端最后一次运行的报错,帮我修复"
    • "忽略上面旧的,只看最新的这一次报错"
    • "看终端最下面的红色报错,定位 bug"

加了这些关键词后,AI 会自动跳过上面的旧记录,只读取终端末尾的最新内容。

方法 3:手动选中最新报错(最笨但最精准)

如果你还是不放心,就用最直接的方法:只选中最新的那几行报错,发给 AI:

  1. 在终端里,用鼠标只选中你刚运行出来的那几行红色报错(不要选上面旧的);
  2. 按快捷键 Ctrl + L(或者右键选中的内容 → 点击「Send to Chat」);
  3. 选中的报错会自动发送到右侧聊天面板;
  4. 直接输入:"帮我修复这个报错",AI 只会基于你选中的这一段内容回答,100% 不会混淆。

prompt/prɑːmpt/本质就是「你写给 AI 的指令 / 问题 / 需求」

类型 是什么 举例 你之前用过的场景
临时 prompt(日常用) 你在聊天框 / Edit 模式里临时输入的需求,用完就存在对话里 "给这段代码加注释""修复终端报错" Edit 模式输入框、右侧 Agent/Ask 聊天框里的内容
系统 prompt(全局设置) 藏在 Cursor 设置里的「全局指令」,会给 AI 定 "规矩",所有对话都生效 "始终用中文写注释""遵循 Python PEP8 规范""回答要简洁" 无需手动输,AI 会默认遵守的底层规则

临时 prompt

  • Edit 模式(改代码) :选中代码 → 按Ctrl+I → 输入框里写需求(比如 "给这段代码加详细中文注释")→ 发送,这个需求就是 prompt;
  • Agent/Ask 模式(问答 / 全项目操作):右侧聊天框里输入 "看终端最新报错并修复"→ 发送,这句话就是 prompt;

系统 prompt(全局设置,定制 AI 的 "行为准则")

截图里已经有一条规则:Always respond in 中文,这就是一条全局规则,意思是让 AI 在所有对话中都用中文回应

顶部的「All」「User」「cursorTest」标签,可以切换规则的作用范围:

  • User:全局规则,对所有项目生效。
  • cursorTest:项目级规则,只对当前项目生效(优先级更高)

旧版的「system prompt」已经升级为这里的 Rules,功能更强大,还可以配合 Skills(技能)、Subagents(子代理)一起使用

Skills 技能系统

你可以通过SKILL.md文件,定义自己的专属工作流、代码规范、常用命令,Agent 会自动识别并加载使用。比如把公司的代码规范写成 Skill,AI 写代码会自动遵守,不用每次都在 prompt 里重复说明

Subagents 子代理(2026 年 1 月最新更新)

针对超复杂任务,主 Agent 会自动把任务拆分成独立子任务,分给专属子代理并行处理,比如你要做一个完整的前后端项目,它会自动拆分前端、后端、数据库、测试等子任务,同步推进,不用你一步步引导

这个是 Cursor 里的 AI 模型自动选择模式,意思是:

  • Auto(自动模式):当这个开关打开时,Cursor 会根据你当前任务的复杂度,自动选择最合适的 AI 模型(比如简单的代码补全用快模型,复杂的多文件修改用强模型),不用你手动切换。
  • Balanced quality and speed, recommended for most tasks:这是对 Auto 模式的说明,意思是它会在「生成质量」和「响应速度」之间做平衡,适合绝大多数日常开发任务,既不会太慢,也能保证不错的效果。

大概了解了新版本的cursor后,接下来思考如何使用?

1:先规划后执行

先把东西想清楚,规划如何做

专业名词 通俗解释 作用 / 类比
Spec(全称 Specification) 就是「详细的做事说明书 / 规格书」,比 Plan Mode 的 "计划" 更正式、更规范 装修的 "施工图纸 + 材料清单 + 工期表",写得越细,结果越准
OpenSpec/SpecKit 专门用来生成 "正式 Spec" 的外部工具 / 框架(相当于装修的 "设计模板") 不用自己瞎写清单,用现成的模板生成规范的 "做事说明书"

就跟OpenSpec/SpecKit生成Spec一样,cursor也可以使用plan去生成规划,

然后交给Agent执行

2:上下文与规则配置

使用上下文感知的项目规则:新版本已经支持Skills

ps:.mdc 是 Cursor 早期版本 推出的「增强型 Markdown 文件」(可以理解为 "带元数据的 Markdown"),是专门用来定义「项目级细粒度规则」的专属格式 ------ 本质就是比普通 .md 文件多了几行 Cursor 能识别的 "元数据"(比如 globsdescription),用来实现 "精准的上下文感知"。普通的全局规则(Rules)是 "一刀切" 的(对所有文件生效),而 .mdc 文件能实现「编辑特定文件时,才加载对应规则」,避免规则泛滥导致 AI 响应混乱

  • globs:文件匹配规则(和编程里的文件通配符一样),告诉 Cursor "哪些文件要加载这个规则";
符号 含义 例子 匹配效果
* 匹配「任意文件名」(不跨目录) *.py 匹配所有 .py 文件(比如 test.pymain.py
** 匹配「任意目录」(跨目录 / 递归) **/src/*.py 匹配所有目录下 src 文件夹里的 .py 文件(比如 a/src/test.pyb/c/src/main.py
? 匹配「单个字符」(用得少) test?.py 匹配 test1.pytest2.py,不匹配 test10.py
  • description:规则的简短描述,Agent 能看懂,当它需要用到规则时会智能拉取(比如你让 AI 改 Python 代码,它会先看这个 description,再加载完整规则)

新版本(2026.1.26 及以后)优先推荐用 Skills,而非 .mdc 文件

简单说:.mdc 只能 "被动加载规则",而 Skills 能 "主动调用技能"

对比维度 .mdc 文件 Skills
功能范围 仅能定义 "规则" 不仅能定义规则,还能绑定自定义命令、子代理(如 Bash subagent)、触发条件、甚至调用外部工具
触发逻辑 仅靠 globs 匹配文件 支持文件匹配、关键词触发、手动调用等多种方式,更灵活
联动性 仅和 AI 规则联动 和 Agent/Plan/Debug 模式深度联动,能作为 "技能包" 被 AI 主动调用

拆分大文件:重构大文件;以此为目标进行模块化

ps:大文件会产生巨大的上下文开销。AI 必须读取整个文件才能理解一个小小的更改,所以文件过大需要要求AI帮助重构并将其拆分为单一职责的模块(但是随着LSP的发展,后续可能不需要了)

ps:LSP(语言服务器协议):编辑器和 "代码理解专家" 之间的沟通规则,核心是**精准提取代码上下文,**有 LSP:AI 只读相关代码片段 → 开销骤降 → 不用拆分大文件,Cursor 已经部分实现了 LSP 相关能力,只是还没完全覆盖 "大文件精准切片"

  • 比如你在 Cursor 里按住 Ctrl 点击函数名,能跳转到定义处 → 这就是 LSP 让语言服务器找到的;

  • 比如你编辑 Python 文件时,Cursor 能自动提示函数参数 → 也是 LSP 的功劳;

  • 等 Cursor 完全实现 LSP 对大文件的 "精准上下文提取" 后,就不用再手动拆分大文件了

忽略无关文件:使用 .cursorignore (优先级比skills高)排除那些 git 没有忽略但在 AI 上下文中不需要的文件,以防止 Token 浪费

禁用闲置的并且不支持延迟加载的 MCP:在不主动使用时关闭不支持延迟加载的 MCP,不支持延迟加载的闲置MCP 配置会消耗 Token 并分散模型的注意力;仅在专门与外部工具交互时(例如 JIRA MCP)启用 MCP 工具。对于支持延迟加载MCP可以保留,只在命中meta信息时加载必要上下文

ps:MCP 是 Model Context Protocol 「模型上下文协议」:Cursor 里的 AI 模型(LLM)和外部工具 / 服务(比如 JIRA、数据库、API)之间的 "沟通桥梁"

每个 MCP 旁边都会有一个开关(Toggle),用来启用 / 禁用它(我这里还没add MCP)

不支持延迟加载的 MCP 有个 "坑":

  1. 只要你开启它,哪怕半天不用(闲置),它也会一直把自己的配置、连接信息、甚至工具数据塞进 AI 的上下文里;
  2. 后果 1:消耗 Tokens(AI 处理上下文的 "容量"),导致大文件 / 复杂需求时容易超出上下文限制;
  3. 后果 2:分散 AI 注意力(比如你让 AI 改 Python 代码,JIRA MCP 的无关信息会让 AI 分心,甚至出现幻觉)。
MCP 类型 特点 例子
不支持延迟加载 一旦开启,就全程占用 AI 上下文(不管用不用),消耗 Tokens、分散注意力 早期的 JIRA MCP、部分数据库 MCP
支持延迟加载 开启后不占上下文,只有用到时(命中 meta 信息)才加载,用完就释放 新版的 Git MCP、File MCP

「meta 信息」(元信息)就是描述 "信息的信息" :它不直接是代码、文本这类核心内容,而是用来标注 "这个内容是什么、该怎么用、和谁关联" 的辅助信息

比如:Git MCP 的 meta 信息

Git MCP 的 meta 信息就是和 Git 相关的关键词 / 指令

  • 比如你在 Cursor 聊天框输入:"帮我写一个 git commit 信息""解决 git merge 冲突""查看 git log";
  • 这些关键词(git commit/merge/log)就是 Git MCP 的 meta 信息;
  • 只有输入这些词时,Git MCP 才会加载;你只写 "改一下 Python 函数",它就不加载

易混点:meta 信息 ≠ 核心内容

类型 例子(Git MCP 场景) 作用
meta 信息 git commit、JIRA-123 触发 MCP 加载的 "开关"
核心内容 具体的 commit 信息文本 MCP 加载后获取的实际数据

控制输出冗余:明确限制 AI 生成不必要的总结、解释或文档,除非你主动要求

LMM废话说,由于输出 Token 通常比输入 Token 更贵且更慢,冗长的回复会浪费资源并弄乱聊天记录,可以加规则优化,如:"仅在明确要求时才创建新文档。"

3:工作流与交互

拆分任务与管理会话:将复杂功能分解为原子子任务,并频繁开启新对话(New Chat),随着聊天记录的增长,LLM(大模型) 的表现会下降。一个新的对话意味着清除了噪点

ps:不要在一个长对话中完成整个功能,而是为"API 实现"、"前端逻辑"和"UI 样式"创建单独的对话

使用 @:使用 @ 符号手动缩小上下文范围,防止 AI 猜测(并产生幻觉)它需要读取哪些文件

ps:什么是ai幻觉?

AI 明明不知道、没查到、没把握,却一本正经地 「瞎编、胡说、造不存在的东西」,而且说得特别像真的,这就叫 AI 幻觉。

这是大模型(LLM)本身的问题,AI 不是靠 "记忆事实",而是靠预测下一个词最可能是什么 来生成内容。一旦它不确定,就会编得很合理 ,但内容是假的

控制终端噪音:保持日志清洁,并使用高性价比的模型来处理执行任务,[2026.1.26更新] 下载最新版本Cursor,其已经内置Bash subagent(Agent 模式里输入需求后,只要涉及终端操作,都是 Bash subagent 在干活),可以很好的解决这个问题

ps:Bash subagent 解决问题的核心逻辑

  1. 第一步:过滤终端输出,只提取 "高价值信息"(解决日志冗余)

Bash subagent 会先对终端输出做 "降噪处理":

  • 自动识别并丢弃无关内容:比如环境加载日志、非关键警告、重复的调试信息;
  • 精准抓取核心信息:只保留编译错误、运行时报错、命令执行结果等关键内容;
  1. 第二步:匹配 "性价比模型" 处理终端任务(解决模型浪费)

Bash subagent 会根据任务复杂度自动选模型:

  • 简单任务(比如提取报错、执行基础命令):用轻量 / 低价模型(比如 Flash、Grok),速度快、Token 成本低;
  • 复杂任务(比如根据报错改代码):再把关键信息传给高端模型,让高端模型只做 "改代码" 这个核心活;→ 避免用高端模型做 "找报错" 这种低价值工作,实现 "高性价比"。
  1. 第三步:闭环处理,减少无效交互(进一步降低噪音)

Bash subagent 能直接替主 Agent 完成终端相关的闭环操作:

  • 比如你说 "运行 test.py 并修复报错":
    1. Bash subagent 用轻量模型执行 python test.py
    2. 过滤出关键报错;
    3. 只把报错传给主 Agent(高端模型)改代码;
    4. 改完后,Bash subagent 再用轻量模型重新运行验证;→ 全程只有关键信息在模型间传递,没有冗余日志的来回传输,彻底控制 "终端噪音"。

4:故障排除与优化

陷入僵局时的使用重置策略:如果一个 Bug 在多次尝试后仍未修复,**停止并重置;**上下文窗口已经被失败的尝试污染了。继续下去只会导致死循环和糟糕的代码;删除最近的消息或开始一个新的对话。使用更具体的约束条件编辑你的 Prompt。选择 Continue 前先 revert 代码

拒绝并让AI自己改正:使用"Reject(拒绝)"按钮或明确说不正确;你自己默默修复 AI 的糟糕代码并不能教会模型任何东西;如果输出是错误的,拒绝更改并解释原因,强制其自我修正。这同样适用于你想修改现有代码时

5: 处理大型遗留项目

通过日志增强理解:利用 AI 在遗留代码中植入日志以追踪执行流

ps:遗留系统通常包含"僵尸逻辑"(已废弃/死亡但仍存在的代码)和误导性的描述或者注释。日志提供了实际运行情况的"真实数据(Ground Truth)",而不是凭空猜测

如:

  1. 指示 AI 增强核心逻辑的日志记录。
  2. 运行应用程序并分析日志,验证哪些代码块实际上被命中了。
  3. 要求 AI 根据这些发现生成报告

6:模型选择策略

根据任务难度匹配模型,以优化成本和速度

复杂逻辑 / 规划 / 深度调试

简单编辑 / 样板代码 / 测试执行

  • 推荐模型grok-code, Gemini 3 Flash
  • 使用场景:快速修复、编写简单的单元测试、解释终端错误。

如果你不确定复杂度

  • 使用 Auto 模式

其他新功能:

1:Cursor 2.4内置 AI 图像生成器,基于 Google Nano Banana Pro模型,直接在编辑器里生成图片

并自动保存到项目根目录的assets/文件夹

2:cursor blame,责任归属

相关推荐
Elastic 中国社区官方博客2 小时前
Elasticsearch 用于词形还原的开源 Hebrew 分析器
大数据·elasticsearch·搜索引擎·ai·开源·全文检索·中文分词
阿杰学AI2 小时前
AI核心知识112—大语言模型之 Digital Employee Operations Specialist(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·ai岗位·数字员工运营师
阿杰学AI2 小时前
AI核心知识111—大语言模型之 AI Skills Trainer(简洁且通俗易懂版)
人工智能·ai·语言模型·自然语言处理·aigc·ai岗位·ai技能培训师
海绵宝宝de派小星2 小时前
角色设定、任务分解、输出格式控制
ai
JaydenAI3 小时前
[拆解LangChain执行引擎]持久化状态的提取
ai·langchain·agent·pregel
寻星探路15 小时前
【前端基础】HTML + CSS + JavaScript 快速入门(三):JS 与 jQuery 实战
java·前端·javascript·css·c++·ai·html
杨浦老苏17 小时前
本地优先的AI个人助手Moltis
人工智能·docker·ai·群晖
想用offer打牌17 小时前
一站式了解Agent Skills
人工智能·后端·ai编程
一切尽在,你来17 小时前
LangGraph快速入门
人工智能·python·langchain·ai编程