开源 | ai-memory v2.6.2:不用配 API Key,一行命令把 Cursor 对话变成结构化知识库
开源地址 :https://github.com/hyxnj666-creator/ai-memory
npm :npx ai-memory-cli@latest
协议:MIT
一行命令,直接跑,不需要任何配置
很多工具的"快速上手"其实并不快------要先注册账号、申请 API Key、填写配置文件,折腾半天才能跑起来第一个 demo。
ai-memory v2.6.2 把这个门槛彻底去掉了:
bash
npx ai-memory-cli extract
就这一行。不用配 .env,不用申请任何 Key,工具内置了免费模型,打开终端直接跑。
它能做什么?
ai-memory 直接读你 Cursor / Claude Code / Windsurf / Copilot / Codex 里的聊天记录,用 LLM 提取出结构化知识,保存成本地 Markdown 文件:
.ai-memory/
conor/
decisions/ ← 技术决策
architecture/ ← 架构设计
conventions/ ← 编码规范
todos/ ← 待办任务
issues/ ← 发现的问题
每条记忆都是一个独立的 Markdown 文件,可以 git 追踪、可以 code review,数据完全在本地。
提取完之后,下次新开 AI 对话,一行命令把历史上下文复制进去:
bash
npx ai-memory-cli context --copy
或者生成 AGENTS.md,让 Cursor / Claude Code / Windsurf 每次自动读取:
bash
npx ai-memory-cli rules --target agents-md
内置免费模型的细节
v2.6.2 内置了 SiliconFlow 的 DeepSeek-V4-Flash 作为默认模型,适合体验和小规模提取:
- 每次运行最多处理 2 个对话
- 每个对话最多处理 20 个文本块(超出部分均匀采样,保证覆盖全文)
- 完全免费,不需要你的任何 Key
如果你有大量历史对话要提取,配上自己的 Key 即可解锁不限量:
bash
# .env.local(放在项目根目录)
OPENAI_API_KEY=sk-...
# 兼容任意 OpenAI 格式的代理,比如硅基流动、DeepSeek 官方等
OPENAI_BASE_URL=https://api.siliconflow.cn/v1
实际跑一次看看
查看可提取的对话
bash
npx ai-memory-cli list
输出大概长这样------每行一个对话,显示编号、日期、消息数和标题:
# Date Msgs Title
1 2026-04-25 47 OAuth 登录方案讨论
2 2026-04-24 83 账单模块 Event Sourcing 设计
3 2026-04-22 31 前端路由重构
...
选几个提取
bash
# 用内置免费模型,直接跑(最多 2 个对话)
npx ai-memory-cli extract --pick 1,2
执行过程中会显示进度,每个对话分块并行处理,完成后输出汇总:
✔ conor/decisions/2026-04-25-adopt-oauth-pkce.md
✔ conor/architecture/2026-04-24-event-sourcing-billing.md
...
Extracted 47 memories (decision: 18 | architecture: 12 | todo: 9 | issue: 6 | convention: 2)
Quality filter removed 3 low-quality items
打开可视化 Dashboard
bash
npx ai-memory-cli dashboard
浏览器打开 http://localhost:3141,可以看到:
- Conversations 页面:每个对话产出了多少条记忆,类型分布一目了然
- Overview 页面:总记忆数、按类型/时间线/作者的分布统计
- Quality 页面:被过滤掉的低质量条目,以及保留率
和其他 AI Memory 工具的区别
市面上的 Memory 工具(mem0、Letta、Zep 等)通常需要你在代码里手动调 API:
python
# 其他工具的用法------需要改你的代码
client.add("用户说了什么", user_id="...")
ai-memory 完全不一样:不需要改任何代码,直接读编辑器已有的聊天记录。
| 对比维度 | ai-memory | 其他 Memory 工具 |
|---|---|---|
| 数据来源 | 直接读编辑器聊天记录 | 需要手动调 API 写入 |
| 存储格式 | 纯 Markdown,放在 git 里 | 专有数据库 / 云端 |
| 隐私 | 完全本地,数据不出机器 | 大多数需要上传到云 |
| 版本控制 | git diff 可读 |
只有最新状态 |
| 零代码改造 | 不需要改任何代码 | 需要在应用代码里埋点 |
| 跨工具 | Cursor / Claude Code / Windsurf / Copilot / Codex | 通常绑定一个平台 |
更多命令
bash
# 增量提取(只处理新增对话,定期运行)
npx ai-memory-cli extract --incremental
# 搜索历史决策(含 git 变更轨迹)
npx ai-memory-cli recall "OAuth"
# 只加载某一个对话的上下文
npx ai-memory-cli context --source-id e0ef3946 --copy
# 注册每天定时自动提取
npx ai-memory-cli init --schedule
# 扫描最近 git commit,自动关联实现了哪条记忆
npx ai-memory-cli link
# 不想安装,先试用一下
npx ai-memory-cli try
技术信息
- 语言:TypeScript,Node.js 18+
- 提取质量:CCEB 基准测试 F1 76.2%(gpt-4o-mini,30 条手写 fixture)
- 测试覆盖:585 个单元测试
- 本地优先:支持 Ollama / LM Studio 完全离线运行
- MCP Server:内置 MCP 服务,Cursor / Claude Code 可直接通过 MCP 访问记忆
开源信息
- GitHub:https://github.com/hyxnj666-creator/ai-memory
- npm:https://www.npmjs.com/package/ai-memory-cli
- 版本:v2.6.2
- 协议:MIT License
如果你在用 Cursor / Claude Code 做开发,希望这个工具能帮你把散落在各个对话里的知识沉淀下来。欢迎 Star、提 Issue 和 PR!