开源 | ai-memory v2.6.2:不用配 API Key,一行命令把 Cursor 对话变成结构化知识库

开源 | ai-memory v2.6.2:不用配 API Key,一行命令把 Cursor 对话变成结构化知识库

开源地址https://github.com/hyxnj666-creator/ai-memory
npmnpx ai-memory-cli@latest
协议:MIT


一行命令,直接跑,不需要任何配置

很多工具的"快速上手"其实并不快------要先注册账号、申请 API Key、填写配置文件,折腾半天才能跑起来第一个 demo。

ai-memory v2.6.2 把这个门槛彻底去掉了:

bash 复制代码
npx ai-memory-cli extract

就这一行。不用配 .env,不用申请任何 Key,工具内置了免费模型,打开终端直接跑。


它能做什么?

ai-memory 直接读你 Cursor / Claude Code / Windsurf / Copilot / Codex 里的聊天记录,用 LLM 提取出结构化知识,保存成本地 Markdown 文件:

复制代码
.ai-memory/
  conor/
    decisions/     ← 技术决策
    architecture/  ← 架构设计
    conventions/   ← 编码规范
    todos/         ← 待办任务
    issues/        ← 发现的问题

每条记忆都是一个独立的 Markdown 文件,可以 git 追踪、可以 code review,数据完全在本地。

提取完之后,下次新开 AI 对话,一行命令把历史上下文复制进去:

bash 复制代码
npx ai-memory-cli context --copy

或者生成 AGENTS.md,让 Cursor / Claude Code / Windsurf 每次自动读取:

bash 复制代码
npx ai-memory-cli rules --target agents-md

内置免费模型的细节

v2.6.2 内置了 SiliconFlow 的 DeepSeek-V4-Flash 作为默认模型,适合体验和小规模提取:

  • 每次运行最多处理 2 个对话
  • 每个对话最多处理 20 个文本块(超出部分均匀采样,保证覆盖全文)
  • 完全免费,不需要你的任何 Key

如果你有大量历史对话要提取,配上自己的 Key 即可解锁不限量:

bash 复制代码
# .env.local(放在项目根目录)
OPENAI_API_KEY=sk-...
# 兼容任意 OpenAI 格式的代理,比如硅基流动、DeepSeek 官方等
OPENAI_BASE_URL=https://api.siliconflow.cn/v1

实际跑一次看看

查看可提取的对话

bash 复制代码
npx ai-memory-cli list

输出大概长这样------每行一个对话,显示编号、日期、消息数和标题:

复制代码
 #  Date        Msgs  Title
 1  2026-04-25   47   OAuth 登录方案讨论
 2  2026-04-24   83   账单模块 Event Sourcing 设计
 3  2026-04-22   31   前端路由重构
...

选几个提取

bash 复制代码
# 用内置免费模型,直接跑(最多 2 个对话)
npx ai-memory-cli extract --pick 1,2

执行过程中会显示进度,每个对话分块并行处理,完成后输出汇总:

复制代码
✔ conor/decisions/2026-04-25-adopt-oauth-pkce.md
✔ conor/architecture/2026-04-24-event-sourcing-billing.md
...

Extracted 47 memories  (decision: 18 | architecture: 12 | todo: 9 | issue: 6 | convention: 2)
Quality filter removed 3 low-quality items

打开可视化 Dashboard

bash 复制代码
npx ai-memory-cli dashboard

浏览器打开 http://localhost:3141,可以看到:

  • Conversations 页面:每个对话产出了多少条记忆,类型分布一目了然
  • Overview 页面:总记忆数、按类型/时间线/作者的分布统计
  • Quality 页面:被过滤掉的低质量条目,以及保留率

和其他 AI Memory 工具的区别

市面上的 Memory 工具(mem0、Letta、Zep 等)通常需要你在代码里手动调 API:

python 复制代码
# 其他工具的用法------需要改你的代码
client.add("用户说了什么", user_id="...")

ai-memory 完全不一样:不需要改任何代码,直接读编辑器已有的聊天记录。

对比维度 ai-memory 其他 Memory 工具
数据来源 直接读编辑器聊天记录 需要手动调 API 写入
存储格式 纯 Markdown,放在 git 里 专有数据库 / 云端
隐私 完全本地,数据不出机器 大多数需要上传到云
版本控制 git diff 可读 只有最新状态
零代码改造 不需要改任何代码 需要在应用代码里埋点
跨工具 Cursor / Claude Code / Windsurf / Copilot / Codex 通常绑定一个平台

更多命令

bash 复制代码
# 增量提取(只处理新增对话,定期运行)
npx ai-memory-cli extract --incremental

# 搜索历史决策(含 git 变更轨迹)
npx ai-memory-cli recall "OAuth"

# 只加载某一个对话的上下文
npx ai-memory-cli context --source-id e0ef3946 --copy

# 注册每天定时自动提取
npx ai-memory-cli init --schedule

# 扫描最近 git commit,自动关联实现了哪条记忆
npx ai-memory-cli link

# 不想安装,先试用一下
npx ai-memory-cli try

技术信息

  • 语言:TypeScript,Node.js 18+
  • 提取质量:CCEB 基准测试 F1 76.2%(gpt-4o-mini,30 条手写 fixture)
  • 测试覆盖:585 个单元测试
  • 本地优先:支持 Ollama / LM Studio 完全离线运行
  • MCP Server:内置 MCP 服务,Cursor / Claude Code 可直接通过 MCP 访问记忆

开源信息

如果你在用 Cursor / Claude Code 做开发,希望这个工具能帮你把散落在各个对话里的知识沉淀下来。欢迎 Star、提 Issue 和 PR!

相关推荐
刘~浪地球2 小时前
DeepSeek V4 安全性与伦理:AI发展之路的思考
人工智能·deepseek v4
木枷2 小时前
rl/swe/sft相关论文列表
人工智能·深度学习
爱学习的张大2 小时前
具身智能论文精度(八):Pi0.6
人工智能·深度学习
析稿AI写作2 小时前
如何系统整合文献资源,写出有理论根基与深度的学术论文?
人工智能·ai写作·论文笔记
EnCi Zheng2 小时前
02-序列到序列模型
人工智能·神经网络·transformer
一起学开源2 小时前
企业级AI应用开发底座应该怎么设计?
人工智能·系统架构·智能体
生成论实验室2 小时前
《事件关系阴阳博弈动力学:识势应势之道》第二篇:阴阳博弈——认知的动力学基础
数据结构·人工智能·科技·神经网络·算法
guslegend2 小时前
第3章:快速入门SpringAI Alibaba
人工智能·springai
:mnong2 小时前
打造 AI 级 Agent 架构
人工智能·架构