本文来自莫尔索,最近我花了不少时间研究 AI 系统的记忆机制,越看越觉得有意思。ChatGPT 和 Claude 这两个最主流的 AI 助手,在记忆系统的设计上走了完全相反的路。一个选择了"无感知的全面记忆",另一个选择了"用户主导的按需回忆",这背后其实反映了一个更深层的问题:AI 到底该如何记住我们?今天想和大家分享一下我的发现,以及这背后透露出的产品哲学差异。
ChatGPT:把一切都记下来
先说 ChatGPT,Sam Altman 把记忆功能称为他"最喜欢的特性",这话不是随便说说的。ChatGPT 的记忆系统可以说是"全家桶"配置,包含四个模块:
-
交互元数据(Interaction Metadata):系统会自动记录你的设备信息、使用习惯等。比如我问"相机坏了怎么办",ChatGPT 直接给我 iPhone 的解决方案,因为它知道我用的是 iPhone,它还知道我 77% 的时间在用 thinking model,所以会优先推荐这类模型。
-
最近对话内容(Recent Conversation Content):保存最近 40 次左右的对话记录,有个细节挺有意思------只记录用户说的话,不记 AI 的回复。这样做可能是为了节省 token,也可能是发现用户的输入就足够提供上下文了。
-
模型设置上下文(Model Set Context):这是用户可以直接控制的部分。你告诉 ChatGPT"我对虾过敏",它会把这个信息存起来,每次对话都会考虑进去,这部分记忆你可以在设置里查看和删除。
-
用户知识记忆(User Knowledge Memories):这是最有意思的部分。OpenAI 会定期把你几百次对话压缩成十来段密集的描述。
有位开发者 Shlok Khemani 做了个精彩的类比:ChatGPT 的记忆系统就像 LLM 本身的训练过程。User Knowledge Memories 就像预训练的基础模型,包含大量压缩的知识但会过时;Model Set Context 像 RLHF,用户的明确指令会覆盖基础知识;Recent Conversation Content 像 in-context learning,提供即时的上下文;Interaction Metadata 像系统默认设置。
关键是ChatGPT 每次对话都会把所有这些记忆全部加载进来。没有什么复杂的检索系统,没有向量数据库,就是简单粗暴地全部塞进 context。
Claude:让用户决定何时回忆
Claude 的做法完全不同。它默认每次对话都是白板状态,只有当你明确要求时才会调用记忆。当你说"我们之前聊过什么"或者"继续上次的话题"时,Claude 会调用两个工具:
- conversation_search:按关键词搜索历史对话。当我问"还记得我们聊过的 SaaS 话题吗?",Claude 会去显式的检索相关对话。
- recent_chats:按时间检索对话。你可以问"最近 10 次我们聊了什么"或者"去年 11 月最后一周的对话",你能看到 Claude 在实时搜索,会有加载时间。
这种透明度让我觉得更可控------我知道它什么时候在翻历史,翻了什么。有意思的是,就在上周,Anthropic 为企业版用户推出了一个更接近 ChatGPT 的记忆功能,会自动生成用户画像,看来两家也在相互学习。
为什么会有这么大的差异?
这种差异其实反映了两家公司完全不同的用户定位。ChatGPT 有几亿周活用户,覆盖学生、家长、各行各业的普通人,他们要的是一个"开箱即用"的产品,不想管什么记忆机制,只要好用就行,所以 ChatGPT 选择了自动化------默默记住一切,需要时自动调用。
Claude 的用户群体更偏技术和专业人士,Anthropic 的 CPO Mike Krieger 承认 OpenAI 在消费市场已经取得绝对优势,所以 Anthropic专注于开发者工具和专业工作流。这些用户理解 LLM 的工作原理,愿意为了更好的控制权接受额外的操作步骤,他们知道调用记忆会增加延迟,但这是他们主动做出的权衡。
Memory 的未来:超越记忆本身
一场关于 Context 的争夺战
Memory 系统的价值远不止"记住用户说过什么"。其核心在于争夺 AI 时代最关键的资源------Context 的控制权。
从技术架构看,当前主要有两条发展路径。一是 AI-native 的三层模型:
- L0 层:基于原始数据的记忆(类似 RAG)
- L1 层:以自然语言形式存储的记忆
- L2 层:将记忆参数化并融入模型权重
另一条路径借鉴人类记忆机制,划分为工作记忆、事件记忆、语义记忆和程序记忆。目前的 Memory 系统仍处于初级阶段:开发者预设某种结构(如图谱、用户画像或嵌入向量),再由模型填充内容。但未来的系统应更灵活、智能,能够自主组织和管理记忆空间。
未来的 Memory 系统
Memory 的本质不是"记忆",而是对用户生成 context 的高效管理与再利用。这一方向可分为两个层面:
User Memory :通过积累用户行为与表达,深化用户建模与需求预测。例如,在 A 应用中提及"最近失眠",B 应用即可推荐助眠产品。当然,这需要解决隐私保护的关键问题。
Agent Memory:潜力更为广阔。未来一个 Agent 执行复杂任务可能涉及上千步操作,如何压缩并复用这些经验?如何让相同任务下次仅需百步完成?这正是 Memory 技术可提供的核心价值。
有人担忧:随着模型 context window 不断扩展,Memory 功能会被模型自身吸收。但实际情况可能正相反------这类似于杰文斯悖论:效率提升反而刺激更多使用。当模型能处理 1 亿 token 时,用户会充分利用这一能力,因为届时 AI 面对的问题也将更加庞大和复杂。
写在最后
Memory 这个领域现在还太早期,甚至可以说和整个 AI 世界的发展有点脱节。当大家都在强调 Agent 要"less structure, more intelligence"时,Memory 领域还在纠结用什么数据结构存储。但这恰恰说明机会还在。谁能在模型能力和应用需求之间找到合适的生态位,谁能真正理解 context 管理的复杂性并提供解决方案,谁就可能成为 AI 时代的 Databricks。
最后想问问大家:你更喜欢 ChatGPT 的"默默记住一切",还是 Claude 的"需要时才回忆"?或者说,你理想中的 AI 记忆系统应该是什么样的?欢迎在评论区分享你的想法。如果你对 AI 产品的技术细节感兴趣,也欢迎关注我的公众号,我会持续分享这个领域的观察和思考。
内容参考来源:
- Mem is all you need(对谈 Memobase Gus):https://mp.weixin.qq.com/s/EJKD7IVowasRtYX3OWuYXQ
- ChatGPT Memory and the Bitter Lesson:https://www.shloked.com/writing/chatgpt-memory-bitter-lesson
- Claude Memory: A Different Philosophy:https://www.shloked.com/writing/claude-memory