在 LangChain 中集成 Mem0 记忆系统教程

目录

简介

Mem0 是一个强大的记忆系统,可以帮助 AI 应用存储和检索历史对话信息。本教程将介绍如何在 LangChain 应用中集成 Mem0,实现一个具有记忆能力的旅行顾问 AI。

环境准备

首先需要安装必要的依赖:

bash 复制代码
pip install langchain openai mem0

基础配置

首先,我们需要设置基本的配置信息:

python:d:\agent-llm\mem0_test\langchain_mem0.py 复制代码
from openai import OpenAI
from mem0 import Memory
from mem0.configs.base import MemoryConfig
from mem0.embeddings.configs import EmbedderConfig
from mem0.llms.configs import LlmConfig

# 集中管理配置
API_KEY = "your-api-key"
BASE_URL = "your-base-url"

# 配置 Mem0
config = MemoryConfig(
    llm = LlmConfig(
        provider="openai",
        config={
            "model": "qwen-turbo",
            "api_key": API_KEY,
            "openai_base_url": BASE_URL
        }
    ),
    embedder = EmbedderConfig(
        provider="openai",
        config={
            "embedding_dims": 1536,
            "model": "text-embedding-v2",
            "api_key": API_KEY,
            "openai_base_url": BASE_URL
        }
    )
)

mem0 = Memory(config=config)

核心组件说明

1. 提示模板设计

我们使用 LangChain 的 ChatPromptTemplate 来构建对话模板:

python 复制代码
prompt = ChatPromptTemplate.from_messages([
    SystemMessage(content="""You are a helpful travel agent AI..."""),
    MessagesPlaceholder(variable_name="context"),
    HumanMessage(content="{input}")
])

2. 上下文检索

retrieve_context 函数负责从 Mem0 中检索相关记忆:

python 复制代码
def retrieve_context(query: str, user_id: str) -> List[Dict]:
    memories = mem0.search(query, user_id=user_id)
    seralized_memories = ' '.join([mem["memory"] for mem in memories["results"]])
    return [
        {
            "role": "system", 
            "content": f"Relevant information: {seralized_memories}"
        },
        {
            "role": "user",
            "content": query
        }
    ]

3. 响应生成

generate_response 函数使用 LangChain 的链式调用生成回复:

python 复制代码
def generate_response(input: str, context: List[Dict]) -> str:
    chain = prompt | llm
    response = chain.invoke({
        "context": context,
        "input": input
    })
    return response.content

4. 记忆存储

save_interaction 函数将对话保存到 Mem0:

python 复制代码
def save_interaction(user_id: str, user_input: str, assistant_response: str):
    interaction = [
        {"role": "user", "content": user_input},
        {"role": "assistant", "content": assistant_response}
    ]
    mem0.add(interaction, user_id=user_id)

工作流程解析

  1. 记忆检索 :当用户发送消息时,系统会使用 Mem0 的 search 方法检索相关的历史对话。

  2. 上下文整合:系统将检索到的记忆整合到提示模板中,确保 AI 能够理解历史上下文。

  3. 响应生成:使用 LangChain 的链式调用生成回复。

  4. 记忆存储:将新的对话内容存储到 Mem0 中,供future使用。

使用示例

python 复制代码
if __name__ == "__main__":
    print("Welcome to your personal Travel Agent Planner!")
    user_id = "john"
    
    while True:
        user_input = input("You: ")
        if user_input.lower() in ['quit', 'exit', 'bye']:
            break
        
        response = chat_turn(user_input, user_id)
        print("Travel Agent:", response)

关键特性

  1. 用户隔离 :通过 user_id 实现多用户数据隔离
  2. 语义搜索:Mem0 使用向量嵌入进行语义相似度搜索
  3. 上下文感知:AI 能够理解并利用历史对话信息
  4. 灵活扩展:易于集成到现有的 LangChain 应用中

完整代码与效果

python 复制代码
from openai import OpenAI
from mem0 import Memory
from mem0.configs.base import MemoryConfig
from mem0.embeddings.configs import EmbedderConfig
from mem0.llms.configs import LlmConfig

from langchain_openai import ChatOpenAI
from langchain_core.messages import SystemMessage, HumanMessage, AIMessage
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from typing import List, Dict
# 集中管理配置
API_KEY = "your api key"
BASE_URL = "https://dashscope.aliyuncs.com/compatible-mode/v1"

# OpenAI客户端配置
openai_client = OpenAI(
    api_key=API_KEY,
    base_url=BASE_URL,
)

# LangChain LLM配置
llm = ChatOpenAI(
    temperature=0,
    openai_api_key=API_KEY,
    openai_api_base=BASE_URL,
    model="qwen-turbo"
)

# Mem0配置
config = MemoryConfig(
    llm = LlmConfig(
        provider="openai",
        config={
            "model": "qwen-turbo",
            "api_key": API_KEY,
            "openai_base_url": BASE_URL
        }
    ),
    embedder = EmbedderConfig(
        provider="openai",
        config={
            "embedding_dims": 1536,
            "model": "text-embedding-v2",
            "api_key": API_KEY,
            "openai_base_url": BASE_URL
        }
    )
)

mem0 = Memory(config=config)


prompt = ChatPromptTemplate.from_messages([
    SystemMessage(content="""You are a helpful travel agent AI. Use the provided context to personalize your responses and remember user preferences and past interactions. 
    Provide travel recommendations, itinerary suggestions, and answer questions about destinations. 
    If you don't have specific information, you can make general suggestions based on common travel knowledge."""),
    MessagesPlaceholder(variable_name="context"),
    HumanMessage(content="{input}")
])

def retrieve_context(query: str, user_id: str) -> List[Dict]:
    """Retrieve relevant context from Mem0"""
    memories = mem0.search(query, user_id=user_id)
    seralized_memories = ' '.join([mem["memory"] for mem in memories["results"]])
    context = [
        {
            "role": "system", 
            "content": f"Relevant information: {seralized_memories}"
        },
        {
            "role": "user",
            "content": query
        }
    ]
    return context

def generate_response(input: str, context: List[Dict]) -> str:
    """Generate a response using the language model"""
    chain = prompt | llm
    response = chain.invoke({
        "context": context,
        "input": input
    })
    return response.content

def save_interaction(user_id: str, user_input: str, assistant_response: str):
    """Save the interaction to Mem0"""
    interaction = [
        {
          "role": "user",
          "content": user_input
        },
        {
            "role": "assistant",
            "content": assistant_response
        }
    ]
    mem0.add(interaction, user_id=user_id)

def chat_turn(user_input: str, user_id: str) -> str:
    # Retrieve context
    context = retrieve_context(user_input, user_id)
    
    # Generate response
    response = generate_response(user_input, context)
    
    # Save interaction
    save_interaction(user_id, user_input, response)
    
    return response

if __name__ == "__main__":
    print("Welcome to your personal Travel Agent Planner! How can I assist you with your travel plans today?")
    user_id = "john"
    
    while True:
        user_input = input("You: ")
        if user_input.lower() in ['quit', 'exit', 'bye']:
            print("Travel Agent: Thank you for using our travel planning service. Have a great trip!")
            break
        
        response = chat_turn(user_input, user_id)
        print(f"Travel Agent: {response}")

参考链接:https://docs.mem0.ai/integrations/langchain

相关推荐
练习两年半的工程师1 天前
使用Gemini, LangChain, Gradio打造一个书籍推荐系统 (第一部分)
langchain
Cachel wood2 天前
算法与数据结构:质数、互质判定和裴蜀定理
数据结构·算法·microsoft·机器学习·数据挖掘·langchain
张高兴2 天前
张高兴的大模型开发实战:(六)在 LangGraph 中使用 MCP 协议
ai·langchain·大模型
行云流水行云流水5 天前
通义千问-langchain使用构建(三)
langchain
聚客AI5 天前
ChatGPT到Claude全适配:跨模型Prompt高级设计规范与迁移技巧
人工智能·机器学习·语言模型·自然语言处理·langchain·transformer·llama
后端研发Marion5 天前
LangFlow技术深度解析:可视化编排LangChain应用的新范式 -(2)流编辑器系统
langchain·智能体·langflow
无心水6 天前
【程序员AI入门:模型】19.开源模型工程化全攻略:从选型部署到高效集成,LangChain与One-API双剑合璧
人工智能·langchain·开源·ai入门·程序员ai开发入门·程序员的 ai 开发第一课·程序员ai入门
lxsy6 天前
langchain 接入国内搜索api——百度AI搜索
langchain·百度ai搜索
明明跟你说过7 天前
掌握 LangChain 文档处理核心:Document Loaders 与 Text Splitters 全解析
人工智能·语言模型·自然语言处理·langchain