agentscope提取msg+llama_index 查询

其实根本不用保存短期记忆,做个方法:会话结束清空上下文保存长期记忆(不清空没法接着保存),一个会话内的长期记忆文件不应该变化,每次回复都查找一下rag

原文保存:

python 复制代码
current_memory=memory.InMemoryMemory()
async def save_memory():
    """
    获取内存中的历史对话记录
    
    从内存中检索之前存储的对话内容,并以工具响应格式返回。
    主要用于让代理能够访问历史对话上下文信息。
    
    Returns:
        ToolResponse: 包含历史对话内容的工具响应对象
    """
    msgs =await current_memory.get_memory()
    texts = [msg.get_text_content() or "" for msg in msgs]  
    combined = "\n".join(texts)  
    print(f"content:\n---\n{combined}\n---\n")
    return ToolResponse(content=[TextBlock(type="text", text=combined)]) 
   

其实应该让ai总结一下直接写入的

python 复制代码
async def save_memory(Summarized_memory):
    """
    保存AI总结后的对话记忆

    Returns:
        ToolResponse: 保存成功的确认响应
    """
    save_longterm_memory_log(Summarized_memory)
    await llm_agent.memory.clear()
    return ToolResponse(content=[TextBlock(type="text", text="保存成功")]) 
toolkit.register_tool_function(save_memory)  

每次对话前搞个rag引擎

python 复制代码
from datetime import datetime
import sys
import os
sys.path.append(os.getcwd())
# 导入 Ollama 相关模块
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding
from back.api_key import ollama_llm1,  ollama_embedding_model
# 配置 Ollama 模型
Settings.embed_model = OllamaEmbedding(model_name=ollama_embedding_model)
Settings.llm = Ollama(model=ollama_llm1, request_timeout=60.0)

memory_dir = os.path.join(os.getcwd(), "memory_server", "memory_data")
if not os.path.exists(memory_dir):
    os.makedirs(memory_dir)


def save_longterm_memory_log(content):
    """
    将内容保存到memory文件夹下的日志文件中
    
    Args:
        content (str): 要保存的内容
    """

    # 确保memory_data文件夹存在

    # 构建日志文件路径
    log_file_path = os.path.join(memory_dir, f"longterm_memory.txt")
    
    # 获取当前时间戳
    timestamp = datetime.now().strftime("%H:%M")
    
    # 写入日志文件
    try:
        with open(log_file_path, "a", encoding="utf-8") as f:
            f.write(f"[{timestamp}] {content}\n")
 
    except Exception as e:
        print(f"保存日志失败: {e}")


def query_document_index(query_text="你的问题"):
    """
    使用 Ollama 模型查询文档索引
    
    Args:
        query_text (str): 查询的问题文本
        data_dir (str): 文档数据目录路径
        
    Returns:
        response: 查询结果响应
    """
    try:
        # 加载文档数据
        documents = SimpleDirectoryReader("E:/code/my_python_server/memory_server/memory_data").load_data()
        # 创建向量索引
        index = VectorStoreIndex.from_documents(documents)
        
        # 使用 Ollama 模型进行查询
        query_engine = index.as_query_engine()
        response = query_engine.query(query_text)
        
        print(f"查询结果: {response}")
        return response
        
    except Exception as e:
        print(f"文档查询出错: {e}")
        return None


# 使用示例
if __name__ == "__main__":
    response = query_document_index("我喜欢什么")
    if response:
        print(response)
python 复制代码
def retrieve_document_chunks(query_text="你的问题", top_k=5):
    """
    仅检索文档中的相关文本块,不进行问答生成
    
    Args:
        query_text (str): 查询的问题文本
        top_k (int): 返回最相似的文本块数量,默认5个
        
    Returns:
        str: 格式化的检索结果字符串
    """
    try:
        # 加载文档数据
        documents = SimpleDirectoryReader("E:/code/my_python_server/memory_server/memory_data").load_data()
        # 创建向量索引
        index = VectorStoreIndex.from_documents(documents)
        
        # 创建检索器
        retriever = index.as_retriever(similarity_top_k=top_k)
        # 执行检索
        nodes = retriever.retrieve(query_text)
        
        # 构建格式化的字符串结果
        result_lines = []
        result_lines.append(f"共检索到 {len(nodes)} 个相关文本块:")
        result_lines.append("")
        
        for i, node in enumerate(nodes, 1):
            result_lines.append(f"--- 文本块 {i} ---")
            result_lines.append(node.text)
            # 添加相似度分数(如果存在)
            if hasattr(node, 'score') and node.score is not None:
                result_lines.append(f"相似度分数: {node.score:.4f}")
            result_lines.append("")
            
        result_str = "\n".join(result_lines)
        print(f"检索完成: {result_str}")
        return result_str
        
    except Exception as e:
        error_msg = f"文档检索出错: {e}"
        print(error_msg)
        return error_msg
相关推荐
小和尚同志1 小时前
什么?oh-my-opencode 太重了?那试试 oh-my-opencode-slim
人工智能·aigc
一路往蓝-Anbo2 小时前
第 9 章:Linux 设备树 (DTS) ——屏蔽与独占外设
linux·运维·服务器·人工智能·stm32·嵌入式硬件
飞哥数智坊2 小时前
把模型焊死在芯片上,就能跑出 17,000 tokens/秒?这是一条死路,还是一条新路?
人工智能
多恩Stone3 小时前
【3D-AICG 系列-11】Trellis 2 的 Shape VAE 训练流程梳理
人工智能·pytorch·算法·3d·aigc
tuotali20263 小时前
氢气压缩机技术规范亲测案例分享
人工智能·python
Coder_Boy_3 小时前
Java(Spring AI)传统项目智能化改造——商业化真实案例(含完整核心代码+落地指南)
java·人工智能·spring boot·spring·微服务
CoderJia程序员甲3 小时前
GitHub 热榜项目 - 日榜(2026-02-23)
人工智能·ai·大模型·github·ai教程
冬奇Lab4 小时前
MCP 集成实战:连接外部世界
人工智能·ai编程·claude
罗政4 小时前
AI图片识别批量提取医疗器械铭牌信息实战
人工智能