agentscope提取msg+llama_index 查询

其实根本不用保存短期记忆,做个方法:会话结束清空上下文保存长期记忆(不清空没法接着保存),一个会话内的长期记忆文件不应该变化,每次回复都查找一下rag

原文保存:

python 复制代码
current_memory=memory.InMemoryMemory()
async def save_memory():
    """
    获取内存中的历史对话记录
    
    从内存中检索之前存储的对话内容,并以工具响应格式返回。
    主要用于让代理能够访问历史对话上下文信息。
    
    Returns:
        ToolResponse: 包含历史对话内容的工具响应对象
    """
    msgs =await current_memory.get_memory()
    texts = [msg.get_text_content() or "" for msg in msgs]  
    combined = "\n".join(texts)  
    print(f"content:\n---\n{combined}\n---\n")
    return ToolResponse(content=[TextBlock(type="text", text=combined)]) 
   

其实应该让ai总结一下直接写入的

python 复制代码
async def save_memory(Summarized_memory):
    """
    保存AI总结后的对话记忆

    Returns:
        ToolResponse: 保存成功的确认响应
    """
    save_longterm_memory_log(Summarized_memory)
    await llm_agent.memory.clear()
    return ToolResponse(content=[TextBlock(type="text", text="保存成功")]) 
toolkit.register_tool_function(save_memory)  

每次对话前搞个rag引擎

python 复制代码
from datetime import datetime
import sys
import os
sys.path.append(os.getcwd())
# 导入 Ollama 相关模块
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding
from back.api_key import ollama_llm1,  ollama_embedding_model
# 配置 Ollama 模型
Settings.embed_model = OllamaEmbedding(model_name=ollama_embedding_model)
Settings.llm = Ollama(model=ollama_llm1, request_timeout=60.0)

memory_dir = os.path.join(os.getcwd(), "memory_server", "memory_data")
if not os.path.exists(memory_dir):
    os.makedirs(memory_dir)


def save_longterm_memory_log(content):
    """
    将内容保存到memory文件夹下的日志文件中
    
    Args:
        content (str): 要保存的内容
    """

    # 确保memory_data文件夹存在

    # 构建日志文件路径
    log_file_path = os.path.join(memory_dir, f"longterm_memory.txt")
    
    # 获取当前时间戳
    timestamp = datetime.now().strftime("%H:%M")
    
    # 写入日志文件
    try:
        with open(log_file_path, "a", encoding="utf-8") as f:
            f.write(f"[{timestamp}] {content}\n")
 
    except Exception as e:
        print(f"保存日志失败: {e}")


def query_document_index(query_text="你的问题"):
    """
    使用 Ollama 模型查询文档索引
    
    Args:
        query_text (str): 查询的问题文本
        data_dir (str): 文档数据目录路径
        
    Returns:
        response: 查询结果响应
    """
    try:
        # 加载文档数据
        documents = SimpleDirectoryReader("E:/code/my_python_server/memory_server/memory_data").load_data()
        # 创建向量索引
        index = VectorStoreIndex.from_documents(documents)
        
        # 使用 Ollama 模型进行查询
        query_engine = index.as_query_engine()
        response = query_engine.query(query_text)
        
        print(f"查询结果: {response}")
        return response
        
    except Exception as e:
        print(f"文档查询出错: {e}")
        return None


# 使用示例
if __name__ == "__main__":
    response = query_document_index("我喜欢什么")
    if response:
        print(response)
python 复制代码
def retrieve_document_chunks(query_text="你的问题", top_k=5):
    """
    仅检索文档中的相关文本块,不进行问答生成
    
    Args:
        query_text (str): 查询的问题文本
        top_k (int): 返回最相似的文本块数量,默认5个
        
    Returns:
        str: 格式化的检索结果字符串
    """
    try:
        # 加载文档数据
        documents = SimpleDirectoryReader("E:/code/my_python_server/memory_server/memory_data").load_data()
        # 创建向量索引
        index = VectorStoreIndex.from_documents(documents)
        
        # 创建检索器
        retriever = index.as_retriever(similarity_top_k=top_k)
        # 执行检索
        nodes = retriever.retrieve(query_text)
        
        # 构建格式化的字符串结果
        result_lines = []
        result_lines.append(f"共检索到 {len(nodes)} 个相关文本块:")
        result_lines.append("")
        
        for i, node in enumerate(nodes, 1):
            result_lines.append(f"--- 文本块 {i} ---")
            result_lines.append(node.text)
            # 添加相似度分数(如果存在)
            if hasattr(node, 'score') and node.score is not None:
                result_lines.append(f"相似度分数: {node.score:.4f}")
            result_lines.append("")
            
        result_str = "\n".join(result_lines)
        print(f"检索完成: {result_str}")
        return result_str
        
    except Exception as e:
        error_msg = f"文档检索出错: {e}"
        print(error_msg)
        return error_msg
相关推荐
China_Yanhy33 分钟前
动手学大模型第一篇学习总结
人工智能
空间机器人43 分钟前
自动驾驶 ADAS 器件选型:算力只是门票,系统才是生死线
人工智能·机器学习·自动驾驶
C+++Python1 小时前
提示词、Agent、MCP、Skill 到底是什么?
人工智能
小松要进步1 小时前
机器学习1
人工智能·机器学习
泰恒1 小时前
openclaw近期怎么样了?
人工智能·深度学习·机器学习
KaneLogger1 小时前
从传统笔记到 LLM 驱动的结构化 Wiki
人工智能·程序员·架构
tinygone2 小时前
OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp
人工智能·ubuntu·llama
正在走向自律2 小时前
第二章-AIGC入门-AIGC工具全解析:技术控的效率神器,DeepSeek国产大模型的骄傲(8/36)
人工智能·chatgpt·aigc·可灵·deepseek·即梦·阿里通义千问
轩轩分享AI2 小时前
DeepSeek、Kimi、笔灵谁最好用?5款网文作者亲测的AI写作神器横评
人工智能·ai·ai写作·小说写作·小说·小说干货
Aevget2 小时前
基于嵌入向量的智能检索!HOOPS AI 解锁 CAD 零件相似性搜索新方式
人工智能·hoops·cad·hoops ai·cad数据格式