其实根本不用保存短期记忆,做个方法:会话结束清空上下文保存长期记忆(不清空没法接着保存),一个会话内的长期记忆文件不应该变化,每次回复都查找一下rag
原文保存:
python
current_memory=memory.InMemoryMemory()
async def save_memory():
"""
获取内存中的历史对话记录
从内存中检索之前存储的对话内容,并以工具响应格式返回。
主要用于让代理能够访问历史对话上下文信息。
Returns:
ToolResponse: 包含历史对话内容的工具响应对象
"""
msgs =await current_memory.get_memory()
texts = [msg.get_text_content() or "" for msg in msgs]
combined = "\n".join(texts)
print(f"content:\n---\n{combined}\n---\n")
return ToolResponse(content=[TextBlock(type="text", text=combined)])
其实应该让ai总结一下直接写入的
python
async def save_memory(Summarized_memory):
"""
保存AI总结后的对话记忆
Returns:
ToolResponse: 保存成功的确认响应
"""
save_longterm_memory_log(Summarized_memory)
await llm_agent.memory.clear()
return ToolResponse(content=[TextBlock(type="text", text="保存成功")])
toolkit.register_tool_function(save_memory)
每次对话前搞个rag引擎
python
from datetime import datetime
import sys
import os
sys.path.append(os.getcwd())
# 导入 Ollama 相关模块
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding
from back.api_key import ollama_llm1, ollama_embedding_model
# 配置 Ollama 模型
Settings.embed_model = OllamaEmbedding(model_name=ollama_embedding_model)
Settings.llm = Ollama(model=ollama_llm1, request_timeout=60.0)
memory_dir = os.path.join(os.getcwd(), "memory_server", "memory_data")
if not os.path.exists(memory_dir):
os.makedirs(memory_dir)
def save_longterm_memory_log(content):
"""
将内容保存到memory文件夹下的日志文件中
Args:
content (str): 要保存的内容
"""
# 确保memory_data文件夹存在
# 构建日志文件路径
log_file_path = os.path.join(memory_dir, f"longterm_memory.txt")
# 获取当前时间戳
timestamp = datetime.now().strftime("%H:%M")
# 写入日志文件
try:
with open(log_file_path, "a", encoding="utf-8") as f:
f.write(f"[{timestamp}] {content}\n")
except Exception as e:
print(f"保存日志失败: {e}")
def query_document_index(query_text="你的问题"):
"""
使用 Ollama 模型查询文档索引
Args:
query_text (str): 查询的问题文本
data_dir (str): 文档数据目录路径
Returns:
response: 查询结果响应
"""
try:
# 加载文档数据
documents = SimpleDirectoryReader("E:/code/my_python_server/memory_server/memory_data").load_data()
# 创建向量索引
index = VectorStoreIndex.from_documents(documents)
# 使用 Ollama 模型进行查询
query_engine = index.as_query_engine()
response = query_engine.query(query_text)
print(f"查询结果: {response}")
return response
except Exception as e:
print(f"文档查询出错: {e}")
return None
# 使用示例
if __name__ == "__main__":
response = query_document_index("我喜欢什么")
if response:
print(response)
python
def retrieve_document_chunks(query_text="你的问题", top_k=5):
"""
仅检索文档中的相关文本块,不进行问答生成
Args:
query_text (str): 查询的问题文本
top_k (int): 返回最相似的文本块数量,默认5个
Returns:
str: 格式化的检索结果字符串
"""
try:
# 加载文档数据
documents = SimpleDirectoryReader("E:/code/my_python_server/memory_server/memory_data").load_data()
# 创建向量索引
index = VectorStoreIndex.from_documents(documents)
# 创建检索器
retriever = index.as_retriever(similarity_top_k=top_k)
# 执行检索
nodes = retriever.retrieve(query_text)
# 构建格式化的字符串结果
result_lines = []
result_lines.append(f"共检索到 {len(nodes)} 个相关文本块:")
result_lines.append("")
for i, node in enumerate(nodes, 1):
result_lines.append(f"--- 文本块 {i} ---")
result_lines.append(node.text)
# 添加相似度分数(如果存在)
if hasattr(node, 'score') and node.score is not None:
result_lines.append(f"相似度分数: {node.score:.4f}")
result_lines.append("")
result_str = "\n".join(result_lines)
print(f"检索完成: {result_str}")
return result_str
except Exception as e:
error_msg = f"文档检索出错: {e}"
print(error_msg)
return error_msg