Json格式few-show prompt template报错问题

想要对json格式的输出添加一些example,类似这样。

python 复制代码
CHAT_SELF_RAG_USER_TEMPLATE = """
请基于上下文检索片段以及联网搜索结果来回答用户问题。
天气、新闻等与时效相关的信息优先使用联网结果,知识类、种草类优先使用检索文本。
使用帖子信息时:
把参考的帖子ID和回复文本一起按照要求的json格式输出。确保输出是json格式。
回答问题时,尽量尊重参考内容,引用参考内容观点,例如:ta们说:xxx,回复文本不要出现帖子id。
例如:
{
   "content":"ta们说:木屋烧烤的烤串很赞,服务也很不错,价格也便宜,推荐给大家。",
   "referencePostIds":["123456789"]
}

使用联网搜索结果时:
结合联网搜索内容,回答用户疑问。直接回复内容就好,参考帖子ID不用填内容。

如果不知道答案,则作为普通闲聊指令。

参考的帖子内容是:
{context}

参考的联网搜索结果是:
{search_content}

{format_instructions}

用户输入:{question}
"""

但是运行时报错,会提示找不到key "content",原因是PromptTemplate会错误的把json示例中的内容也当做需填充内容。

修复方案

将所有{ }额外多写一个,以绕过这个规则。修改后如下:

python 复制代码
CHAT_SELF_RAG_USER_TEMPLATE = """
请基于上下文检索片段以及联网搜索结果来回答用户问题。
天气、新闻等与时效相关的信息优先使用联网结果,知识类、种草类优先使用检索文本。
使用帖子信息时:
把参考的帖子ID和回复文本一起按照要求的json格式输出。确保输出是json格式。
回答问题时,尽量尊重参考内容,引用参考内容观点,例如:ta们说:xxx,回复文本不要出现帖子id。
例如:
{{
   "content":"ta们说:木屋烧烤的烤串很赞,服务也很不错,价格也便宜,推荐给大家。",
   "referencePostIds":["123456789"]
}}

使用联网搜索结果时:
结合联网搜索内容,回答用户疑问。直接回复内容就好,参考帖子ID不用填内容。

如果不知道答案,则作为普通闲聊指令。

参考的帖子内容是:
{context}

参考的联网搜索结果是:
{search_content}

{format_instructions}

用户输入:{question}
"""
相关推荐
Allnadyy1 小时前
【LangChain&LangGraph】LangChain与LangGraph介绍
langchain
视觉&物联智能5 小时前
【杂谈】-当人工智能能力增速凌驾于安全管控模型之上
人工智能·安全·ai·chatgpt·agi·deepseek
qq_283720055 小时前
LangChain+FAISS 向量数据库搭建轻量化 RAG 应用
数据库·langchain·faiss
情绪总是阴雨天~7 小时前
LangChain 核心技术全解析:从入门到实战
langchain
H_unique8 小时前
LangChain:消息
开发语言·langchain
迪娜学姐8 小时前
调用GPT image 2一键批量美化项目申请答辩PPT
人工智能·gpt·chatgpt·powerpoint·ppt
JaydenAI9 小时前
[Deep Agents:LangChain的Agent Harness-12]利用create_deep_agent整合所有的Harness中间件
langchain·agent·deep agents·harness
Derrick__110 小时前
LangChain基础实战手记:如何给大模型装上“大脑(记忆)”和“双手(工具)”?
人工智能·python·langchain·个人开发
霸道流氓气质10 小时前
Spring AI 实战:Ollama 本地模型工具调用与 Prompt 模板全解析
人工智能·spring·prompt
狐狐生风11 小时前
LangGraph 生产级部署全解:FastAPI + Docker
python·docker·langchain·prompt·fastapi·langgraph·agentai