007.用 LangChain 构建 Few-Shot 对话示范

该教程旨在带大家从 0 起步,掌握用 Python 开发大模型应用的技能。若当前内容让你感到晦涩,可回溯本合集的前期文章,降低学习难度。


1. 小样本提示(Few-Shot Prompting)回顾

传统做法 模板化做法
手动拼 N 条示例 + 1 条用户提问 模板+变量,示例与用户提问一次生成
复制粘贴易出错、难维护 改一个列表即可增删示例
示例格式固定,仅值不同 用同一模板重复渲染

2. 核心类:FewShotChatMessagePromptTemplate

位置:langchain.prompts.few_shot.FewShotChatMessagePromptTemplate

作用:把示例对话转成消息列表,并可与最终用户提问无缝拼接。

构造参数

• example_prompt:单条示例的模板(ChatPromptTemplate)

• examples:示例数据,列表套字典


3. 动手实战:年龄格式化机器人

3.1 安装 & 环境

shell 复制代码
pip install langchain langchain-deepseek
export DEEPSEEK_API_KEY=sk-xxxxxxxx

3.2 定义单条示例模板

python 复制代码
from langchain.prompts import ChatPromptTemplate

# 一条示例 = 用户问 + AI 答
example_prompt = ChatPromptTemplate.from_messages([
    ("human", "我叫{name},今年{age}岁,来自{city}。"),
    ("ai", "{name},{age}岁,{city}市{province}人")
])

3.3 准备若干示例数据

python 复制代码
examples = [
    {"name": "张三", "age": 23, "city": "合肥", "province": "安徽"},
    {"name": "李四", "age": 31, "city": "深圳", "province": "广东"},
    {"name": "王五", "age": 19, "city": "成都", "province": "四川"},
]

3.4 创建 Few-Shot 模板

python 复制代码
from langchain.prompts import FewShotChatMessagePromptTemplate

few_shot_tmpl = FewShotChatMessagePromptTemplate(
    example_prompt=example_prompt,
    examples=examples
)

3.5 加入最终用户提问

python 复制代码
final_prompt = ChatPromptTemplate.from_messages([
    few_shot_tmpl,                       # 3 条示例
    ("human", "{input}")                # 真正的用户提问
])

4. 渲染并调用 DeepSeek

python 复制代码
from langchain_deepseek import ChatDeepSeek

llm = ChatDeepSeek(model="deepseek-chat", temperature=0)

prompt_value = final_prompt.invoke({
    "input": "我叫赵六,今年27岁,来自杭州"
})

messages = prompt_value.messages
print(messages)

response = llm.invoke(messages)
print(response.content)

5. 动态增删示例

只需改 examples 列表即可:

python 复制代码
examples.append(
    {"name": "孙七", "age": 42, "city": "武汉", "province": "湖北"}
)

无需改动模板代码。


6. 完整代码

python 复制代码
from langchain.prompts import ChatPromptTemplate
from langchain.prompts import FewShotChatMessagePromptTemplate
from langchain_deepseek import ChatDeepSeek

# 一条示例 = 用户问 + AI 答
example_prompt = ChatPromptTemplate.from_messages([
    ("human", "我叫{name},今年{age}岁,来自{city}。"),
    ("ai", "{name},{age}岁,{city}市{province}人"),
])

# 准备示例数据
examples = [
    {"name": "张三", "age": 23, "city": "合肥", "province": "安徽"},
    {"name": "李四", "age": 31, "city": "深圳", "province": "广东"},
    {"name": "王五", "age": 19, "city": "成都", "province": "四川"},
]

# Few Shot 模版
few_shot_tmpl = FewShotChatMessagePromptTemplate(
    example_prompt=example_prompt,
    examples=examples
)

# 最终提示词
final_prompt = ChatPromptTemplate.from_messages([
    few_shot_tmpl,
    ("human", "{input}")
])

# 调用deepseek
llm = ChatDeepSeek(model="deepseek-chat", temperature=0)

prompt_value = final_prompt.invoke({
    "input": "我叫赵六,今年27岁,来自杭州"
})

# 消息列表
messages = prompt_value.messages
print(messages)

response = llm.invoke(messages)
print(response.content)

7. 常见坑 & 小贴士

  1. 变量名必须一致:模板里的 {}examples 字典键一一对应。
  2. 顺序即对话:示例按列表顺序渲染,确保 humanai 交替出现。
  3. token 开销:示例越多,消耗越长;可在 examples 里做截断或选样。
  4. 调试技巧:先打印 prompt_value.messages,确认格式正确再发模型。

8. 速查表

步骤 关键代码
单条示例模板 ChatPromptTemplate.from_messages([...])
组合示例 FewShotChatMessagePromptTemplate(...)
拼接用户提问 ChatPromptTemplate.from_messages([few_shot_tmpl, ("human", "{input}")])
渲染 prompt = chat_tmpl.invoke({"input": "..."})
发模型 ChatDeepSeek().invoke(prompt.messages)
相关推荐
IT_陈寒28 分钟前
Python性能优化必知必会:7个让代码快3倍的底层技巧与实战案例
前端·人工智能·后端
拾忆,想起1 小时前
Redis发布订阅:实时消息系统的极简解决方案
java·开发语言·数据库·redis·后端·缓存·性能优化
SimonKing1 小时前
想搭建知识库?Dify、MaxKB、Pandawiki 到底哪家强?
java·后端·程序员
程序员清风2 小时前
为什么Tomcat可以把线程数设置为200,而不是2N?
java·后端·面试
MrSYJ2 小时前
nimbus-jose-jwt你都会吗?
java·后端·微服务
Bug生产工厂2 小时前
AI 驱动支付路由(下篇):代码实践与系统优化
后端
用户2707912938182 小时前
JDK 7 和 JDK 8 中的 HashMap 有什么不同?
java·后端
程序员小富2 小时前
令牌桶VS漏桶:谁才是流量控制的“最优解”?
java·后端·算法
xuejianxinokok2 小时前
图解 OAuth,为什么这样设计?
后端
计算机学姐2 小时前
基于SpringBoot的老年人健康数据远程监控管理系统【2026最新】
java·vue.js·spring boot·后端·mysql·spring·mybatis