005.LangChain Model

该教程旨在带大家从 0 起步,掌握用 Python 开发大模型应用的技能。若当前内容让你感到晦涩,可回溯本合集的前期文章,降低学习难度。


1. 模型分类

类别 作用 输入 输出
LLM 文本补全 字符串 字符串
Chat Model 对话优化 消息列表 一条消息

DeepSeek 的 deepseek-chat 属于 Chat Model,在中文场景下表现优异。


2. LangChain 与 DeepSeek 的关系

  • LangChain 是一个开源框架,帮助你快速集成多种大模型。
  • LangChain 已内置 DeepSeek 的封装类 ChatDeepSeek,接口与 OpenAI 完全一致,无需额外适配。

3. 安装依赖

shell 复制代码
pip install langchain-deepseek
# 如提示找不到,可改用
# pip install langchain-community[deepseek]

4. 创建模型实例

python 复制代码
from langchain_deepseek import ChatDeepSeek

model = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0.7,
    max_tokens=512,
    api_key=os.getenv("DEEPSEEK_API_KEY")
)
  • temperature 越大,回答越随机;越小,越稳定。
  • max_tokens 控制返回的最大 token 数。
  • 其他原生参数(如 top_pfrequency_penalty)可以通过 model_kwargs={...} 传入:
python 复制代码
model = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0.7,
    max_tokens=512,
    api_key=os.getenv("DEEPSEEK_API_KEY"),
    model_kwargs={
        "top_p": 0.9,
        "frequency_penalty": 0.5
    }
)

5. 消息结构详解

LangChain 的 Chat Model 接收 消息列表,列表元素可以是:

消息类型 用途 构造方式
SystemMessage 给 AI 的系统指令 SystemMessage(content="你是助手")
HumanMessage 用户输入 HumanMessage(content="你好")
AIMessage AI 历史回复 AIMessage(content="你好!")

示例:构建一条系统消息 + 一条用户消息

python 复制代码
from langchain_core.messages import SystemMessage, HumanMessage

messages = [
    SystemMessage(content="你是一个乐于助人的助手,回答简洁,用中文。"),
    HumanMessage(content="用一句话介绍 LangChain")
]

6. 调用模型并获取回复

python 复制代码
response = model.invoke(messages)
print(response.content)

返回类型为 AIMessage,内容位于 response.content 中。

示例输出:

复制代码
LangChain 是一个开源框架,通过链式调用、记忆和工具快速构建大模型应用。

7. 流式输出

如果想让回答逐字打印,提高用户体验:

ini 复制代码
for chunk in model.stream(messages):
    print(chunk.content, end="", flush=True)

8. 更多模型(LangChain 社区)

除 DeepSeek 外,langchain-community 还支持:

平台 类名 说明
百度 ChatBaiduQianfan 千帆大模型
腾讯 ChatHunyuan 混元大模型
阿里 ChatTongyi 通义千问

只需替换类名与模型名称,其余代码保持一致。


9. 完整代码

保存为 deepseek_demo.py,直接运行:

python 复制代码
from langchain_deepseek import ChatDeepSeek
from langchain_core.messages import SystemMessage, HumanMessage

# 创建模型(自动读取环境变量 DEEPSEEK_API_KEY)
model = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0.7,
    max_tokens=512,
    api_key=os.getenv("DEEPSEEK_API_KEY")
)

# 构造消息
messages = [
    SystemMessage(content="你是一个乐于助人的助手。回答简洁,用中文。"),
    HumanMessage(content="用一句话介绍 LangChain")
]

# 调用并打印
response = model.invoke(messages)
print(response.content)
相关推荐
WeiXiao_Hyy6 分钟前
成为 Top 1% 的工程师
java·开发语言·javascript·经验分享·后端
苏渡苇12 分钟前
优雅应对异常,从“try-catch堆砌”到“设计驱动”
java·后端·设计模式·学习方法·责任链模式
long31624 分钟前
Aho-Corasick 模式搜索算法
java·数据结构·spring boot·后端·算法·排序算法
rannn_1111 小时前
【苍穹外卖|Day4】套餐页面开发(新增套餐、分页查询、删除套餐、修改套餐、起售停售)
java·spring boot·后端·学习
短剑重铸之日1 小时前
《设计模式》第十一篇:总结
java·后端·设计模式·总结
Dragon Wu2 小时前
Spring Security Oauth2.1 授权码模式实现前后端分离的方案
java·spring boot·后端·spring cloud·springboot·springcloud
一个有梦有戏的人2 小时前
Python3基础:进阶基础,筑牢编程底层能力
后端·python
爬山算法3 小时前
Hibernate(88)如何在负载测试中使用Hibernate?
java·后端·hibernate
独断万古他化3 小时前
【Spring 原理】Bean 的作用域与生命周期
java·后端·spring
我爱加班、、3 小时前
Websocket能携带token过去后端吗
前端·后端·websocket