005.LangChain Model

该教程旨在带大家从 0 起步,掌握用 Python 开发大模型应用的技能。若当前内容让你感到晦涩,可回溯本合集的前期文章,降低学习难度。


1. 模型分类

类别 作用 输入 输出
LLM 文本补全 字符串 字符串
Chat Model 对话优化 消息列表 一条消息

DeepSeek 的 deepseek-chat 属于 Chat Model,在中文场景下表现优异。


2. LangChain 与 DeepSeek 的关系

  • LangChain 是一个开源框架,帮助你快速集成多种大模型。
  • LangChain 已内置 DeepSeek 的封装类 ChatDeepSeek,接口与 OpenAI 完全一致,无需额外适配。

3. 安装依赖

shell 复制代码
pip install langchain-deepseek
# 如提示找不到,可改用
# pip install langchain-community[deepseek]

4. 创建模型实例

python 复制代码
from langchain_deepseek import ChatDeepSeek

model = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0.7,
    max_tokens=512,
    api_key=os.getenv("DEEPSEEK_API_KEY")
)
  • temperature 越大,回答越随机;越小,越稳定。
  • max_tokens 控制返回的最大 token 数。
  • 其他原生参数(如 top_pfrequency_penalty)可以通过 model_kwargs={...} 传入:
python 复制代码
model = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0.7,
    max_tokens=512,
    api_key=os.getenv("DEEPSEEK_API_KEY"),
    model_kwargs={
        "top_p": 0.9,
        "frequency_penalty": 0.5
    }
)

5. 消息结构详解

LangChain 的 Chat Model 接收 消息列表,列表元素可以是:

消息类型 用途 构造方式
SystemMessage 给 AI 的系统指令 SystemMessage(content="你是助手")
HumanMessage 用户输入 HumanMessage(content="你好")
AIMessage AI 历史回复 AIMessage(content="你好!")

示例:构建一条系统消息 + 一条用户消息

python 复制代码
from langchain_core.messages import SystemMessage, HumanMessage

messages = [
    SystemMessage(content="你是一个乐于助人的助手,回答简洁,用中文。"),
    HumanMessage(content="用一句话介绍 LangChain")
]

6. 调用模型并获取回复

python 复制代码
response = model.invoke(messages)
print(response.content)

返回类型为 AIMessage,内容位于 response.content 中。

示例输出:

复制代码
LangChain 是一个开源框架,通过链式调用、记忆和工具快速构建大模型应用。

7. 流式输出

如果想让回答逐字打印,提高用户体验:

ini 复制代码
for chunk in model.stream(messages):
    print(chunk.content, end="", flush=True)

8. 更多模型(LangChain 社区)

除 DeepSeek 外,langchain-community 还支持:

平台 类名 说明
百度 ChatBaiduQianfan 千帆大模型
腾讯 ChatHunyuan 混元大模型
阿里 ChatTongyi 通义千问

只需替换类名与模型名称,其余代码保持一致。


9. 完整代码

保存为 deepseek_demo.py,直接运行:

python 复制代码
from langchain_deepseek import ChatDeepSeek
from langchain_core.messages import SystemMessage, HumanMessage

# 创建模型(自动读取环境变量 DEEPSEEK_API_KEY)
model = ChatDeepSeek(
    model="deepseek-chat",
    temperature=0.7,
    max_tokens=512,
    api_key=os.getenv("DEEPSEEK_API_KEY")
)

# 构造消息
messages = [
    SystemMessage(content="你是一个乐于助人的助手。回答简洁,用中文。"),
    HumanMessage(content="用一句话介绍 LangChain")
]

# 调用并打印
response = model.invoke(messages)
print(response.content)
相关推荐
易安说AI39 分钟前
Claude Opus 4.6 凌晨发布,我体验了一整晚,说说真实感受。
后端
易安说AI41 分钟前
Ralph Loop 让Claude无止尽干活的牛马...
前端·后端
易安说AI44 分钟前
用 Claude Code 远程分析生产日志,追踪 Claude Max 账户被封原因
后端
颜酱2 小时前
图结构完全解析:从基础概念到遍历实现
javascript·后端·算法
Coder_Boy_4 小时前
基于SpringAI的在线考试系统-考试系统开发流程案例
java·数据库·人工智能·spring boot·后端
掘金者阿豪5 小时前
关系数据库迁移的“暗礁”:金仓数据库如何规避数据完整性与一致性风险
后端
ServBay6 小时前
一个下午,一台电脑,终结你 90% 的 Symfony 重复劳动
后端·php·symfony
sino爱学习6 小时前
高性能线程池实践:Dubbo EagerThreadPool 设计与应用
java·后端
颜酱6 小时前
从二叉树到衍生结构:5种高频树结构原理+解析
javascript·后端·算法
掘金者阿豪6 小时前
UUID的隐形成本:一个让数据库“慢下来”的陷阱
后端