大模型:LangChain调用大语言模型

目录


一、LangChain模型分类

现在市面上的模型多如牛毛,各种各样的模型不断出现,LangChain模型组件提供了与各种模型的集成,并为所有模型提供一个精简的统一接口。

LangChain目前支持三种类型的模型:LLMs(大语言模型)、Chat Model(聊天模型)、Embedding Models(嵌入模型)。

LLMs(大语言模型):是技术范畴的统称,指的是基于海量文本训练的 Transformer 架构模型,核心能力是理解和生成自然语言,主要服务于文本生成场景。

Chat Model(聊天模型):是应用范围的细分,是专为对话场景优化的LLMs,核心能力是模拟人类对话的轮次交互,主要服务于聊天场景。

Embedding Models(嵌入模型):文本嵌入模型接收文本作为输入,得到文本的向量。

LangChain支持的三类模型,它们的使用场景不同,输入和输出不同。

阿里云通义千问系列主要来源于:langchain_community包。

二、LangChain调用大语言模型

我使用的大语言模型是qwen3.5-plus

注意:其实Tongyi在调用的时候还需要一个dashscope_api_key=DASHSCOPE_API_KEY,API Key,我已经配置在环境变量中了,它会自动取检索。

python 复制代码
from langchain_community.llms.tongyi import Tongyi

# 实例化模型
model = Tongyi(model_name="qwen3.5-plus")

# 模型推理
response = model.invoke("帮我讲个笑话吧")

print(response)

流式输出

python 复制代码
from langchain_community.llms.tongyi import Tongyi

# 实例化模型
model = Tongyi(model_name="qwen3.5-plus")

# 模型推理
response = model.stream("给我讲个笑话吧")

for chunk in response:
    print(chunk, end="", flush=True)

三、LangChain调用本地Ollama大语言模型

python 复制代码
from langchain_ollama import OllamaLLM

model = OllamaLLM(model="qwen3:4b")

response = model.invoke("给我讲个笑话吧")

print(response)

流式输出

python 复制代码
from langchain_ollama import OllamaLLM

model = OllamaLLM(model="qwen3:4b")

response = model.stream("给我讲个笑话吧")

for chunk in response:
    print(chunk, end="", flush=True)
相关推荐
reesn2 小时前
嵌入模型分类问答
人工智能·分类·数据挖掘
对号东2 小时前
2026现象级开源AI智能体|OpenClaw:让AI从“聊天”变“干活”,本地部署零门槛
人工智能·开源
初窺門徑2 小时前
label studio安装和使用
人工智能·分类·数据挖掘
ZFSS2 小时前
Producer Tasks API 的对接和使用
人工智能·ai·ai作画·ai编程
飞升不如收破烂~2 小时前
AI会替代一部分人,但不会“替代人类”。更准确的说法是——重构工作结构。
人工智能
Joy T2 小时前
【AI Agent入门】从RAG知识库到智能体架构:实质区分Coze、Dify与OpenClaw
人工智能·agent·dify·rag·coze·openclaw
Wu_Dylan2 小时前
液态神经网络系列(六) | 数学求解器全景图:Euler、RK4、Dopri5、自适应步长怎么选?
人工智能·深度学习·神经网络
TYFHVB122 小时前
2026六大主流CRM横评,五大核心维度深度解析
大数据·前端·数据结构·人工智能
on_pluto_2 小时前
论文Heterogeneous Graph Transformer(HGT)阅读笔记
论文阅读·人工智能·笔记·深度学习·学习方法