大模型:LangChain调用大语言模型

目录


一、LangChain模型分类

现在市面上的模型多如牛毛,各种各样的模型不断出现,LangChain模型组件提供了与各种模型的集成,并为所有模型提供一个精简的统一接口。

LangChain目前支持三种类型的模型:LLMs(大语言模型)、Chat Model(聊天模型)、Embedding Models(嵌入模型)。

LLMs(大语言模型):是技术范畴的统称,指的是基于海量文本训练的 Transformer 架构模型,核心能力是理解和生成自然语言,主要服务于文本生成场景。

Chat Model(聊天模型):是应用范围的细分,是专为对话场景优化的LLMs,核心能力是模拟人类对话的轮次交互,主要服务于聊天场景。

Embedding Models(嵌入模型):文本嵌入模型接收文本作为输入,得到文本的向量。

LangChain支持的三类模型,它们的使用场景不同,输入和输出不同。

阿里云通义千问系列主要来源于:langchain_community包。

二、LangChain调用大语言模型

我使用的大语言模型是qwen3.5-plus

注意:其实Tongyi在调用的时候还需要一个dashscope_api_key=DASHSCOPE_API_KEY,API Key,我已经配置在环境变量中了,它会自动取检索。

python 复制代码
from langchain_community.llms.tongyi import Tongyi

# 实例化模型
model = Tongyi(model_name="qwen3.5-plus")

# 模型推理
response = model.invoke("帮我讲个笑话吧")

print(response)

流式输出

python 复制代码
from langchain_community.llms.tongyi import Tongyi

# 实例化模型
model = Tongyi(model_name="qwen3.5-plus")

# 模型推理
response = model.stream("给我讲个笑话吧")

for chunk in response:
    print(chunk, end="", flush=True)

三、LangChain调用本地Ollama大语言模型

python 复制代码
from langchain_ollama import OllamaLLM

model = OllamaLLM(model="qwen3:4b")

response = model.invoke("给我讲个笑话吧")

print(response)

流式输出

python 复制代码
from langchain_ollama import OllamaLLM

model = OllamaLLM(model="qwen3:4b")

response = model.stream("给我讲个笑话吧")

for chunk in response:
    print(chunk, end="", flush=True)
相关推荐
Slow菜鸟3 小时前
AI学习篇(三) | AI效率工具指南(2026年)
人工智能·学习
北京软秦科技有限公司4 小时前
AI审核如何助力合规取证?IACheck打造环境检测报告电子存证与法律风险防控新路径
大数据·人工智能
qq_359716234 小时前
openpi使用过程中相关问题
人工智能·深度学习·机器学习
minhuan4 小时前
医疗AI智能体:从数据到关怀人文设计:告别冰冷精准,构建有温度的诊疗交互.131
人工智能·ai智能体·智能体的人文设计·医疗ai人文设计·构建医疗ai智能体
Promise微笑5 小时前
驾驭AI引用:Geo优化中的内容评分机制与实战策略深度解析
人工智能
ai生成式引擎优化技术5 小时前
全球唯一四元结构底层架构问世:TSPR-WEB-LLM-HIC v2.0 终结大模型投毒与幻觉的终极技术范式
人工智能
听你说326 小时前
伊萨推出 ROBBI 360 协作机器人焊接工作站 简化自动化焊接部署流程
人工智能·机器人·自动化
weixin_408099676 小时前
【实战对比】在线 OCR 识别 vs OCR API 接口:从个人工具到系统集成该怎么选?
图像处理·人工智能·后端·ocr·api·图片文字识别·文字识别ocr
罗西的思考6 小时前
【OpenClaw】通过Nanobot源码学习架构---(2)外层控制逻辑
人工智能·机器学习