大模型:LangChain调用大语言模型

目录


一、LangChain模型分类

现在市面上的模型多如牛毛,各种各样的模型不断出现,LangChain模型组件提供了与各种模型的集成,并为所有模型提供一个精简的统一接口。

LangChain目前支持三种类型的模型:LLMs(大语言模型)、Chat Model(聊天模型)、Embedding Models(嵌入模型)。

LLMs(大语言模型):是技术范畴的统称,指的是基于海量文本训练的 Transformer 架构模型,核心能力是理解和生成自然语言,主要服务于文本生成场景。

Chat Model(聊天模型):是应用范围的细分,是专为对话场景优化的LLMs,核心能力是模拟人类对话的轮次交互,主要服务于聊天场景。

Embedding Models(嵌入模型):文本嵌入模型接收文本作为输入,得到文本的向量。

LangChain支持的三类模型,它们的使用场景不同,输入和输出不同。

阿里云通义千问系列主要来源于:langchain_community包。

二、LangChain调用大语言模型

我使用的大语言模型是qwen3.5-plus

注意:其实Tongyi在调用的时候还需要一个dashscope_api_key=DASHSCOPE_API_KEY,API Key,我已经配置在环境变量中了,它会自动取检索。

python 复制代码
from langchain_community.llms.tongyi import Tongyi

# 实例化模型
model = Tongyi(model_name="qwen3.5-plus")

# 模型推理
response = model.invoke("帮我讲个笑话吧")

print(response)

流式输出

python 复制代码
from langchain_community.llms.tongyi import Tongyi

# 实例化模型
model = Tongyi(model_name="qwen3.5-plus")

# 模型推理
response = model.stream("给我讲个笑话吧")

for chunk in response:
    print(chunk, end="", flush=True)

三、LangChain调用本地Ollama大语言模型

python 复制代码
from langchain_ollama import OllamaLLM

model = OllamaLLM(model="qwen3:4b")

response = model.invoke("给我讲个笑话吧")

print(response)

流式输出

python 复制代码
from langchain_ollama import OllamaLLM

model = OllamaLLM(model="qwen3:4b")

response = model.stream("给我讲个笑话吧")

for chunk in response:
    print(chunk, end="", flush=True)
相关推荐
wuyoula几秒前
如何在捷云鲸论坛高效获取高质量技术解答?
服务器·c++·人工智能·tcp/ip·源码
MacroZheng几秒前
IDEA + Claude Code = 王炸!
人工智能·后端·intellij idea
蜘蛛小助理3 分钟前
从 Excel 到多维表:蜘蛛表格如何解决传统数据库开发与维护痛点
数据库·人工智能·excel·数据库开发·多维表·多维表格·蜘蛛表格
甲维斯4 分钟前
活久见 !Claude又发两好消息,感谢Codex
人工智能·ai编程
康谋自动驾驶4 分钟前
缩短40%迁移周期:如何构建具身智能高可靠验证底座?
人工智能·机器人·仿真
Black蜡笔小新5 分钟前
企业私有化AI训练推理一体工作站DLTM:零代码私有化重构企业AI安全监控新模式
人工智能·重构
ZPC82106 分钟前
YOLO-3D + 双目相机 (RGB + 深度 + 点云) → 3D 位置 + 抓取姿态
人工智能·算法·计算机视觉·机器人
Coovally AI模型快速验证6 分钟前
国网团队提出CWSP-YOLO:多模态融合绝缘子缺陷检测,mAP 84.77%超越YOLOv13,Jetson边缘实时9FPS
人工智能·yolo·计算机视觉·视觉检测·电网巡检·绝缘子缺陷检测
旦莫6 分钟前
将AI引入到自动化测试以后我遇到了哪些问题
人工智能·测试开发·自动化·测试用例
金井PRATHAMA7 分钟前
内容与形式(二)内容:基于系统科学与信息科学双重视角的层级化定义
大数据·人工智能·自然语言处理·知识图谱