基于LangChain的RAG与Agent智能体开发 - 使用LangChain调用大模型设置流式输出

大家好,我是小锋老师,最近更新《2027版 基于LangChain的RAG与Agent智能体 开发视频教程》专辑,感谢大家支持。

本课程主要介绍和讲解RAG,LangChain简介,接入通义千万大模型 ,Ollama简介以及安装和使用,OpenAI 库介绍和使用,以及最重要的基于LangChain实现RAG与Agent智能体开发技术。

视频教程+课件+源码打包下载:

链接:https://pan.baidu.com/s/1_NzaNr0Wln6kv1rdiQnUTg

提取码:0000

基于LangChain的RAG与Agent智能体开发 - 使用LangChain调用大模型设置流式输出

前面我们使用invoke是完整输出形式,当返回数据量大的时候,会有延迟,显示效果也不好,我们企业级开发,肯定是一段一段的像流水一样的输出形式。

在LangChain中,我们使用stream()方法,来实现流式输出。

实现代码:

复制代码
from langchain_community.llms.tongyi import Tongyi

# 创建模型
model = Tongyi(model="qwen-plus")

# 调用模型
result = model.stream(input="你是谁")

for chunk in result:
    print(chunk, end="", flush=True)

运行返回的就是一段一段的流式输出了。

同样,如果我们使用本地ollama里的大模型,代码也改下:

复制代码
from langchain_ollama import OllamaLLM

# 创建模型
model = OllamaLLM(model="qwen3:4b")

# 调用模型
result = model.stream(input="你是谁")

for chunk in result:
    print(chunk, end="", flush=True)

运行也是流式效果:

相关推荐
Csvn16 小时前
🌟 LangChain 30 天保姆级教程 · Day 13|OutputParser 进阶!让 AI 输出自动转为结构化对象,并支持自动重试!
python·langchain
InKomorebi21 小时前
LangChain Tools:BaseTool/Callable/Runnable 核心类型 | 三种工具定义方式 | 串行与并行调用 | 错误处理与重试降级
langchain
怕浪猫1 天前
第10章 RAG(检索增强生成)系统构建(LangChain实战)
langchain·aigc·ai编程
阿捞21 天前
python-langchain框架(3-20-智能问答ZeroShot_ReAct Agent 从零搭建)
python·react.js·langchain
sun_tao11 天前
如何评估RAG系统的效果
人工智能·rag·ragas·rag评估
qyhua1 天前
开源推荐 | ModelX RAG:基于 LangChain + Ollama 的企业级知识库系统
python·langchain·开源
斯外戈的小白1 天前
【Agent】LangChain 1.0架构
架构·langchain
tkevinjd1 天前
基于LangChain的简易智能旅游助手Agent
langchain·agent
minhuan2 天前
轻量级RAG与SKILL架构深度融合:专属知识库驱动智能体精准知识匹配应用实践.138
rag·ai智能体·大模型应用·skill应用·rag+skill结合
liu****2 天前
LangChain-AI应用开发框架(七)
人工智能·python·langchain·大模型应用·本地部署大模型