基于LangChain的RAG与Agent智能体开发 - 使用LangChain调用大模型设置流式输出

大家好,我是小锋老师,最近更新《2027版 基于LangChain的RAG与Agent智能体 开发视频教程》专辑,感谢大家支持。

本课程主要介绍和讲解RAG,LangChain简介,接入通义千万大模型 ,Ollama简介以及安装和使用,OpenAI 库介绍和使用,以及最重要的基于LangChain实现RAG与Agent智能体开发技术。

视频教程+课件+源码打包下载:

链接:https://pan.baidu.com/s/1_NzaNr0Wln6kv1rdiQnUTg

提取码:0000

基于LangChain的RAG与Agent智能体开发 - 使用LangChain调用大模型设置流式输出

前面我们使用invoke是完整输出形式,当返回数据量大的时候,会有延迟,显示效果也不好,我们企业级开发,肯定是一段一段的像流水一样的输出形式。

在LangChain中,我们使用stream()方法,来实现流式输出。

实现代码:

复制代码
from langchain_community.llms.tongyi import Tongyi

# 创建模型
model = Tongyi(model="qwen-plus")

# 调用模型
result = model.stream(input="你是谁")

for chunk in result:
    print(chunk, end="", flush=True)

运行返回的就是一段一段的流式输出了。

同样,如果我们使用本地ollama里的大模型,代码也改下:

复制代码
from langchain_ollama import OllamaLLM

# 创建模型
model = OllamaLLM(model="qwen3:4b")

# 调用模型
result = model.stream(input="你是谁")

for chunk in result:
    print(chunk, end="", flush=True)

运行也是流式效果:

相关推荐
诗酒当趁年华3 小时前
langchain核心组件5-短期记忆
langchain
啊巴矲3 小时前
白从零开始勇闯人工智能:LangChain中的检索增强生成(RAG)
langchain
大傻^3 小时前
SpringAI2.0 RAG 完整实现:Document ETL、Vector Store 与检索增强
人工智能·检索增强·rag·springai
张张123y3 小时前
AI Agent Memory:从理论到实战,掌握长短期记忆的核心技术【2】
人工智能·python·langchain·transformer
小付爱coding4 小时前
跟着官网学LangChain【第02章:提示词和消息】
windows·python·langchain
chaors18 小时前
从零学RAG0x0d:AdvancedRAG检索后优化
langchain·llm·ai编程
前进的李工19 小时前
LangChain使用之Model IO(提示词模版之PromptTemplate)
开发语言·人工智能·python·langchain
赵小川19 小时前
5分钟跑通 LangChain,第一个 AI Demo(超详细)
langchain·openai·ai编程
console.log('npc')20 小时前
Cursor,Trae,Claude Code如何协作生产出一套前后台app?
前端·人工智能·react.js·设计模式·ai·langchain·ai编程