大家好,我是小锋老师,最近更新《2027版 基于LangChain的RAG与Agent智能体 开发视频教程》专辑,感谢大家支持。
本课程主要介绍和讲解RAG,LangChain简介,接入通义千万大模型 ,Ollama简介以及安装和使用,OpenAI 库介绍和使用,以及最重要的基于LangChain实现RAG与Agent智能体开发技术。

视频教程+课件+源码打包下载 :
链接:https://pan.baidu.com/s/1_NzaNr0Wln6kv1rdiQnUTg
提取码:0000
基于LangChain的RAG与Agent智能体开发 - RunnableLambda实现复杂多模型链路调用
前面示例都是比较简单的链路调用,但是在实际开发中,我们经常需要做复杂的多模型链路调用,也就是调用模型生成的内容之后,继续做下处理,继续调用模型。这里面涉及到格式问题了。传入下一个模型的比如字典格式。
我们可以通过RunnableLambda类来实现格式的转换。
我们来看一个示例:
from langchain_community.llms.tongyi import Tongyi
from langchain_core.prompts import PromptTemplate
from langchain_core.runnables import RunnableLambda
# 定义一个模板,包含两个变量:product 和 price
template = "我的所在的行业是:{sector},哪个细分领域职位最有前途,直接告诉我职位名字即可"
# 创建 PromptTemplate 对象
prompt = PromptTemplate(
input_variables=["sector"], # 输入变量
template=template # 模板
)
# 再定义一个模板,包含一个变量:name
template2 = "请用简单的话描述下:{name}这个职位。最后再回答下:{extra}"
# 创建 PromptTemplate 对象
prompt2 = PromptTemplate(
input_variables=["name", "extra"], # 输入变量
template=template2 # 模板
)
model = Tongyi(model="qwen-plus") # 创建模型
# myfunc = RunnableLambda(lambda x: {"name": x})
# 创建链式调用
chain = prompt | model | (lambda x: {"name": x, "extra": "这个职位在北京5年经验年薪平均多少万?"}) | prompt2 | model
# 调用模型
result = chain.stream(input={"sector": "IT"})
for chunk in result:
print(chunk, end="", flush=True)
运行输出:
