LangChain核心模块 Model I/O

Model I/O

任何语言模型应用程序的核心元素都是模型。LangChain 为您提供了与任何语言模型交互的构建块。

Models

llm chat_model 都是表示特定模型配置的对象。

LLM 对象将字符串作为输入和输出字符串。ChatModel 对象将消息列表作为输入并输出消息。

LLM 返回一个字符串,而 ChatModel 返回一条消息。

Prompt Templates

通常会将用户输入 添加到较大的文本中,称为提示模板,该文本提供有关当前特定任务的附加上下文。PromptTemplates捆绑了从用户输入到完全格式化的提示的所有逻辑。

PromptTemplates也可用于生成消息列表。在这种情况下,提示不仅包含有关内容的消息,还包含每条消息(其角色、在列表中的位置等)。最常用的是 ChatPromptTemplate 是 ChatMessageTemplates 的列表。每个 ChatMessageTemplate 都包含有关如何格式化该 ChatMessage 的说明 - 它的角色,以及它的内容。

python 复制代码
from langchain.prompts.chat import ChatPromptTemplate

template = "You are a helpful assistant that translates {input_language} to {output_language}."
human_template = "{text}"

chat_prompt = ChatPromptTemplate.from_messages([
    ("system", template),
    ("human", human_template),
])

chat_prompt.format_messages(input_language="English", output_language="French", text="I love programming.")

Output parsers

OutputParser将语言模型的原始输出转换为可以在下游使用的格式。OutputParsers主要有以下几种类型:

  • 将文本从LLM转换为结构化信息(例如 JSON)
  • ChatMessage 转换为字符串
  • 将除消息之外的调用返回的额外信息(如 OpenAI 函数调用)转换为字符串。

Composing with LCEL

将上面的各个模块组合成一条链,该链将获取输入变量,将这些变量传递给提示模板以创建提示,将提示传递给语言模型,然后通过(可选)输出解析器传递输出。

使用|语法将这些组件链接在一起,由LCEL提供支持,并依赖Runnable所有这些对象实现的通用接口。

相关推荐
nihaoma30207 小时前
//C++中的智能指针自动资源管理与内存安全指南
langchain
玲小珑9 小时前
LangChain.js 完全开发手册(十三)AI Agent 生态系统与工具集成
前端·langchain·ai编程
想学全栈的菜鸟阿董20 小时前
LangChain部署RAG part2.搭建多模态RAG引擎(赋范大模型社区公开课听课笔记)
langchain
听到微笑1 天前
LLM 只会生成文本?用 ReAct 模式手搓一个简易 Claude Code Agent
人工智能·langchain·llm
Stream_Silver2 天前
LangChain入门实践3:PromptTemplate提示词模板详解
java·python·学习·langchain·language model
爱喝白开水a3 天前
2025时序数据库选型,从架构基因到AI赋能来解析
开发语言·数据库·人工智能·架构·langchain·transformer·时序数据库
小墨宝4 天前
web前端学习 langchain
前端·学习·langchain
脚踏实地的大梦想家5 天前
【LangChain】P10 LangChain 提示词模板深度解析(一):Prompt Template
langchain·prompt
OopsOutOfMemory5 天前
LangChain源码分析(十三)- 运行时与监控
ai·langchain·aigc·ai编程·ai应用
OopsOutOfMemory5 天前
LangChain源码分析(一)- LLM大语言模型
人工智能·语言模型·langchain·aigc