模型调用的主要方法及参数

方法

  • OpenAI(...) / ChatOpenAI(...) :创建一个模型对象(非对话类/对话类)
  • model.invoke(xxx) :执行调用,将用户输入发送给模型
  • .content :提取模型返回的实际文本内容

模型调用的方法

为了尽可能简化自定义链的创建,实现了一个 "Runnable" 协议 。许多LangChain组件都实现了 Runnable 协议 ,包括 聊天模型、提示词模板、输出解析器、检索器、代理(智能体)等

Runnable 定义的公共的调用方法如下:

  • invoke: 处理单条输入,等待LLM完全推理完成后再返回调用结果
  • stream: 流式响应,逐字输出LLM的响应结果
  • batch: 处理批量输入

这些也有相应的异步方法,与 asyncioawait 语法 一起使用以实现并发:

  • astream: 异步流式响应
  • ainvoke: 异步处理单条输入
  • abatch: 异步处理批量输入
  • astream_log: 异步流式返回中间步骤,以及最终响应
  • astream_events: (测试版)异步流式返回链中发生的事件(在 langchain-core 0.1.14 中引入)

属性参数

  1. 必须设置的参数:
  • base_url :大模型 API 服务的根地址
  • api_key :用于身份验证的密钥,由大模型服务商(如 OpenAI、百度千帆)提供
  • model/model_name :指定要调用的具体大模型名称(如 gpt-4-turbo 、 ERNIE-3.5-8K 等)
  1. 其它参数:
  • temperature:温度,控制生成文本的"随机性",取值范围为0~1。

    • 值越低 → 输出越确定、保守(适合事实回答)
    • 值越高 → 输出越多样、有创意(适合创意写作)
    • 通常,根据需要设置如下:
      • 精确模式(0.5或更低):生成的文本更加安全可靠,但可能缺乏创意和多样性。
      • 平衡模式(通常是0.8):生成的文本通常既有一定的多样性,又能保持较好的连贯性和准确性。
      • 创意模式(通常是1):生成的文本更有创意,但也更容易出现语法错误或不合逻辑的内容。
  • max_tokens:限制生成文本的最大长度,防止输出过长。

相关推荐
红鼻子时代1 天前
第9篇:Middleware中间件
langchain·middleware中间件
老蒋每日coding1 天前
大模型应用开发入门:用VSCode跑通第一个LangChain程序
langchain
学Linux的语莫1 天前
基于ollama、llamafile部署的大模型使用
linux·服务器·python·langchain·llama
万里不留行1 天前
【LangChain V1.0学习】第二课:批处理与持久化对话(通过完成情感机器人多轮对话进行学习)
人工智能·python·学习·语言模型·langchain
TGITCIC1 天前
从玩具到工具:LangChain 入门 (一)
langchain·大模型·ai agent·ai智能体·agent开发·rag教程·agent教程
Aaron_9452 天前
LangChain:构建大语言模型应用的革命性框架深度解析
人工智能·语言模型·langchain
西柚小萌新2 天前
【人工智能:Agent】--6.Langchain工作流
langchain
weixin_462446232 天前
从零构建 LangGraph + MCP 的智能对话 Agent:Coze 插件集成实战
langchain·coze·扣子
linmoo19862 天前
Langchain4j 系列之二十四 - Scoring (Reranking) Models
人工智能·langchain·langchain4j·scoring·reranking
精致先生2 天前
LangChain框架
langchain·智能体