模型调用的主要方法及参数

方法

  • OpenAI(...) / ChatOpenAI(...) :创建一个模型对象(非对话类/对话类)
  • model.invoke(xxx) :执行调用,将用户输入发送给模型
  • .content :提取模型返回的实际文本内容

模型调用的方法

为了尽可能简化自定义链的创建,实现了一个 "Runnable" 协议 。许多LangChain组件都实现了 Runnable 协议 ,包括 聊天模型、提示词模板、输出解析器、检索器、代理(智能体)等

Runnable 定义的公共的调用方法如下:

  • invoke: 处理单条输入,等待LLM完全推理完成后再返回调用结果
  • stream: 流式响应,逐字输出LLM的响应结果
  • batch: 处理批量输入

这些也有相应的异步方法,与 asyncioawait 语法 一起使用以实现并发:

  • astream: 异步流式响应
  • ainvoke: 异步处理单条输入
  • abatch: 异步处理批量输入
  • astream_log: 异步流式返回中间步骤,以及最终响应
  • astream_events: (测试版)异步流式返回链中发生的事件(在 langchain-core 0.1.14 中引入)

属性参数

  1. 必须设置的参数:
  • base_url :大模型 API 服务的根地址
  • api_key :用于身份验证的密钥,由大模型服务商(如 OpenAI、百度千帆)提供
  • model/model_name :指定要调用的具体大模型名称(如 gpt-4-turbo 、 ERNIE-3.5-8K 等)
  1. 其它参数:
  • temperature:温度,控制生成文本的"随机性",取值范围为0~1。

    • 值越低 → 输出越确定、保守(适合事实回答)
    • 值越高 → 输出越多样、有创意(适合创意写作)
    • 通常,根据需要设置如下:
      • 精确模式(0.5或更低):生成的文本更加安全可靠,但可能缺乏创意和多样性。
      • 平衡模式(通常是0.8):生成的文本通常既有一定的多样性,又能保持较好的连贯性和准确性。
      • 创意模式(通常是1):生成的文本更有创意,但也更容易出现语法错误或不合逻辑的内容。
  • max_tokens:限制生成文本的最大长度,防止输出过长。

相关推荐
红鼻子时代2 小时前
第6篇:实战项目-智能知识库助手(入门版)
langchain·知识库助手
Coder_Boy_2 小时前
基于SpringAI的智能平台基座开发-(十一)
人工智能·spring·langchain·langchain4j
小芳矶3 小时前
【langchain框架——检索链】利用检索链创建自己的购物知识库并完成智能体的商品推荐
java·python·langchain
AAA阿giao3 小时前
赋予大模型“记忆”:深度解析 LangChain 中 LLM 的上下文记忆实现
javascript·langchain·llm
神秘的猪头3 小时前
LangChain Tool 实战:让大模型“长出双手”,通过 Tool 调用连接真实世界
langchain·node.js·aigc
沛沛老爹5 小时前
Advanced-RAG原理:RAG-Fusion 检索增强生成的多查询融合实战
langchain·llm·agent·fusion·rag·advanced·web转型
xhxxx15 小时前
你的 AI 为什么总答非所问?缺的不是智商,是“记忆系统”
前端·langchain·llm
www_stdio20 小时前
让大语言模型拥有“记忆”:多轮对话与 LangChain 实践指南
前端·langchain·llm
重铸码农荣光20 小时前
别再让大模型“胡说八道”了!LangChain 的 JsonOutputParser 教你驯服 AI 输出
langchain·llm·aigc