LangChain 获得ChatModel的工厂方法源码分析

LangChain目前兼容了市场上主流的大模型,只要我们安装好对应的扩展包,以及配置相应模型的API Key,那么使用LangChain来与大模型进行信息传递,就会非常方便。

大模型服务商 模型名称 环境变量 LangChain 扩展包 Chat 模型类
OpenAI gpt-5-nano OPENAI_API_KEY langchain-openai ChatOpenAI
Anthropic claude-sonnet-4-6 ANTHROPIC_API_KEY langchain-anthropic ChatAnthropic
Google gemini-2.5-flash-lite GOOGLE_API_KEY langchain-google-genai ChatGoogleGenerativeAI

在LangChain(1.2.17)中我们只要声明模型的名称,就能够获得对应的模型实例。这典型的是一个工厂方法。

python 复制代码
from langchain.chat_models import init_chat_model

def print_current_model():  
    model_names = ['gpt-5-nano',  
                   'openai:gpt-5.4',  
                   'claude-sonnet-4-6',  
                   'google_genai:gemini-2.5-flash-lite']  
    for model_name in model_names:  
        model = init_chat_model(model_name)  
        print(f"'{model_name}' -> {type(model).__name__}(实例)")

输出如下,可以看到,只要我们输入了模型名称,对应就会返回一个相应的ChatModel回来。

shell 复制代码
'gpt-5-nano' -> ChatOpenAI(实例)
'openai:gpt-5.4' -> ChatOpenAI(实例)
'claude-sonnet-4-6' -> ChatAnthropic(实例)
'google_genai:gemini-2.5-flash-lite' -> ChatGoogleGenerativeAI(实例)

LangChain的架构

工厂方法模式

LangChain 能兼容"市场上主流的大模型"的根本原因------抽象层独立发布为 langchain-core,任何第三方只要依赖它并继承基类,就能无缝接入。

提供ChatOpenAI,ChatAnthropic,ChatGoogleGenerativeAI类的第三方包都依赖了langchain-core这个包,它们都继承了langchain-core的抽象类BaseChatModel。

使用 uv pip show langchain-core查看包详情,可以看到都被其他第三方模型的包所依赖。

内部具体根据模型名称创建对应的ChatModel如下:

  1. 根据模型名称找到模型提供商,langchain内部根据模型提供商维护了一个字典,字典里面有模型提供商对应的第三方模块已经实例化的ChatModel配置
  2. 找到模型提供商之后使用python内置模块importlib导入对应的第三方包。
  3. 实例化得到ChatModel.(源码中实例化用到了一个functools.partial提前绑定了cls参数)
相关推荐
雪度娃娃2 小时前
结构型设计模式——桥接模式
c++·设计模式·桥接模式
asdfg12589634 小时前
从Java的设计模式看接口和实现---List与ArrayList
java·开发语言·设计模式·面向对象·面向接口
weisian1514 小时前
进阶篇-LangChain篇-25--不止于文本:LangChain多模态应用开发
人工智能·langchain·多模态
菜_小_白4 小时前
高性能线程池
linux·c++·设计模式
小湘西5 小时前
【设计模式】简单工厂、工厂方法、抽象工厂
设计模式
李斯维5 小时前
工厂设计模式(Factory Pattern):工厂方法与抽象工厂的实例演示
java·设计模式
码农翻身5 小时前
设计模式,1994年生,2034卒
设计模式
怕浪猫13 小时前
荒岛原始无工业、无电力、无设备,从零搭建最基础计算机体系
人工智能·设计模式·面试