前言
Langchain为开发者提供了两类封装的语言模型:大语言模型(LLM)和聊天模型(Chat Models)。这两类模型的封装使得开发者能够更便捷地利用OpenAI API进行文本建模和生成。本篇文章就带大家去了解一下这两种模型的区别
LLM(大语言模型)
LLM是一种基于统计的机器学习模型,专注于对文本数据进行建模和生成。具体而言,Langchain中的LLM指的是文本补全模型,其通过学习语言模式、语法规则和语义关系,生成符合语言规则的连贯文本。
输入 | 输出 |
---|---|
一条文本内容 | 一条文本内容 |
聊天模型(Chat Models)
聊天模型是语言模型的一种变体,它不仅使用语言模型,还提供了基于"聊天消息"的接口。在Langchain中,gpt系列模型属于聊天模型,而davinci、curie、babbage、ada等模型属于文本补全模型。
输入 | 输出 |
---|---|
一组聊天消息 | 一条聊天消息 |
Langchain与OpenAI模型
Langchain通过封装不同的模型,为开发者提供了统一的接口。无论是文本补全模型还是聊天模型,Langchain将其抽象为相同的接口BaseLanguageModel
。开发者可通过predict
和predict_messages
函数轻松调用不同模型,当使用LLM时推荐使用predict
函数,当使用聊天模型时推荐使用predict_messages
函数。接下来通过一些代码示例给大家展示一下两者的不同。
与LLM的交互
与LLM的交互,我们需要使用 langchain.llms
模块中的 OpenAI
类
python
from langchain.llms import OpenAI
import os
os.environ['OPENAI_API_KEY'] = '您的有效OpenAI API Key'
llm = OpenAI(model_name="gpt-3.5-turbo")
response = llm.predict("What is AI?")
print(response)

与聊天模型的交互
与聊天模型的交互,我们需要使用 langchain.chat_models
模块中的 ChatOpenAI
类。
python
from langchain.chat_models import ChatOpenAI
from langchain.schema import AIMessage, HumanMessage, SystemMessage
import os
os.environ['OPENAI_API_KEY'] = '您的有效OpenAI API Key'
chat = ChatOpenAI(temperature=0)
response = chat.predict_messages([
HumanMessage(content="What is AI?")
])
print(response)
可以看到,聊天模型返回的是一个
AIMessage
类型的对象。这里就要给大家科普一下Langchain里的三个消息类
三个消息类
Langchain框架提供了三个消息类,分别是 AIMessage
、HumanMessage
和 SystemMessage
。它们对应了OpenAI聊天模型API支持的不同角色 assistant
、user
和 system
。
Langchain类 | OpenAI角色 | 作用 |
---|---|---|
AIMessage | assistant | 模型回答的消息 |
HumanMessage | user | 用户向模型的请求或提问 |
SystemMessage | system | 系统指令,用于指定模型的行为 |
我们尝试用SystemMessage来指定一下模型的行为,指定模型对AI一无所知,在回答AI相关问题时,回答"I don't know"。
python
response = chat.predict_messages([
SystemMessage(content="You are a chatbot that knows nothing about AI. When you are asked about AI, you must say 'I don\'t know'"),
HumanMessage(content="What is deep learning?")
])
print(response)

结语
Langchain的模型封装为开发者提供了便捷、高效的方式,利用OpenAI API进行文本生成和语言建模。通过本文的介绍,希望读者能更深入地了解Langchain的模型体系,以及如何灵活运用这些模型进行自然语言处理的开发。