浅谈
在全球程序员的圈子里,当下最火热的无疑是AI技术,其中OpenAI推出的ChatGPT更是被大家广泛使用。那我们能不能自己动手做一个chat聊天机器人呢?可以,在LangChainAI框架的帮助下简直是易如反掌...本文我将带大家来做一个聊天机器人...
LangChain
- 什么是LangChain?
LangChain 是一个开源的框架,它可以让AI开发人员把像GPT-4这样的大型语言模型(LLM)和外部数据结合起来。它提供了Python 或JavaScript(TypeScript) 的包。
- 为什么要使用LangChain?
- 首先它是一个开源框架,所以使用它会让我们的开发变得简单,变得标准
- 其次,GPT模型的训练会有局限性
我问chatGPT(3.5)什么是LangChain?他是这样回答的:
当我询问我的chat聊天机器人时,他是这样回答的:
所以chatGPT(3.5)的通用知识停留在上一次更新知识库的时间,而使用LangChain框架开发的聊天机器人在回答你的问题时可以访问到最新数据
打造聊天机器人
- 准备
我们需要使用到colab,使用谷歌账号登录即可。(tips:需要魔法登录)
点击右上角 NEW NOTEBOOK 来到以下界面
- 开始
-
安装LangChain和OpenAI,点击播放键运行
- !pip install langchain==0.0.316
- !pip install openai==0.28.1
在这里由于我们的openai版本已经超前,在这里并不适用,所以要指定旧版本
-
导入
- from langchain.chat_models import ChatOpenAI
- from langchain.schema import HumanMessage
- import os
-
配置 掘友们需要在这里写上自己的API_KEY哦
- os.environ['OPENAI_API_KEY']='*****************************************'
- chat = ChatOpenAI(temperature = 0,model_name="gpt-3.5-turbo")
-
传入问题并输出结果
- response = chat([HumanMessage(content="Hello LangChain!")])
- print(response)
python
# LangChain怎么优化OpenAI 开发的
# 聊天模型
from langchain.chat_models import ChatOpenAI
# 分为三种角色 System、assistant、user(human)
# HumanMessage?问题传给他就ok
from langchain.schema import HumanMessage
import os#文件系统
# 设置环境变量,LangChain自动来拿key
os.environ['OPENAI_API_KEY']='****************************************'
chat = ChatOpenAI(temperature = 0,model_name="gpt-3.5-turbo")
# openai接受的就是一个数组
response = chat([HumanMessage(content="Hello LangChain!")])
print(response)
先跟它打个招呼!Hello LangChain!
大家看!他回我们了!我们接着问:
是不是感觉有点东西,嘿嘿嘿~~~~~~
结尾
我们将LangChain打造的聊天机器人结合到APP应用中去,就可以为你的App请来一位'百事通'