【AI落地应用实战】DAMODEL深度学习平台部署+本地调用ChatGLM-6B解决方案

ChatGLM-6B是由清华大学和智谱AI开源的一款对话语言模型,基于 General Language Model (GLM)架构,具有 62亿参数。该模型凭借其强大的语言理解和生成能力、轻量级的参数量以及开源的特性,已经成为在学术界和工业界引起了广泛关注。

本篇将介绍使用DAMODEL深度学习平台部署ChatGLM-6B模型,然后通过Web API的形式使用本地代码调用服务端的模型进行对话。

一、DAMODEL-ChatGLM-6B服务端部署

DAMODEL(丹摩智算)是专为AI打造的智算云,致力于提供丰富的算力资源与基础设施助力AI应用的开发、训练、部署。目前给新用户提供了近100小时的免费4090算力可供使用。

1.1、实例创建

首先进入DAMODEL控制台,点击资源-GPU云实例,点击创建实例:

进入创建页面后,首先在实例配置中首先选择付费类型为按量付费,其次选择单卡启动,然后选择需求的GPU型号,本次实验可以选择选择:按量付费--GPU数量1--NVIDIA-GeForc-RTX-4090,该配置为60GB内存,24GB的显存。

继续往下翻,配置数据硬盘的大小,每个实例默认附带了50GB的数据硬盘,本次创建可以就选择默认大小50GB,可以看到,平台提供了一些基础镜像供快速启动,镜像中安装了对应的基础环境和框架,这里选择PyTorch1.13.1的框架启动,也可以选择PyTorch2.1.2版本启动。

点击创建密钥对,输入自定义的名称,创建好密钥对后,选择刚刚创建好的密钥对,并点击立即创建,等待一段时间后即可启动成功!

1.2、模型准备

启动环境后,打开终端,用git 克隆github.com/THUDM/ChatG... 项目, 若遇到github连接超时,可以选择gitcode站点,或者离线下载并上传到项目中。

bash 复制代码
cd /home/aistudio/work/
git clone https://github.com/THUDM/ChatGLM-6B.git
# 如果遇见github因为网络问题导致失败,可选择gitcode站点进行下载
# git clone https://gitcode.com/applib/ChatGLM-6B.git

成功克隆项目后,会显示如下文件夹:

其次cd进入该文件夹,使用pip安装项目依赖:

bash 复制代码
pip install -r requirements.txt

可以看到DAMODEL平台环境依赖的下载安装速度可以达到18MB/s以上,非常迅速,等待片刻显示如下Successfully installed则说明依赖安装完成!

依赖安装成功后,我们需要引入模型文件,比较方便的是,DAMODEL(丹摩智算)提供了数据上传功能,用户有20GB免费存储空间,该空间被挂载到实例的/root/shared-storage目录,跨实例共享。

这里首先点击文件存储,点击上传文件。

然后下载Hugging Face上的ChatGLM-6B预训练模型,也可以进入魔塔社区选择www.modelscope.cn/models/Zhip...

然后将下载下来的模型文件及配置进行上传并解压,上传时尽量保持该界面首页显示,等待上传成功后再进行其他操作。

1.3、模型启动

上传好预训练模型及解压后,我们就可以去启动python脚本运行了,ChatGLM-6B提供了cli_demo.py和web_demo.py两个文件来启动模型,第一个是使用命令行进行交互,第二个是使用本机服务器进行网页交互。

由于要使用本地模型启动,所以我们需要把从Hugging Face Hub加载改为本地路径加载,打开cli_demo.py和web_demo.py文件,将这两行代码改为从本地文件目录加载预训练模型。

然后在终端输入python cli_demo.py就可以成功启动模型了,在cli_demo.py中,main函数启动一个无限循环,等待用户输入。用户可以输入文本与模型进行对话,或输入"clear"清空对话历史并清除屏幕,或输入"stop"退出程序。对于正常的对话输入。

启动模型后的效果如下图所示:

也可以在终端输入python web_demo.py,通过Web界面与模型进行交互。

不过由于Jupyter的限制,无法直接打开访问服务器的127.0.0.1:7860网页端交互界面,这里可以利用MobaXterm建立ssh隧道,实现远程端口到本机端口的转发。首先打开tunneling,新建SSH通道,填入ssh的相关配置,并将7860通道内容转发到本机,点击start开始转发:

转发成功后,就可以成功在网页与模型进行交互了,效果如下:

二、通过Web API实现本地使用

2.1、启动服务

通过以上步骤,我们成功启动了ChatGLM-6B模型,并可以在服务器的JupyterLab中进行对话,下面我们将其部署为API服务,然后在本地进行使用。

同样ChatGLM-6B模型为我们提供了api.py文件,它实现了一个基于FastAPI框架API服务,其接收一个HTTP POST请求,该请求体包含文本生成所需的参数,如prompt(提示文本)、history(对话历史)、max_length(生成文本的最大长度)、top_p(采样时的累积概率阈值)和temperature(采样时的温度参数,影响生成文本的随机性)。在接收到请求后,该服务使用预训练的模型和分词器(tokenizer)来生成一个响应文本,并更新对话历史。随后生成的响应文本、更新后的对话历史、状态码(固定为200)和当前时间戳被打包成一个JSON对象并返回给客户端。

我们可以直接在终端cd进入ChatGLM-6B文件夹,运行api.py文件:

bash 复制代码
cd ChatGLM-6B
python api.py

显示如下提示则说明启动成功!

2.2、开放端口

其次需要为本地访问开放对应的端口,首先需要点击访问控制,进入端口开放页面

然后点击添加端口,输入端口号,并点击确定开放:

点击确认开放端口后,平台会给出访问链接,将其复制以便后续使用

做完以上这些步骤后,服务器端就已经部署好了,接下来测试本地调用效果!

2.3、使用PostMan测试功能

打开PostMan,新建一个Post,将刚刚复制的网址粘贴到url栏,然后在Body中填入相应的内容。

Body示例内容如下:

json 复制代码
{  
  "prompt": "你好,你是谁?",  
  "max_length": 512,  
  "top_p": 0.9,  
  "temperature": 0.7  
}

点击send后,显示以下response则说明成功!

2.4、本地代码使用功能

测试完成后,下面开始转到本地开发,以下是一个基础的单轮对话功能示例代码:

bash 复制代码
import requests  
import json  

# API的URL  
# 即刚刚复制的访问链接
api_url = "http://cqbiq6nhri0c73eq3cv0-8000.agent.damodel.com"  
   
data = {  
    "prompt": "你好,你是谁?",  
    "max_length": 500,  
    "top_p": 0.9,  
    "temperature": 1.0  
}  

# 发送POST请求   
response = requests.post(api_url, json=data)  

# 检查响应状态码   
if response.status_code == 200:  
    result = response.json()  
    print("Response:", result['response'])  
    print("Updated History:", result['history'])  
    print("Time:", result['time'])  
else:  
    print("Failed to get response from the API. Status code:", response.status_code)  
    print(response.text)

在此基础上,我们可以实现一个基于ChatGLM-6B模型的简单对话系统,在本地通过命令行与DAMODEL部署好的模型进行交互。对于正常的对话输入,程序将用户的输入作为prompt,连同当前的对话历史记录conversation_history、最大生成长度max_lengthtop_ptemperature等参数一起发送到指定的API URL。然后,它检查API的响应状态码。如果状态码为200,表示请求成功,程序将打印出API返回的响应内容和更新后的对话历史记录,并更新conversation_history列表。

以下是一个多轮对话的示例代码:

bash 复制代码
import requests  
import json  
  
api_url = "http://cqbiq6nhri0c73eq3cv0-8000.agent.damodel.com"  

conversation_history = []
print("欢迎使用 ChatGLM-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序")

while True:
    query = input("\n用户:")
    if query.strip() == "stop":
        break
    if query.strip() == "clear":
        history = []
        os.system(clear_command)
        print("欢迎使用 ChatGLM-6B 模型,输入内容即可进行对话,clear 清空对话历史,stop 终止程序")
        continue
    prompt = query
    data = {  
        "prompt": prompt,  
        "history": conversation_history,  
        "max_length": 5000,  
        "top_p": 0.9,  
        "temperature": 0.9  
    }
    response = requests.post(api_url, json=data)
    if response.status_code == 200:  
        result = response.json()  
        print("Response:", result['response'])  
        print("Updated History:", result['history'])  
          
        conversation_history = result['history']
          
    else:  
        print("Failed to get response from the API. Status code:", response.status_code)  
        print(response.text)  

运行的效果如下:

除了常规的4090显卡和P40显卡,DAMODEL(丹摩智算)上线了H800系列显卡,基于最新的Ampere架构,7纳米制程,拥有10240个CUDA核心和320个Tensor核心强势登陆,点击立即体验

相关推荐
张人玉15 分钟前
人工智能——猴子摘香蕉问题
人工智能
草莓屁屁我不吃19 分钟前
Siri因ChatGPT-4o升级:我们的个人信息还安全吗?
人工智能·安全·chatgpt·chatgpt-4o
小言从不摸鱼23 分钟前
【AI大模型】ChatGPT模型原理介绍(下)
人工智能·python·深度学习·机器学习·自然语言处理·chatgpt
AI科研视界44 分钟前
ChatGPT+2:修订初始AI安全性和超级智能假设
人工智能·chatgpt
霍格沃兹测试开发学社测试人社区1 小时前
人工智能 | 基于ChatGPT开发人工智能服务平台
软件测试·人工智能·测试开发·chatgpt
小R资源1 小时前
3款免费的GPT类工具
人工智能·gpt·chatgpt·ai作画·ai模型·国内免费
artificiali4 小时前
Anaconda配置pytorch的基本操作
人工智能·pytorch·python
酱香编程,风雨兼程5 小时前
深度学习——基础知识
人工智能·深度学习
Lossya5 小时前
【机器学习】参数学习的基本概念以及贝叶斯网络的参数学习和马尔可夫随机场的参数学习
人工智能·学习·机器学习·贝叶斯网络·马尔科夫随机场·参数学习
#include<菜鸡>5 小时前
动手学深度学习(pytorch土堆)-04torchvision中数据集的使用
人工智能·pytorch·深度学习