【大语言模型】Docker部署清华大学ChatGLM3教程

官方地址:https://github.com/THUDM/ChatGLM3

1 将代码保存至本地

方法1:

复制代码
git clone https://github.com/THUDM/ChatGLM3

方法2:

复制代码
https://github.com/THUDM/ChatGLM3/archive/refs/heads/main.zip

2 创建Docker文件

注:请先完成Docker安装,安装方式参考:

Docker使用及本地Yolov5打包教程_Father_of_Python的博客-CSDN博客

①新建一个Dockerfile

②文件中写入:

复制代码
#基于的基础镜像
FROM python:3.11.6
#代码添加到code文件夹
ADD . /usr/src/app/uniform/ChatGLM3
# 设置code文件夹是工作目录
WORKDIR /usr/src/app/uniform/ChatGLM3
# 安装支持
RUN pip install -i https://pypi.tuna.tsinghua.edu.cn/simple/ -r requirements.txt

3 创建Docker

①运行以下指令:

复制代码
docker build -t chatglm3 .
docker run -it --gpus all --net=host --ipc=host --privileged=true --name test01 --ulimit core=-1 -v F:/ChatGLM3:/usr/src/app/uniform/ChatGLM3 env LANG=C.UTF-8 /bin/bash

注意:请将以上命令的 F:/ChatGLM3 改为你将项目保存至本地的路径。

②查看运行情况:

4 进入Docker中执行命令

执行命令:

复制代码
cd /usr/src/app/uniform/ChatGLM3/basic_demo
python web_demo.py

此时会进行权重文件的下载,时间可能比较长。如果有梯子,记得开启全局模式。如果没有梯子,可以手动下载:chatglm3-6b

5 完成后测试

显示成功:

6 composite_demo测试

复制代码
cd /usr/src/app/uniform/ChatGLM3/composite_demo
pip install -r requirements.txt
streamlit run main.py

运行成功:

相关推荐
冬奇Lab20 小时前
OpenClaw 源码精读(3):Agent 执行引擎——AI 如何「思考」并与真实世界交互?
人工智能·aigc
没事勤琢磨1 天前
如何让 OpenClaw 控制使用浏览器:让 AI 像真人一样操控你的浏览器
人工智能
用户5191495848451 天前
CrushFTP 认证绕过漏洞利用工具 (CVE-2024-4040)
人工智能·aigc
牛马摆渡人5281 天前
OpenClaw实战--Day1: 本地化
人工智能
前端小豆1 天前
玩转 OpenClaw:打造你的私有 AI 助手网关
人工智能
BugShare1 天前
写一个你自己的Agent Skills
人工智能·程序员
机器之心1 天前
英伟达护城河被AI攻破,字节清华CUDA Agent,让人人能搓CUDA内核
人工智能·openai
后端小肥肠1 天前
公众号躺更神器!OpenClaw+Claude Skill 实现自动读对标 + 写文 + 配图 + 存入草稿箱
人工智能·aigc·agent
爱可生开源社区1 天前
SCALE | 重构 AI 时代数据库能力的全新评估标准
人工智能
Jahzo1 天前
openclaw本地化部署体验与踩坑记录--飞书机器人配置
人工智能·开源