中英双语对话大语言模型:ChatGLM-6B

介绍

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language Model (GLM) 架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。 ChatGLM-6B 使用了和 ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约 1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的 ChatGLM-6B 已经能生成相当符合人类偏好的回答

为了方便下游开发者针对自己的应用场景定制模型,我们同时实现了基于 P-Tuning v2 的高效参数微调方法 (使用指南) ,INT4 量化级别下最低只需 7GB 显存即可启动微调。

硬件需求

量化等级 最低 GPU 显存(推理) 最低 GPU 显存(高效参数微调)
FP16(无量化) 13 GB 14 GB
INT8 8 GB 9 GB
INT4 6 GB 7 GB

CPU 部署

如果你没有 GPU 硬件的话,也可以在 CPU 上进行推理,但是推理速度会更慢。使用方法如下(需要大概 32GB 内存)

bash 复制代码
model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).float()

如果你的内存不足,可以直接加载量化后的模型:

bash 复制代码
# INT8 量化的模型将"THUDM/chatglm-6b-int4"改为"THUDM/chatglm-6b-int8"
model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4",trust_remote_code=True).float()

截图

地址

ChatGLM-6B

相关推荐
冰菓Neko7 分钟前
AI就是个fw
人工智能
学算法的程霖10 分钟前
目标检测135个前沿算法模型汇总(附源码)!
图像处理·人工智能·pytorch·深度学习·目标检测·计算机视觉·transformer
J先生x27 分钟前
【IP101】目标检测工作原理:从滑动窗口到Haar特征检测的完整实现
图像处理·人工智能·学习·目标检测·机器学习·计算机视觉·目标跟踪
zhongtianhulian1 小时前
中天智能装备科技有限公司:智能仓储领域的卓越之选
大数据·人工智能·科技
所见即所得111111 小时前
图像噪声模拟
人工智能·深度学习
BOB-wangbaohai6 小时前
LangChain4j入门AI(六)整合提示词(Prompt)
人工智能·prompt·springboot3.x·langchain4j
灬0灬灬0灬7 小时前
pytorch训练可视化工具---TensorBoard
人工智能·pytorch·深度学习
文火冰糖的硅基工坊8 小时前
[创业之路-369]:企业战略管理案例分析-9-战略制定-差距分析的案例之华为
人工智能·华为·架构·系统架构·跨学科·跨学科融合
平和男人杨争争9 小时前
山东大学计算机图形学期末复习15——CG15
人工智能·算法·计算机视觉·图形渲染
lucky_lyovo9 小时前
OpenCV图像边缘检测
人工智能·opencv·计算机视觉