本地GPT-window平台 搭建ChatGLM3-6B

一 ChatGLM-6B 介绍

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,新一代开源模型 ChatGLM3-6B 已发布,拥有10B以下最强的基础模型,支持工具调用(Function Call)、代码执行(Code Interpreter)、Agent 任务等功能,结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。

二 在 window平台 搭建ChatGLM3-6B

1 在github下拉该项目代码:

1 下拉项目源代码:

https://github.com/THUDM/ChatGLM-6B

bash 复制代码
git clone https://github.com/THUDM/ChatGLM-6B
cd ChatGLM-6B

2 下载项目数据模型

国内可下载地址:魔搭社区

下载的模型数据保存位置:

如果保存在别的地方需要指定配置模型路径的系统变量,也可以直接修改以下代码,如下图:

2 环境安装

使用 pip 安装依赖:pip install -r requirements.txt

bash 复制代码
pip install -r requirements.txt

**注意:**项目没有有明确说支持什么平台,当安装依赖时会报错,因为有一个vllm是不支持windows平台的,所以安装依赖时要注释掉一个依赖 vllm,其作用是加速推理项目可以不用,该框架的官方网站明确只支持linux,如下图:

检查pytorch环境

python 复制代码
import torch


if __name__ == '__main__':
    # 检测cuda环境
    print(torch.__version__)
    print(torch.cuda.is_available())
    print(torch.version.cuda)

pytorch正常,cuda可用如下图:

如果这一步有问题,请查看之前的文章:https://blog.csdn.net/qyhua/article/details/136248165

3 启动项目

启动演示项目:

bash 复制代码
cd basic_demo
python web_demo_gradio.py

启动过程中,大概要有4G左右的空闲内存,如果内存不够启动失败,且没有任何提示,如下图:

测试成功如下图:

由于我的电脑配置低,3060的显卡只有12G显存,所以这里改了一下代码。

这里测试了一下,当量化参数设置成8 时GPU内存大概使用了8G多,当设置成4时,只用了4G多,如下图:

bash 复制代码
model = AutoModel.from_pretrained(model_dir, trust_remote_code=True).quantize(8).cuda()

量化参数设置成8时的效果图,回复比4快。

量化参数设置成4时 ,系统本身用了1.5G,模型大概使用了4G多。如下图:

相关推荐
小新ya3 小时前
gpt导出聊天记录
gpt·聊天记录导出
向量引擎5 小时前
复刻“疯狂的鸽子”?用Python调用Sora2与Gemini-3-Pro实现全自动热点视频流水线(附源码解析)
开发语言·人工智能·python·gpt·ai·ai编程·api调用
程序员佳佳15 小时前
【万字硬核】从零构建企业级AI中台:基于Vector Engine整合GPT-5.2、Sora2与Veo3的落地实践指南
人工智能·gpt·chatgpt·ai作画·aigc·api·ai编程
悟道心1 天前
8. 自然语言处理NLP -GPT
人工智能·gpt·自然语言处理
周周爱喝粥呀2 天前
LLM 中的自回归模型与非自回归模型:GPT 和 BERT 的区别
人工智能·gpt·ai·回归
共绩算力2 天前
DeepSeek V3.2 迈向 GPT-5 级别性能的路径:稀疏注意力、大规模强化学习与上下文重用
人工智能·gpt·共绩算力
百***24372 天前
GPT-5.2 vs DeepSeek-V3.2 全维度对比:一步API适配下的研发选型指南
gpt
百***24372 天前
GPT-5.2与DeepSeek-V3.2选型指南:一步API通用下的全维度技术对比
gpt
维度攻城狮2 天前
科研提速!Zotero Awesome GPT 搭配本地 Ollama 模型使用指南
gpt·zotero·ollama·awesome gpt
victory04313 天前
同一prompt下 doubao qwen gpt kimi的模型训练时长预测不同表现
gpt·prompt