Baichuan2百川模型部署的bug汇总

1.4bit的量化版本最好不要在Windows系统中运行,大概原因报错原因是bitsandbytes不支持window,bitsandbytes-windows目前仅支持8bit量化。

2.

报错原因是机器没有足够的内存和显存,offload_folder设置一个文件夹来保存那些离线加载到硬盘的权重。

ag:需要再cli_demo.py的文件中增加

offload_folder="offload" model.float()

3.安装对应的cuda版本 Python版本 pytorch版本

读者有bug可以在评论区留言,我会尽可能回复解答

相关推荐
ALGO阿狗5 天前
SimpleDateFormat(“YYYY-MM-dd“)格式化时间出现了bug?
bug
爱学习的小可爱卢6 天前
JavaSE基础-Java异常体系:Bug定位终极指南
java·bug·javase
GeekyGuru6 天前
代码诊疗室——疑难Bug破解战
bug
嵌入式×边缘AI:打怪升级日志9 天前
9.2.3 UART 驱动严重 Bug(保姆级讲解)
bug
qq_242188633211 天前
代码诊疗室——疑难Bug破解战
bug
Moshow郑锴13 天前
Java SpringBoot 疑难 Bug 排查思路解析:从“语法正确”到“行为相符”
java·spring boot·bug
人间花海13 天前
BUG终结者:挑战你的调试极限
bug
2401_8582861113 天前
OS54.【Linux】System V 共享内存(3) “共享内存+管道“修bug记录
linux·运维·服务器·算法·bug
Kurbaneli14 天前
代码诊疗室——疑难Bug破解战
bug
Mr -老鬼16 天前
从 0 到 1 落地:Rust + Salvo 实现用户系统与 Bug 管理系统
开发语言·rust·bug