Baichuan2百川模型部署的bug汇总

1.4bit的量化版本最好不要在Windows系统中运行,大概原因报错原因是bitsandbytes不支持window,bitsandbytes-windows目前仅支持8bit量化。

2.

报错原因是机器没有足够的内存和显存,offload_folder设置一个文件夹来保存那些离线加载到硬盘的权重。

ag:需要再cli_demo.py的文件中增加

offload_folder="offload" model.float()

3.安装对应的cuda版本 Python版本 pytorch版本

读者有bug可以在评论区留言,我会尽可能回复解答

相关推荐
西柚小萌新2 小时前
Bug--python画图
bug
狐凄1 天前
Python一些项目bug
windows·python·bug
利来利往1 天前
lua除法bug
开发语言·bug·lua
LittleSeedling2 天前
【bug】使用transformers训练二分类任务时,训练损失异常大
bug
何遇mirror2 天前
【话题】Bug 故事:跨时区的时间转换错误
bug
蜡笔羊驼2 天前
pyfftw BUG
bug
Evand J2 天前
写的bug与调试
bug
dr李四维2 天前
应用商店双弹窗“APP在向用户申请权限时未同步告知用户申请此权限的理由”驳回uni-app应用上线的解决方法
前端·javascript·笔记·uni-app·产品运营·bug·产品经理
代码唐3 天前
uniapp奇怪bug汇总
uni-app·bug
乄bluefox3 天前
SpringBoot中使用Sharding-JDBC实战(实战+版本兼容+Bug解决)
java·数据库·spring boot·redis·后端·缓存·bug