Baichuan2百川模型部署的bug汇总

1.4bit的量化版本最好不要在Windows系统中运行,大概原因报错原因是bitsandbytes不支持window,bitsandbytes-windows目前仅支持8bit量化。

2.

报错原因是机器没有足够的内存和显存,offload_folder设置一个文件夹来保存那些离线加载到硬盘的权重。

ag:需要再cli_demo.py的文件中增加

offload_folder="offload" model.float()

3.安装对应的cuda版本 Python版本 pytorch版本

读者有bug可以在评论区留言,我会尽可能回复解答

相关推荐
萧曵 丶1 天前
Java 常用运行参数配置及实际业务详解
java·bug·优化·问题排查·生产问题
熊猫钓鱼>_>1 天前
Makefile应用场景实践日志:构建高效C/C++项目工作流
c语言·c++·bug·mfc·makefile·编译·kmp
野生技术架构师1 天前
喜提一个bug,聊聊@NotEmpty和@NotBlank
java·算法·bug
好记忆不如烂笔头abc1 天前
dmesg日志显示BUG: unable to handle page fault for address
bug
有错误先debug2 天前
记录一次接入Google智能音箱开发测试阶段的bug修复
bug·智能音箱
百***58842 天前
技术文章大纲:Bug悬案侦破大会
bug
滴啦嘟啦哒3 天前
【机械臂】【基本驱动】三、对于夹取物体bug的最新解决
深度学习·bug·ros
CNRio4 天前
Day 45:Git的高级技巧:使用Git的bisect快速定位bug
git·elasticsearch·bug
su_075 天前
Bug悬案侦破大会
bug
gjc5925 天前
MySQL隐蔽 BUG:组合条件查询无故返回空集?深度排查与规避方案
android·数据库·mysql·bug