Baichuan2百川模型部署的bug汇总

1.4bit的量化版本最好不要在Windows系统中运行,大概原因报错原因是bitsandbytes不支持window,bitsandbytes-windows目前仅支持8bit量化。

2.

报错原因是机器没有足够的内存和显存,offload_folder设置一个文件夹来保存那些离线加载到硬盘的权重。

ag:需要再cli_demo.py的文件中增加

offload_folder="offload" model.float()

3.安装对应的cuda版本 Python版本 pytorch版本

读者有bug可以在评论区留言,我会尽可能回复解答

相关推荐
奶糖 肥晨20 分钟前
解决 UniApp 自定义弹框被图片或 Canvas 覆盖的 Bug
uni-app·bug
phantom_1114 天前
Cursor 分析 bug 记录
bug·cursor
Direction_Wind5 天前
Flinksql bug: Heartbeat of TaskManager with id container_XXX timed out.
大数据·flink·bug
AIBigModel8 天前
智能情趣设备、爆 bug:可被远程操控。。。
网络·安全·bug
Direction_Wind8 天前
flinksql bug: Received resultset tuples, but no field str
bug
远瞻。8 天前
【bug】diff-gaussian-rasterization Windows下编译 bug 解决
windows·bug
中草药z8 天前
【测试】Bug+设计测试用例
功能测试·测试工具·测试用例·bug·压力测试·测试
我又来搬代码了9 天前
【Android】【bug】Json解析错误Expected BEGIN_OBJECT but was STRING...
android·json·bug
葵野寺9 天前
【软件测试】BUG篇 — 详解
bug·测试
青青子衿越12 天前
微信小程序右上角分享页面找不到路径bug
微信小程序·小程序·bug