Baichuan2百川模型部署的bug汇总

1.4bit的量化版本最好不要在Windows系统中运行,大概原因报错原因是bitsandbytes不支持window,bitsandbytes-windows目前仅支持8bit量化。

2.

报错原因是机器没有足够的内存和显存,offload_folder设置一个文件夹来保存那些离线加载到硬盘的权重。

ag:需要再cli_demo.py的文件中增加

offload_folder="offload" model.float()

3.安装对应的cuda版本 Python版本 pytorch版本

读者有bug可以在评论区留言,我会尽可能回复解答

相关推荐
gxn_mmf1 天前
典籍知识问答重新生成和消息修改Bug修改
前端·bug
千里马学框架2 天前
重学安卓14/15自由窗口freeform企业实战bug-学员作业
android·framework·bug·systrace·安卓framework开发·安卓窗口系统·自由窗口
Bear on Toilet3 天前
Bug日记——实现“日期类”
开发语言·c++·bug
Direction_Wind3 天前
flinksql bug : Max aggregate function does not support type: CHAR
bug
mg6684 天前
Python Bug 修复案例分析:多线程数据竞争引发的bug 两种修复方法
bug
黎猫大侠5 天前
一次Android Fragment内存泄露的bug解决记录|Fragment not attach to an Activity
android·bug
七七小报5 天前
uniapp-商城-48-后台 分类数据添加修改弹窗bug
uni-app·bug
windwind20005 天前
发行基础:本地化BUG导致审核失败
游戏·青少年编程·编辑器·bug·创业创新·玩游戏
Htht1115 天前
【Qt】之【Bug】点击按钮(ui->pushButton)触发非本类设置的槽函数
qt·ui·bug
gxn_mmf6 天前
典籍知识问答模块AI问答功能feedbackBug修改+添加对话名称修改功能
前端·后端·bug