先执行
bash
import torch
print(f"CUDA Available: {torch.cuda.is_available()}")
print(f"CUDA Version: {torch.version.cuda}")
import torchaudio
print("Torchaudio loaded successfully!")
如果继续报错的话,则代表你的 PyTorch 环境通过某些渠道安装了支持 CUDA 13 的 torchaudio 版本,但你的系统环境里只有 CUDA 12.8 的驱动。
这是一个典型的 版本超前 问题。torchaudio 疯狂寻找 libcudart.so.13,但你的显卡驱动还没升级到那个版本。
对于 LLaMA-Factory 这种法律文本微调 任务,torchaudio 其实是"非必要组件"。我们可以通过以下两种策略最快解决:
方案一:彻底卸载 Torchaudio (最快解决)
如果你不需要音频处理,直接删掉它。LLaMA-Factory 在启动 WebUI 时虽然会 import 它,但如果你没有语音数据,代码依然可以跑。
bash
pip uninstall torchaudio -y
卸载后,尝试重新运行:
bash
llamafactory-cli webui
如果程序启动时报错提示缺失 torchaudio,请看方案二。
方案二:降级并统一全家桶版本 (最稳妥)
为了确保万无一失,我们需要让 torch、torchvision 和 torchaudio 的版本降回到与你的 CUDA 12.8 兼容的状态(通常是 12.4 的编译版本)。
执行以下一键重装命令:
bash
pip install --force-reinstall torch==2.6.0 torchvision==0.21.0 torchaudio==2.6.0 --index-url https://download.pytorch.org/whl/cu124
- 为什么用 cu124? 目前 PyTorch 官方稳定版最高支持到 cu124,它在 CUDA 12.8 环境下表现最稳定,不会去乱找
so.13文件。 - 注意 :
--force-reinstall会确保清除掉之前那些"乱码"的版本。
方案三:SSH 隧道避坑提醒
等你解决了报错,启动 UI 后,请务必注意你的 SSH 转发逻辑 。因为你在 AutoDL 或类似平台,它们的端口转发往往有自己的规则。
-
服务器端启动: 运行
llamafactory-cli webui。 -
本地连接(如果你用的是 Windows):
powershell# 替换为你实际的服务器地址和端口 ssh -CNg -L 7860:127.0.0.1:7860 root@region-x.seetacloud.com -p 12345 -
本地访问: 浏览器输入
http://127.0.0.1:7860。
检查命令
重装完成后,运行这个脚本,如果 不报错,说明你的 WebUI 一定能打开:
bash
python -c "import torch; import torchaudio; print('Done!')"
我用的第二种方法,结束之后运行 llamafactory-cli webui就可以正常访问到ui了。