【笔记】解决 Stable Diffusion WebUI 启动 “找不到llama_cpp模块”

【笔记】解决 Stable Diffusion WebUI 启动 "找不到llama_cpp模块"

【笔记】重建 Stable Diffusion WebUI 虚拟环境实录

找不到llama_cpp模块

"找不到 llama_cpp 模块" 并不是 SD-WebUI 本身缺失,而是我们在用 GGUF 模型或装了需要它的扩展(如 llama_cpp_python 推理插件),但 Python 环境里 没装 llama-cpp-python 或其编译失败 导致的运行时 ImportError。

按 Windows 常见踩坑顺序,下面给出"先快速后根治"的两套方案。


一、1 分钟先救急(直接用现成 wheel)

  1. 激活 webui 用的同一解释器(你已经是 .venv 环境,确认命令行前面有 (.venv) 即可)。
  2. 针对 CPU 版(无显卡也能跑)执行:
cmd 复制代码
   pip uninstall -y llama-cpp-python llama_cpp_python_cuda
   pip install --upgrade pip
   pip install llama-cpp-python ^
     --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu

如果 CUDA 12 想跑 GPU:

cmd 复制代码
   pip install llama-cpp-python ^
     --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cu121

装完验证:

python 复制代码
   python -c "from llama_cpp import Llama; print('ok')"

能打印 ok 说明模块已识别,可重新运行 webui-user.bat



二、彻底编译安装(wheel 不可用或你想自己编)

  1. 装 VS2022 生成工具

    打开 [Visual Studio Installer] → 勾选

    • "使用 C++ 的桌面开发"
    • "Windows 10/11 SDK"
    • "CMake 工具"(可选)

    安装后重启命令行让环境变量生效。

  2. 激活 venv,重新编译安装:

cmd 复制代码
   set CMAKE_GENERATOR=Visual Studio 17 2022
   set CMAKE_ARGS=-DLLAMA_BLAS=ON -DLLAMA_OPENBLAS=OFF -DLLAMA_CUBLAS=ON
   pip install --upgrade pip setuptools wheel
   pip install llama-cpp-python --no-cache-dir --force-reinstall

纯 CPU 把 -DLLAMA_CUBLAS=ON 去掉即可。

成功后同样 python -c "from llama_cpp import Llama; print('ok')" 验证。


三、常见还踩的坑

  • Git 没进 PATH → 编译脚本会找 git.exe 写版本号,找不到就崩;把 D:\Program Files\Git\cmd 加进系统 PATH 并重启 CMD/PyCharm。
  • 已有旧版冲突 → 先 pip uninstall llama-cpp-python llama_cpp_python_cuda 再装。
  • 运行时报找不到 llama.dll → 装的是 GPU 版却给 CPU 模型,或 CUDA 与 wheel 版本不一致;对照上述 --extra-index-url 选对应版本即可。

一句话总结

救急就用官方预编译 wheel(CPU/GPU 两条命令);想彻底或版本最新,就装 VS 生成工具后 pip install llama-cpp-python --no-cache-dir 本地编译。装完确认 from llama_cpp import Llama 不报错,再回 SD-WebUI 启动就不会再提示"找不到 llama_cpp 模块"。

https://zhuanlan.zhihu.com/p/1896696606679626606
https://blog.csdn.net/xrinosvip/article/details/146769607
https://blog.gitcode.com/e8ee833ff177992be800e1b49dc03ab2.html
https://dev.to/jirenmaa/failed-to-load-shared-library-llamadll-could-not-find-llama-cpp-python-5e4l

相关推荐
m0_748554815 小时前
golang如何实现用户订阅偏好管理_golang用户订阅偏好管理实现总结
jvm·数据库·python
Hommy885 小时前
【开源剪映小助手】API 接口文档
开源·github·aigc·视频剪辑自动化·剪映api
wanhengidc5 小时前
云手机 高振畅玩不踩坑
运维·服务器·安全·web安全·智能手机
有谁看见我的剑了?5 小时前
linux 添加硬盘后系统识别不到硬盘处理
linux·运维·服务器
码途漫谈5 小时前
Easy-Vibe开发篇阅读笔记(四)——前端开发之结合 Agent Skills 美化界面
人工智能·笔记·ai·开源·ai编程
smj2302_796826525 小时前
解决leetcode第3911题.移除子数组元素后第k小偶数
数据结构·python·算法·leetcode
JoyCong19985 小时前
ToDesk远程屏幕墙技术白皮书:如何重塑全局运维视界
运维·电脑·远程工作
John_ToDebug5 小时前
隐于无形,触手可及:Chrome 互动滚动条的六个设计密码
chrome·windows·ui
偶尔上线经常挺尸6 小时前
《100个“反常识”经验15:Nginx 502排查:从应用到内核》
运维·nginx·性能调优·反向代理·502错误·http排错
阿正呀6 小时前
Redis怎样实现本地缓存的高效失效通知
jvm·数据库·python