【笔记】解决 Stable Diffusion WebUI 启动 “找不到llama_cpp模块”

【笔记】解决 Stable Diffusion WebUI 启动 "找不到llama_cpp模块"

【笔记】重建 Stable Diffusion WebUI 虚拟环境实录

找不到llama_cpp模块

"找不到 llama_cpp 模块" 并不是 SD-WebUI 本身缺失,而是我们在用 GGUF 模型或装了需要它的扩展(如 llama_cpp_python 推理插件),但 Python 环境里 没装 llama-cpp-python 或其编译失败 导致的运行时 ImportError。

按 Windows 常见踩坑顺序,下面给出"先快速后根治"的两套方案。


一、1 分钟先救急(直接用现成 wheel)

  1. 激活 webui 用的同一解释器(你已经是 .venv 环境,确认命令行前面有 (.venv) 即可)。
  2. 针对 CPU 版(无显卡也能跑)执行:
cmd 复制代码
   pip uninstall -y llama-cpp-python llama_cpp_python_cuda
   pip install --upgrade pip
   pip install llama-cpp-python ^
     --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu

如果 CUDA 12 想跑 GPU:

cmd 复制代码
   pip install llama-cpp-python ^
     --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cu121

装完验证:

python 复制代码
   python -c "from llama_cpp import Llama; print('ok')"

能打印 ok 说明模块已识别,可重新运行 webui-user.bat



二、彻底编译安装(wheel 不可用或你想自己编)

  1. 装 VS2022 生成工具

    打开 [Visual Studio Installer] → 勾选

    • "使用 C++ 的桌面开发"
    • "Windows 10/11 SDK"
    • "CMake 工具"(可选)

    安装后重启命令行让环境变量生效。

  2. 激活 venv,重新编译安装:

cmd 复制代码
   set CMAKE_GENERATOR=Visual Studio 17 2022
   set CMAKE_ARGS=-DLLAMA_BLAS=ON -DLLAMA_OPENBLAS=OFF -DLLAMA_CUBLAS=ON
   pip install --upgrade pip setuptools wheel
   pip install llama-cpp-python --no-cache-dir --force-reinstall

纯 CPU 把 -DLLAMA_CUBLAS=ON 去掉即可。

成功后同样 python -c "from llama_cpp import Llama; print('ok')" 验证。


三、常见还踩的坑

  • Git 没进 PATH → 编译脚本会找 git.exe 写版本号,找不到就崩;把 D:\Program Files\Git\cmd 加进系统 PATH 并重启 CMD/PyCharm。
  • 已有旧版冲突 → 先 pip uninstall llama-cpp-python llama_cpp_python_cuda 再装。
  • 运行时报找不到 llama.dll → 装的是 GPU 版却给 CPU 模型,或 CUDA 与 wheel 版本不一致;对照上述 --extra-index-url 选对应版本即可。

一句话总结

救急就用官方预编译 wheel(CPU/GPU 两条命令);想彻底或版本最新,就装 VS 生成工具后 pip install llama-cpp-python --no-cache-dir 本地编译。装完确认 from llama_cpp import Llama 不报错,再回 SD-WebUI 启动就不会再提示"找不到 llama_cpp 模块"。

https://zhuanlan.zhihu.com/p/1896696606679626606
https://blog.csdn.net/xrinosvip/article/details/146769607
https://blog.gitcode.com/e8ee833ff177992be800e1b49dc03ab2.html
https://dev.to/jirenmaa/failed-to-load-shared-library-llamadll-could-not-find-llama-cpp-python-5e4l

相关推荐
ID_180079054735 分钟前
小红书笔记详情 API 接口系列 + 标准 JSON 返回参考(完整版)
数据库·笔记·json
wertyuytrewm8 分钟前
用Python实现自动化的Web测试(Selenium)
jvm·数据库·python
Lost_in_the_woods8 分钟前
Java程序员的Linux之路——命令篇
linux·运维·服务器
IpdataCloud9 分钟前
在线IP查询API与本地离线库,速度与安全如何选型?
运维·服务器·网络
志栋智能10 分钟前
超自动化巡检,如何成为业务稳定的“压舱石”?
大数据·运维·网络·人工智能·自动化
困惑阿三13 分钟前
全栈服务器运维终极备忘录
运维·服务器·nginx·pm2
有味道的男人17 分钟前
小红书笔记评论API接通后
笔记
曲辕RPA21 分钟前
深度解析GEO技术及背后的机器人曲辕RPA
python·ai·自动化·rpa
optimistic_chen22 分钟前
【Vue3入门】自定义指令与插槽详解
linux·运维·服务器·vue.js·前端框架·指令
2301_7644413327 分钟前
使用python构建的STAR实验ΛΛ̄自旋关联完整仿真
开发语言·python·算法