window 环境安装llama

1 、 Download CMake

解压后,编辑环境变量 Path 中 增加

D:\project\llama\cmake-4.2.3-windows-x86_64\cmake-4.2.3-windows-x86_64\bin

1、步骤 1:在构建机编译(带 VS2022)

llama.cpp 是 C/C++ 项目,Windows 上默认使用 MSVC(Microsoft Visual C++) 编译器:

  • build.bat 脚本依赖 cl.exe(MSVC 编译器)
  • 需要 Windows SDK 和 C++ 运行时库头文件

适用于 Windows、Mac 和 Linux 的 Visual Studio 和 VS Code 下载

git clone https://github.com/ggerganov/llama.cpp

cd llama.cpp

下载 ninja

Releases · ninja-build/ninja

加到环境变量 Path中,

在 CMD 中运行 vcvars64.bat,再启动 PowerShell

🔧 操作步骤如下:
  1. 关闭当前 PowerShell
  2. 按下 Win + R,输入 cmd,回车 → 打开 命令提示符(CMD)
  3. 在 CMD 中运行以下命令:

call "D:\Program Files\Microsoft Visual Studio\18\Community\VC\Auxiliary\Build\vcvars64.bat"

  1. 在同一 CMD 窗口中,启动 PowerShell:

    1. 检查 cl.exe

    cl /?

    2. 检查 rc.exe

    rc /?

    3. 检查 LIB 路径是否包含 Windows SDK

    $env:LIB -split ';' | Select-String -Pattern "Windows Kits.*x64"

    4. 测试编译一个小程序

    echo 'int main(){return 0;}' > test.c
    cl test.c
    dir test.exe # 应该存在!

如果 test.exe 成功生成,说明 编译器、链接器、SDK 全部正常!

复制代码
# 进入项目目录
cd D:\project\llama\llama.cpp

# 清理旧构建
Remove-Item build-ninja -Recurse -Force

# 创建新构建目录
mkdir build-ninja
cd build-ninja

# 配置 CMake
cmake .. -G Ninja -DCMAKE_BUILD_TYPE=Release -DLLAMA_CURL=OFF

# 编译
cmake --build .

参考:Windows 环境下 llama.cpp 编译 + Qwen 模型本地部署全指南-CSDN博客

下载 qwen2.5-7b-instruct-1m-q4_k_m.gguf

启动服务:

复制代码
:: 1. 打开 CMD
:: 2. 运行以下命令
cd /d D:\project\llama\llama.cpp\build-ninja\bin
chcp 65001
llama-server.exe -m D:\models\qwen2.5-7b-instruct-1m-q4_k_m.gguf --port 11433 -c 8192 --threads 6

llama.cpp - AI Chat Interface

在浏览器中打开:

后台运行的命令如下 在cmd中打开:

复制代码
cd /d D:\project\llama\llama.cpp\build-ninja\bin && chcp 65001 >nul && start /min cmd /c "llama-server.exe -m D:\models\qwen2.5-7b-instruct-1m-q4_k_m.gguf --host 0.0.0.0 --port 11433 -c 4096 --threads 6 >> D:\llama.log 2>&1"
相关推荐
胖少年4 小时前
从零开始:在 Windows 上用 llama.cpp 跑本地大模型
windows·llama
路人与大师1 天前
在天垓150上部署 Llama-2-13B:一次 Iluvatar BI-V150 / CoreX 实战适配记录
llama
code_pgf1 天前
Llama 3 / Qwen / Mistral / DeepSeek 对比详解
人工智能·知识图谱·llama
yumgpkpm2 天前
Qwen3.6正式开源,华为昇腾910B实现高效适配
华为·ai作画·stable diffusion·开源·ai写作·llama·gpu算力
究极无敌暴龙战神X3 天前
RAG基本流程
自然语言处理·llama·rag
code_pgf4 天前
Llama 3详解
人工智能·llama
m0_488913014 天前
万字长文带你梳理Llama开源家族:从Llama-1到Llama-3,看这一篇就够了!
人工智能·学习·机器学习·大模型·产品经理·llama·uml
helpme流水4 天前
LLaMA Factory 从入门到精通,一篇讲完
人工智能·ai·语言模型·llama
许彰午5 天前
零成本搭建RAG智能客服:Ollama + Milvus + DeepSeek全程实战
人工智能·语音识别·llama·milvus
d1z8886 天前
(二十一)32天GPU测试从入门到精通-LLaMA 系列模型测试day19
llama·显卡·llm推理·推理引擎