window 环境安装llama

1 、 Download CMake

解压后,编辑环境变量 Path 中 增加

D:\project\llama\cmake-4.2.3-windows-x86_64\cmake-4.2.3-windows-x86_64\bin

1、步骤 1:在构建机编译(带 VS2022)

llama.cpp 是 C/C++ 项目,Windows 上默认使用 MSVC(Microsoft Visual C++) 编译器:

  • build.bat 脚本依赖 cl.exe(MSVC 编译器)
  • 需要 Windows SDK 和 C++ 运行时库头文件

适用于 Windows、Mac 和 Linux 的 Visual Studio 和 VS Code 下载

git clone https://github.com/ggerganov/llama.cpp

cd llama.cpp

下载 ninja

Releases · ninja-build/ninja

加到环境变量 Path中,

在 CMD 中运行 vcvars64.bat,再启动 PowerShell

🔧 操作步骤如下:
  1. 关闭当前 PowerShell
  2. 按下 Win + R,输入 cmd,回车 → 打开 命令提示符(CMD)
  3. 在 CMD 中运行以下命令:

call "D:\Program Files\Microsoft Visual Studio\18\Community\VC\Auxiliary\Build\vcvars64.bat"

  1. 在同一 CMD 窗口中,启动 PowerShell:

    1. 检查 cl.exe

    cl /?

    2. 检查 rc.exe

    rc /?

    3. 检查 LIB 路径是否包含 Windows SDK

    $env:LIB -split ';' | Select-String -Pattern "Windows Kits.*x64"

    4. 测试编译一个小程序

    echo 'int main(){return 0;}' > test.c
    cl test.c
    dir test.exe # 应该存在!

如果 test.exe 成功生成,说明 编译器、链接器、SDK 全部正常!

复制代码
# 进入项目目录
cd D:\project\llama\llama.cpp

# 清理旧构建
Remove-Item build-ninja -Recurse -Force

# 创建新构建目录
mkdir build-ninja
cd build-ninja

# 配置 CMake
cmake .. -G Ninja -DCMAKE_BUILD_TYPE=Release -DLLAMA_CURL=OFF

# 编译
cmake --build .

参考:Windows 环境下 llama.cpp 编译 + Qwen 模型本地部署全指南-CSDN博客

下载 qwen2.5-7b-instruct-1m-q4_k_m.gguf

启动服务:

复制代码
:: 1. 打开 CMD
:: 2. 运行以下命令
cd /d D:\project\llama\llama.cpp\build-ninja\bin
chcp 65001
llama-server.exe -m D:\models\qwen2.5-7b-instruct-1m-q4_k_m.gguf --port 11433 -c 8192 --threads 6

llama.cpp - AI Chat Interface

在浏览器中打开:

后台运行的命令如下 在cmd中打开:

复制代码
cd /d D:\project\llama\llama.cpp\build-ninja\bin && chcp 65001 >nul && start /min cmd /c "llama-server.exe -m D:\models\qwen2.5-7b-instruct-1m-q4_k_m.gguf --host 0.0.0.0 --port 11433 -c 4096 --threads 6 >> D:\llama.log 2>&1"
相关推荐
zhangfeng113316 小时前
大语言模型调试框架 Hugging Face vs LLaMA-Factory详细对比
人工智能·语言模型·llama
zhangfeng113321 小时前
大语言模型 llama-factory 通常不推荐只用 LoRA 做新词库预热 embedding
深度学习·语言模型·llama
木卫二号Coding2 天前
第八十篇-E5-2680V4+V100-32G+llama-cpp运行+Qwen3-Next-80B-UD-Q2_K_XL.GGUF
llama
小明_GLC2 天前
大模型微调 PEFT vs LLaMA-Factory
人工智能·llama·peft·大模型微调·方法对比
打工小熊猫2 天前
langSmith接入说明
llama
墨心@3 天前
沐曦MCX500安装llama factory
人工智能·笔记·语言模型·自然语言处理·chatgpt·nlp·llama
virtualxiaoman3 天前
记录一些安装llama并使用cuda遇到的坑
llama
geovindu4 天前
CSharp:简单本地调用deepseek-r1:1.5b 模型 using .net9.0
llama
木卫二号Coding6 天前
第七十九篇-E5-2680V4+V100-32G+llama-cpp编译运行+Qwen3-Next-80B
linux·llama