windows编译llama.cpp GPU版本

Build 指南

https://github.com/ggerganov/llama.cpp/blob/master/docs/build.md

一、Prerequire 具体步骤(以及遇到的坑):

如果你要使用CUDA,请确保已安装。

1.安装 最新的 cmake, git, anaconda, pip 配置pytorch环境

2.git clone https://github.com/ggerganov/llama.cpp.git

  1. 安装 Microsoft Visual C++ Build Tools。 cmake 和 Build Tools共同构成C++编译系统。

加入PATH

C:\Program Files (x86)\Microsoft Visual Studio\2019\BuildTools\VC\Tools\MSVC\<版本号>\bin\Hostx64\x64

  1. CMake"cmake is not able to compile a simple test program"错误

解决方法 修改文件, 屏蔽掉 cmake 报警

  1. No CUDA toolset found.

复制四个文件到BuildTools对应目录。

C:\Program Files (x86)\Microsoft Visual Studio\2019\BuildTools\MSBuild\Microsoft\VC\v160\BuildCustomizations

6.prerequirements配置结束。

二、编译llama.cpp(GPU版本)

windows 采用Using cmake。配置完成,编译只需要两条指令。

进入llama.cpp目录

cmake -B build -DGGML_CUDA=ON

cmake --build build --config Release

编译成功。 生成文件列表!把这些文件复制到llama.cpp主目录。

相关推荐
paixiaoxin20 小时前
CV-MLLM经典论文解读| Link-Context Learning for Multimodal LLMs面向多模态大型语言模型的链接上下文学习
人工智能·深度学习·机器学习·计算机视觉·语言模型·大语言模型·mllm
阿正的梦工坊1 天前
如何查看下载到本地的大模型的具体大小?占了多少存储空间:Llama-3.1-8B下载到本地大概15GB
llm·llama
Jamence2 天前
文本表征的Scaling Laws:Scaling Laws For Dense Retrieval
python·语言模型·自然语言处理
羊羊洒洒_Blog2 天前
【翻译】审慎对齐:推理使更安全的语言模型成为可能
人工智能·语言模型·自然语言处理·openai·推理·o1
青松@FasterAI2 天前
【NLP高频面题 - LLM训练篇】为什么要对LLM做有监督微调(SFT)?
人工智能·深度学习·语言模型·自然语言处理·nlp面试·算法面题
XianxinMao2 天前
BitNet a4.8:通过4位激活实现1位大语言模型的高效内存推理
人工智能·语言模型·自然语言处理
Debroon2 天前
基于编程语言的知识图谱表示增强大模型推理能力研究,一种提升LLM推理准确率达91.5%的结构化数据方法
人工智能·语言模型·知识图谱
hao_wujing2 天前
InstructGPT:基于人类反馈训练语言模型遵从指令的能力
人工智能·语言模型·自然语言处理
一支王同学2 天前
大语言模型(LLMs)数学推理的经验技巧【思维链CoT的应用方法】
人工智能·语言模型·自然语言处理
hao_wujing2 天前
LLaMA 2开放基础和微调聊天模型
服务器·人工智能·llama