1.1 llama.cpp 编译

llama.cpp 更新太快,当前下载 llama.cpp-b7907.tar.gz 进行学习。编译环境选择在windows 11下,采用mingw.环境如下:

软件 版本 说明
windows win11 操作系统
llama.cpp b7907 llama.cpp
mingw64 15.2 支持c++23

编译过程:

解压llama.cpp,在解压文件中创建一个build目录,进入build目录执行cmake命令,进行配置,接着执行make命令进行编译,之后进行make install 进行安装。整个过程我整合成一个bat文件,双击即可执行对应流程。

bat 复制代码
echo Compile llama.cpp
set path=D:\tool_lite\mingw64_152\bin;%path%

cd llama.cpp-b7907
mkdir build
cd build

cmake -G "MinGW Makefiles" ^
 -DCMAKE_C_COMPILER=gcc ^
 -DCMAKE_CXX_COMPILER=g++ ^
 -DCMAKE_INSTALL_PREFIX=E:\workspace\llama\llama.cpp_install ^
 ..


mingw32-make install

@REM VERBOSE=ON

cmd

编译后自动安装到指定目录,如下图

运行测试,未报错

打印版本,版本为0

模型测试,我下载一个模型名字: unsloth_Llama-3.2-3B-Instruct-GGUF_Llama-3.2-3B-Instruct-Q4_K_M.gguf

大小1.87GB 进行测试,参照网上建议,编写一个简单bat脚本启动测试,脚本内容如下:

bat 复制代码
set path=D:\tool_lite\mingw64_152\bin;E:\workspace\llama\llama.cpp_install\bin;%path%

set model=unsloth_Llama-3.2-3B-Instruct-GGUF_Llama-3.2-3B-Instruct-Q4_K_M.gguf

llama-cli.exe -m %model% ^
 -n -1 ^
 --color on ^
 -r "User" 

cmd

运行效果如下,我在源码目录下tools/cli.cpp 231行添加打印:

测试交互如下:

这一节到这里结束

相关推荐
yumgpkpm1 天前
华为昇腾910B上用Kubernetes(K8s)部署LLM(Qwen3-32B)的详细步骤,保姆级命令及方法、下载链接等
运维·服务器·华为·stable diffusion·aigc·copilot·llama
YanDDDeat1 天前
【大模型微调】基于 Llama3-8B 的 LoRA 微调专有领域QA 问答对生成模型
python·语言模型·llama
tinygone1 天前
OpenClaw之Memory配置成本地模式,Ubuntu+CUDA+cuDNN+llama.cpp
人工智能·ubuntu·llama
建行一世1 天前
【Windows笔记本大模型“傻瓜式”教程】使用LLaMA-Factory工具来完成对Windows笔记本大模型Qwen2.5-3B-Instruct微调
windows·ai·语言模型·llama
Thomas.Sir2 天前
第二章:LlamaIndex 的基本概念
人工智能·python·ai·llama·llamaindex
Thomas.Sir3 天前
第三章:Agent智能体开发实战之【LlamaIndex 工作流从入门到实战】
python·ai·llama·workflow·llamaindex
Thomas.Sir3 天前
第一章:Agent智能体开发实战之【初步认识 LlamaIndex:从入门到实操】
人工智能·python·ai·检索增强·llama·llamaindex
做个文艺程序员4 天前
2026 年开源大模型选型指南:Qwen3.5 / DeepSeek V3.2 / Llama 4 横向对比
人工智能·开源·llama
汀江游非侠4 天前
编译llama.cpp
llama
AI大模型..5 天前
数据洞察加速器:LLM Copilot 如何让 SQL 查询效率提升 50% 以上?
人工智能·langchain·llm·agent·llama