1.1 llama.cpp 编译

llama.cpp 更新太快,当前下载 llama.cpp-b7907.tar.gz 进行学习。编译环境选择在windows 11下,采用mingw.环境如下:

软件 版本 说明
windows win11 操作系统
llama.cpp b7907 llama.cpp
mingw64 15.2 支持c++23

编译过程:

解压llama.cpp,在解压文件中创建一个build目录,进入build目录执行cmake命令,进行配置,接着执行make命令进行编译,之后进行make install 进行安装。整个过程我整合成一个bat文件,双击即可执行对应流程。

bat 复制代码
echo Compile llama.cpp
set path=D:\tool_lite\mingw64_152\bin;%path%

cd llama.cpp-b7907
mkdir build
cd build

cmake -G "MinGW Makefiles" ^
 -DCMAKE_C_COMPILER=gcc ^
 -DCMAKE_CXX_COMPILER=g++ ^
 -DCMAKE_INSTALL_PREFIX=E:\workspace\llama\llama.cpp_install ^
 ..


mingw32-make install

@REM VERBOSE=ON

cmd

编译后自动安装到指定目录,如下图

运行测试,未报错

打印版本,版本为0

模型测试,我下载一个模型名字: unsloth_Llama-3.2-3B-Instruct-GGUF_Llama-3.2-3B-Instruct-Q4_K_M.gguf

大小1.87GB 进行测试,参照网上建议,编写一个简单bat脚本启动测试,脚本内容如下:

bat 复制代码
set path=D:\tool_lite\mingw64_152\bin;E:\workspace\llama\llama.cpp_install\bin;%path%

set model=unsloth_Llama-3.2-3B-Instruct-GGUF_Llama-3.2-3B-Instruct-Q4_K_M.gguf

llama-cli.exe -m %model% ^
 -n -1 ^
 --color on ^
 -r "User" 

cmd

运行效果如下,我在源码目录下tools/cli.cpp 231行添加打印:

测试交互如下:

这一节到这里结束

相关推荐
Mr_sst6 小时前
infra-ai模块宏观设计解析:业务与模型之间的中间层核心架构
大数据·人工智能·ai·llama
微软技术分享11 小时前
Windows平台下CUDA安装及llama.cpp使用教程
windows·llama
小wu学cv2 天前
llama.cpp调用GPU推理Qwen3.5-0.8b模型
llama
zhangfeng11332 天前
LLaMA-Factory 保存 checkpoint 时崩溃解决办法 OOM 内存溢出(不是显存)
运维·服务器·人工智能·深度学习·llama
老唐7773 天前
30分钟手搓 Agent:LLM + Tools + Loop + Memory 跑通最小闭环
人工智能·ai·语言模型·agent·llama·智能体
高兴就好(石3 天前
Mac使用llama.cpp
macos·llama
zhangfeng11333 天前
No space left on device (28) llamafactory微调训练的时候 报错,需要调节 dataloader_num_workers
人工智能·语言模型·llama
阿珊和她的猫4 天前
大模型在客服场景:落地路径 + 效果评估
ai·agent·llama·cli·mcp
谷子熟了5 天前
电商智能客服系统本地搭建
经验分享·docker·typescript·ai编程·llama
YXHPY5 天前
开源 AI 工作流底座正在加速:从 llama.cpp、Ollama 到 vLLM 与 Agent 编排
人工智能·开源·llama