第七十九篇-E5-2680V4+V100-32G+llama-cpp编译运行+Qwen3-Next-80B

环境

bash 复制代码
系统:CentOS-7
CPU : E5-2680V4 14核28线程
内存:DDR4 2133 32G * 2
显卡:Tesla V100-32G【PG503】 (水冷)
驱动: 535
CUDA: 12.2

需要环境

nvcc --version

bash 复制代码
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2023 NVIDIA Corporation
Built on Tue_Jun_13_19:16:58_PDT_2023
Cuda compilation tools, release 12.2, V12.2.91
Build cuda_12.2.r12.2/compiler.32965470_0

cmake -version

bash 复制代码
cmake version 3.24.3

CMake suite maintained and supported by Kitware (kitware.com/cmake).

如果版本不合理需要重新安装

克隆仓库

bash 复制代码
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp

清理并创建构建目录

bash 复制代码
rm -rf build && mkdir build && cd build

配置 CMake(关键参数)

bash 复制代码
cmake .. -DGGML_CUDA=ON -DGGML_CUDA_ARCH=70 -DCMAKE_BUILD_TYPE=Release

可以问问AI调整参数

编译(根据 CPU 核心数调整 -j 参数)

bash 复制代码
  make -j$(nproc) GGML_CUDA_FORCE_DMMV_X=1 GGML_CUDA_FORCE_MMQ=1 llama-server

运行

bash 复制代码
./bin/llama-server   -m /models/GGUF_LIST/Qwen3-Next-80B/Qwen3-Coder-Next-Q4_K_M-00001-of-00004.gguf   --host 0.0.0.0   --port 28000   --gpu-layers 30   --ctx-size 102000   --threads 26

访问

bash 复制代码
http://192.168.31.222:28000/

效果

速度

7-8 tokens/s (CPU性能太弱)

GPU 消耗 30G+

GPU利用率 10+%

CPU 2400+ 已经满载在跑了

内存5G+

速度还是很慢的。CPU存在瓶颈

相关推荐
崔小汤呀20 小时前
最全的docker安装笔记,包含CentOS和Ubuntu
linux·后端
何中应21 小时前
vi编辑器使用
linux·后端·操作系统
何中应21 小时前
Linux进程无法被kill
linux·后端·操作系统
何中应21 小时前
rm-rf /命令操作介绍
linux·后端·操作系统
何中应21 小时前
Linux常用命令
linux·操作系统
葛立国21 小时前
从 / 和 /dev 说起:Linux 文件系统与挂载点一文理清
linux
哇哈哈20212 天前
信号量和信号
linux·c++
不是二师兄的八戒2 天前
Linux服务器挂载OSS存储的完整实践指南
linux·运维·服务器
一个人旅程~2 天前
如何用命令行把win10/win11设置为长期暂停更新?
linux·windows·经验分享·电脑
2302_799525742 天前
PCI、PCIe 和 NVLink
linux