llama.cpp + llama-server 的安装部署验证

cat /etc/os-release

Ubuntu 22.04.5 LTS (Jammy Jellyfish) ------ 这是一个长期支持(LTS)且完全受支持的现代 Linux 发行版 ,非常适合部署 llama.cpp + llama-server。Ubuntu 22.04 自带较新的 GCC(11+)、CMake(3.22+)和 Python 3.10+,无需手动升级工具链,部署过程非常顺畅。

一、安装系统依赖

sudo apt update

sudo apt install -y git build-essential cmake libssl-dev

二、克隆并编译 llama.cpp

1. 克隆仓库

git clone https://github.com/ggerganov/llama.cpp

cd llama.cpp

步骤 3:使用 CMake 构建 server

mkdir build

sudo apt install -y ninja-build

cd build

cmake .. -G Ninja

ninja server 报错了

rm -rf build

重新来

mkdir build && cd build

cmake .. -DCMAKE_BUILD_TYPE=Release -DLLAMA_BUILD_SERVER=ON

make -j $(nproc) llama-server

三、准备 GGUF 模型

下载量化模型(以 Llama-3-8B-Instruct Q4_K_M 为例)

cd /mnt/data/

启动

./bin/llama-server -m /mnt/data/model.gguf --port 8080 --host 0.0.0.0

相关推荐
墨客希2 小时前
systemd + cgroups v2 限制agent资源消耗
运维
m0_737539372 小时前
Mariadb 服务器
服务器·数据库·mariadb
wheeldown2 小时前
【Linux TCP Socket 实战】 从单客户端到多客户端回声服务器
linux·服务器·tcp/ip
0思必得02 小时前
[Web自动化] 爬虫基础
运维·爬虫·python·selenium·自动化·html
looking_for__2 小时前
【Linux】网络基础
linux·服务器·网络
克里斯蒂亚诺更新2 小时前
vue展示node express调用python解析tdms
服务器·python·express
南棱笑笑生2 小时前
20260127让天启AIO-3576Q38开发板跑Rockchip瑞芯微原厂的Buildroot【linux-6.1内核】【使用天启Firefly的DTS】
linux·运维·elasticsearch·rockchip
landonVM2 小时前
使用 DockerSlim 优化/专业 Docker 容器镜像
运维·docker·容器
玉梅小洋2 小时前
Linux中 cd命令进入以 - 开头的目录报错及解决方法
linux·运维·服务器