Ubuntu安装llama.cpp

第一步:安装 NVIDIA 驱动与 CUDA 环境

首先要让 Ubuntu 识别并能调用你的 3060 显卡。

1.安装驱动:

bash 复制代码
sudo ubuntu-drivers install
sudo reboot  # 重启以生效

重启后,输入 nvidia-smi。如果看到 3060 的显卡信息,说明驱动 OK。

2.安装构建工具与 CUDA Toolkit:

bash 复制代码
sudo apt update
sudo apt install -y build-essential cmake git libcurl4-openssl-dev nvidia-cuda-toolkit

确认编译器已就绪:输入 nvcc --version。

第二步:编译 llama.cpp (开启 CUDA 支持)

这是核心步骤,必须开启显卡加速选项。

bash 复制代码
# 1. 克隆代码
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp

# 2. 配置并构建(指定开启 CUDA)
cmake -B build -DGGML_CUDA=ON
cmake --build build --config Release -j $(nproc)

第三步:运行与测试

将你的 *.gguf 模型文件放入 models 文件夹。

bash 复制代码
export LD_LIBRARY_PATH=/opt/llama.cpp/build/bin:$LD_LIBRARY_PATH

/opt/llama.cpp/build/bin/llama-server \
    -m /opt/llama.cpp/models/*.gguf \
    --port 8080 \
    --host 0.0.0.0 \
    -ngl 33 \
    --ctx-size 8192
相关推荐
君穆南1 天前
基于 NFS 与 Rsync 实现跨服务器 Seafile 数据平滑迁移实战
linux·运维·git
bloglin999991 天前
scp、rsync远程文件同步
linux·运维·服务器
迦南的迦 亚索的索1 天前
LINUX环境
linux·运维·服务器
yuanjj881 天前
linux下调试域格CLM920 NC5等9x07平台模块 QMI拨号
linux·运维·服务器
IMPYLH1 天前
Linux 的 printenv 命令
linux·运维·服务器·bash
SilentSamsara1 天前
SSH 远程管理:密钥登录 + 隧道转发,一次性配置好
linux·运维·服务器·ubuntu·centos·ssh
LN花开富贵1 天前
【ROS】鱼香ROS2学习笔记一
linux·笔记·python·学习·嵌入式·ros·agv
疏星浅月1 天前
数据对齐的底层原理与性能优化
linux
Jurio.1 天前
本机开发 + 多机执行的极简远端运行工具
linux·git·python·github·远程工作
阿巴~阿巴~1 天前
Git版本控制完全指南:从入门到实战(简单版)
linux·服务器·git