Ubuntu安装llama.cpp

第一步:安装 NVIDIA 驱动与 CUDA 环境

首先要让 Ubuntu 识别并能调用你的 3060 显卡。

1.安装驱动:

bash 复制代码
sudo ubuntu-drivers install
sudo reboot  # 重启以生效

重启后,输入 nvidia-smi。如果看到 3060 的显卡信息,说明驱动 OK。

2.安装构建工具与 CUDA Toolkit:

bash 复制代码
sudo apt update
sudo apt install -y build-essential cmake git libcurl4-openssl-dev nvidia-cuda-toolkit

确认编译器已就绪:输入 nvcc --version。

第二步:编译 llama.cpp (开启 CUDA 支持)

这是核心步骤,必须开启显卡加速选项。

bash 复制代码
# 1. 克隆代码
git clone https://github.com/ggerganov/llama.cpp
cd llama.cpp

# 2. 配置并构建(指定开启 CUDA)
cmake -B build -DGGML_CUDA=ON
cmake --build build --config Release -j $(nproc)

第三步:运行与测试

将你的 *.gguf 模型文件放入 models 文件夹。

bash 复制代码
export LD_LIBRARY_PATH=/opt/llama.cpp/build/bin:$LD_LIBRARY_PATH

/opt/llama.cpp/build/bin/llama-server \
    -m /opt/llama.cpp/models/*.gguf \
    --port 8080 \
    --host 0.0.0.0 \
    -ngl 33 \
    --ctx-size 8192
相关推荐
yy_xzz2 小时前
【Linux开发】 Linux 信号处理——预防僵尸进程
linux·运维·信号处理
火星机器人life2 小时前
turtlebot3 Ubuntu 20.04 + ROS2 Foxy+Gazebo 11.15.1 环境下编译运行
数据库·ubuntu·mfc
xianjian09122 小时前
Java进阶-在Ubuntu上部署SpringBoot应用
java·spring boot·ubuntu
123过去10 小时前
wifi-honey使用教程
linux·网络·测试工具
Deitymoon12 小时前
linux——孤儿进程和僵尸进程
linux
Linux运维技术栈13 小时前
生产环境Linux应用目录迁移至LVM独立分区 标准化实战方案
linux·运维·服务器·lvm·逻辑卷
feasibility.14 小时前
SSH Agent Forwarding 与 tmux 排障笔记
linux·运维·服务器·经验分享·笔记·ssh
ShawnLiaoking14 小时前
Linux 会话窗口常开
linux·运维·服务器
230万光年的思念14 小时前
向日葵远程控制ubuntu24一直显示连接中
linux