ubuntu25安装deepseek32b量化版

  1. 系统要求检查

    检查系统版本

    lsb_release -a

    检查GPU(如果有)

    nvidia-smi

    lspci | grep -i nvidia

  2. 安装依赖

    更新系统

    sudo apt update && sudo apt upgrade -y

    安装基本工具

    sudo apt install -y python3-pip python3-venv git wget curl

    安装CUDA工具(如使用NVIDIA GPU)

    CUDA 12.1示例,根据实际情况选择版本

    wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-keyring_1.1-1_all.deb
    sudo dpkg -i cuda-keyring_1.1-1_all.deb
    sudo apt update
    sudo apt install -y cuda-toolkit-12-1

  3. 创建Python虚拟环境

    创建目录

    mkdir -p ~/deepseek && cd ~/deepseek

    创建虚拟环境

    python3 -m venv venv
    source venv/bin/activate

  4. 安装PyTorch

    根据CUDA版本选择合适的PyTorch

    CUDA

    pip install torch torchvision torchaudio

    或CPU版本

    pip install torch torchvision torchaudio

  5. 安装模型运行环境

    安装Transformers和相关库

    pip install transformers accelerate bitsandbytes
    pip install sentencepiece protobuf

    对于GGUF量化格式

    pip install llama-cpp-python

    pip install ctransformers[cuda] # 如使用GPU

  6. 下载DeepSeek 32B量化模型

    安装Ollama

    curl -fsSL https://ollama.com/install.sh | sh

    下载DeepSeek 32B量化版

    ollama pull deepseek-r1:32b

    或指定量化版本

    ollama pull deepseek-r1:32b-q4_K_M

由于在线安装资源太慢这里选择下载好后直接上传解压

官网地址:Download Ollama on Linux

GitHub手动安装文档地址:ollama/docs/linux.md at main .ollama/ollama .GitHub

安装包下载地址:https://ollama.com/download/ollama-linux-amd64.tgz

上传后解压:

复制代码
sudo tar -C /usr -xzf ollama-linux-amd64.tgz

设置权限:

复制代码
sudo chmod +x /usr/bin/ollama

创建系统用户:为Ollama服务创建一个专用的、无登录权限的系统用户,这有助于提高安全性

复制代码
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

创建服务文件:创建一个systemd服务配置文件。使用文本编辑器创建并编辑文件:

复制代码
sudo vim /etc/systemd/system/ollama.service

将以下配置内容粘贴到文件中。这个配置设置了服务的基本信息、启动方式以及运行用户

复制代码
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
# 如需允许局域网内其他机器访问,取消下面一行的注释
# Environment="OLLAMA_HOST=0.0.0.0"
# 明确指定模型存储目录,防止权限问题
Environment="HOME=/usr/share/ollama"

[Install]
WantedBy=multi-user.target

设置目录权限:确保Ollama用户对其工作目录有读写权限

复制代码
sudo chown -R ollama:ollama /usr/share/ollama

启用并启动服务

复制代码
sudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollama

检查服务状态:使用以下命令查看Ollama服务是否正常运行。

复制代码
sudo systemctl status ollama

下载DeepSeek 32B量化版

复制代码
ollama pull deepseek-r1:32b

使用Ollama运行:

复制代码
ollama run deepseek-r1:32b
相关推荐
xuhe21 小时前
[全流程详细教程]Docker部署ClawBot, 使用GLM4.7, 接入TG Bot实现私人助理. 解决Docker Openclaw Permission Denied问题
linux·docker·ai·github·tldr
Lsir10110_2 小时前
【Linux】进程信号(下半)
linux·运维·服务器
liuniu08182 小时前
VMware虚拟机安装ubuntu2022
ubuntu·ros
skywalk81632 小时前
unbound dns解析出现问题,寻求解决之道
运维·服务器·dns·unbound
酉鬼女又兒2 小时前
零基础入门Linux指南:每天一个Linux命令_pwd
linux·运维·服务器
云飞云共享云桌面2 小时前
高性能图形工作站的资源如何共享给10个SolidWorks研发设计用
linux·运维·服务器·前端·网络·数据库·人工智能
skywalk81632 小时前
走近科学:unbound dns域名服务器自己本地解析出现问题,寻求解决之道
运维·服务器·dns·unbound
zl_dfq2 小时前
Linux 之 【多线程】(pthread_xxx、轻量级进程、原生线程库、线程ID、__thread、线程栈、线程与信号、线程与程序替换)
linux
choke2332 小时前
Python 基础语法精讲:数据类型、运算符与输入输出
java·linux·服务器
袁煦丞 cpolar内网穿透实验室2 小时前
远程调试内网 Kafka 不再求运维!cpolar 内网穿透实验室第 791 个成功挑战
运维·分布式·kafka·远程工作·内网穿透·cpolar