DeepSeek火爆全网,官网宕机?本地部署一个随便玩「LLM探索」

前言

最近 DeepSeek 狠狠刷了一波屏,国产大模型真的越来越厉害了👍,官方的服务器已经爆满了,以至于频繁出现反应迟缓甚至宕机的情况,和两年多之前 ChatGPT 的遭遇颇为相似。

我已经好久没有本地部署模型了(现在各厂商的模型都便宜量大),这次正好来试试 DeepSeek 开源模型的效果。

关于AI大模型的扩展阅读

安装 ollama

https://ollama.com/download/linux

我是在 Linux 服务器上安装的,一行命令就可以。如果是 Windows 的话,可能是下载安装包就行。

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

我安装的时候似乎遇到网络问题

改成先下载

bash 复制代码
wget https://ollama.com/install.sh

然后手动执行安装,就可以了

bash 复制代码
sh ./install.sh

配置 ollama 监听地址

ollama 安装后默认监听 127.0.0.1, 为了方便使用,要么修改监听地址,要么用 SSH 转发,这里我选择了修改地址

bash 复制代码
sudo systemctl edit ollama

它会自动在 /etc/systemd/system/ollama.service.d/override.conf 中存储你添加或修改的配置。

在里面添加配置

ini 复制代码
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"

即可覆盖主服务文件里对 OLLAMA_HOST 的设置,其他环境变量(如 PATH 等)则仍保留主服务文件里的值。

验证

先重启以下

bash 复制代码
sudo systemctl daemon-reload
sudo systemctl restart ollama

然后执行以下命令验证

bash 复制代码
sudo systemctl show ollama | grep Environment

你会看到系统最终为该服务设置的所有环境变量。其中如果存在同名变量,就会以最后写入(即 override 配置)的值为准。

搜索模型

https://ollama.com/search?q = deepseek

目前最火的 DeepSeek-R1 排在显眼位置

这里根据显存选择合适的模型,我选了 14b 的模型

右侧有安装命令,点击按钮复制

安装

接着执行命令

bash 复制代码
ollama run deepseek-r1:14b

开始下载,14b 的模型大小是 9GB

使用

在命令行可以直接使用

安装 Open WebUI

https://github.com/open-webui/open-webui

pip 安装

bash 复制代码
conda create -n open-webui python=3.11

切换环境

bash 复制代码
conda activate open-webui

安装

bash 复制代码
pip install open-webui

启动

bash 复制代码
open-webui serve

docker

官方只提供了 docker 命令

bash 复制代码
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

我改成了 docker-compose 配置

yaml 复制代码
services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    restart: always
    ports:
      - "3000:8080"
    extra_hosts:
      - "host.docker.internal:host-gateway"
    volumes:
      - "./open-webui:/app/backend/data"

SSH 转发

在本机执行以下命令,将服务器的端口转发到本机

bash 复制代码
ssh -L 3000:localhost:3000 用户名@服务器地址 -p 端口

这样就可以在本机的浏览器打开 http://localhost:3000 访问到 webui 了

使用 webui

很简单,第一次打开会需要创建管理员账号

进入之后界面与 ChatGPT 有点相似

和 DeepSeek 模型对话,这个14b的模型就感觉效果已经不错了,如果完整版模型就更好,真的未来可期啊!

后记

据说 DeepSeek 的代码能力很强,可惜现在官网的 API 服务进不去。

下一篇文章我来试试拿本地部署的 DeepSeek 来写代码,看看效果如何。

参考资料

相关推荐
nuowenyadelunwen10 小时前
Stanford CS336 Assignment 1: BPE Tokenizer
llm·bpe tokenizer·stanford cs336
农场主John14 小时前
Accelerate_deepspeed使用
pytorch·llm·deepspeed
组合缺一14 小时前
论 AI Skills 分布式发展的必然性:从单体智能到“云端大脑”的跃迁
java·人工智能·分布式·llm·mcp·skills
小哈里15 小时前
【计算】Ray框架介绍,AI基础设施之“通用”分布式计算(跨场景,门槛低,大规模生产,单机->集群->推理一站式)
人工智能·大模型·llm·分布式计算·ray
山顶夕景1 天前
【VLM】Visual Merit or Linguistic Crutch? 看DeepSeek-OCR
大模型·llm·ocr·多模态
玄同7651 天前
LangChain 核心组件全解析:构建大模型应用的 “乐高积木”
人工智能·python·语言模型·langchain·llm·nlp·知识图谱
亚里随笔1 天前
相对优势估计存在偏差——揭示群体相对强化学习中的系统性偏差问题
人工智能·深度学习·机器学习·llm·agentic·rlvr
带刺的坐椅1 天前
论 AI Skills 分布式发展的必然性:从单体智能到“云端大脑”的跃迁
java·ai·llm·mcp·tool-call·skills
中杯可乐多加冰2 天前
RAG 深度实践系列(三):RAG 技术演变与核心架构的深度剖析
人工智能·深度学习·大模型·llm·知识库·rag·graphrag
Wilber的技术分享2 天前
【Transformer原理详解2】Decoder结构解析、Decoder-Only结构中的Decoder
人工智能·笔记·深度学习·llm·transformer