保姆级教程:利用Ollama与Open-WebUI本地部署 DeedSeek-R1大模型

1. 安装Ollama

根据自己的系统下载Ollama,我的是Linux,所以我使用如下命令进行下载安装:

bash 复制代码
curl -fsSL https://ollama.com/install.sh | sh

2. 安装Open-WebUI

使用 Docker 的方式部署 open-webui ,使用gpu的话按照如下命令进行

bash 复制代码
sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda

官方的地址可能会出现网络问题,可以使用国内地址:

bash 复制代码
sudo docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always  registry.cn-shenzhen.aliyuncs.com/funet8/open-webui:cuda

但是我遇到了一个问题,如下

应该是和显卡有关。

需要安装nvidia-container-toolkit并配置docker以使用该工具包。

参考官网给出的指南:https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html

bash 复制代码
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
  && curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
    sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
    sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

如果你遇到了下面这个报错,你就在前面加个sudo重新运行一下,可能还需要覆盖一下历史配置,直接覆盖就行了。

接下来进行安装。

bash 复制代码
sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit

然后还需要编辑一下docker的配置文件令docker运行时连接到gpu

bash 复制代码
sudo vim /etc/docker/daemon.json

将下面这些添加进去

json 复制代码
{
  "default-runtime": "nvidia",
  "runtimes": {
    "nvidia": {
      "path": "nvidia-container-runtime",
      "runtimeArgs": []
    }
  }
}

重启docker

bash 复制代码
sudo systemctl restart docker

启动open-webui

bash 复制代码
sudo docker start open-webui

3. 部署DeepSeek-R1

通过在浏览器中输入 http://localhost:3000/ 进入到 open-webui 界面,然后注册一个管理员账号并登录,然后进入设置->管理员设置->外部连接,在 管理 Ollama API 连接 中配置,可以通过ip+端口连接ollama并加载模型。

但是可能会遇到无法连接到ollama的问题,可以进行以下修改以进行ollama环境的配置。

bash 复制代码
sudo vim /etc/systemd/system/ollama.service

添加Environment="OLLAMA_HOST=0.0.0.0"

然后重启

bash 复制代码
systemctl daemon-reload

systemctl restart ollama

systemctl stop ollama

systemctl start ollama

启动一个deepseek模型

bash 复制代码
ollama run deepseek-r1:8b

这一步其实打开了deepseek-r1大模型对话的终端界面,在这里也可以进行问答了.

不过通过open-webui可以打开图形化的对话界面,会更加舒适。

点击刷新符号验证是否连接到服务器

如果这里你无法连接成功,可以将URL改为你的ip+端口,端口号这里一般是11434。

现在就可以在对话界面进行使用了。

相关推荐
qinyia1 小时前
Wisdom SSH 是一款创新性工具,通过集成 AI 助手,为服务器性能优化带来极大便利。
服务器·人工智能·ssh
昨日之日20064 小时前
Wan2.2-S2V - 音频驱动图像生成电影级质量的数字人视频 ComfyUI工作流 支持50系显卡 一键整合包下载
人工智能·音视频
SEO_juper6 小时前
大型语言模型SEO(LLM SEO)完全手册:驾驭搜索新范式
人工智能·语言模型·自然语言处理·chatgpt·llm·seo·数字营销
攻城狮7号7 小时前
腾讯混元翻译模型Hunyuan-MT-7B开源,先前拿了30个冠军
人工智能·hunyuan-mt-7b·腾讯混元翻译模型·30个冠军
zezexihaha7 小时前
从“帮写文案”到“管生活”:个人AI工具的边界在哪?
人工智能
算家云7 小时前
nano banana官方最强Prompt模板来了!六大场景模板详解
人工智能·谷歌·ai大模型·算家云·ai生图·租算力,到算家云·nano banana 提示词
暴躁的大熊7 小时前
AI助力决策:告别生活与工作中的纠结,明析抉择引领明智选择
人工智能
Gyoku Mint7 小时前
提示词工程(Prompt Engineering)的崛起——为什么“会写Prompt”成了新技能?
人工智能·pytorch·深度学习·神经网络·语言模型·自然语言处理·nlp
梁小憨憨7 小时前
zotero扩容
人工智能·笔记
大数据张老师7 小时前
AI架构师的思维方式与架构设计原则
人工智能·架构师·ai架构·后端架构