(二)DeepSeek大模型安装部署-Web工具Open-WebUI安装

DeepSeek大模型安装部署-Web工具Open-WebUI安装

(一)、Open-WebUI的工作流程

(二)、DockerCompose部署Open-WebUI

复制代码
version: "3"
services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    environment:
      - OLLAMA_BASE_URL=http://localhost:11434
      - ENABLE_OPENAI_API=false
    network_mode: "host"
  • OLLAMA_BASE_URL 配置ollama连接地址
  • ENABLE_OPENAI_API 禁用连接openai
  • network_mode: "host" 解决Docker容器无法与运行在主机上的Ollama服务通信

执行docker-compose up -d 启动服务,默认端口8080

访问:http://localhost:8080

(三)、Open-WebUI连接不上Ollama问题

可能是因为Ollama没有监听允许外部连接的网络接口。可通过设置环境变量OLLAMA_HOST = 0.0.0.0解决。

复制代码
vim /etc/systemd/system/ollama.service

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"

[Install]
WantedBy=default.target

#添加了Environment="OLLAMA_HOST=0.0.0.0:11434"环境变量

#为了使更改生效,您需要重新加载systemd的配置。使用以下命令:
sudo systemctl daemon-reload
#最后,重启服务以应用更改:
sudo systemctl restart ollama
相关推荐
q_q王9 小时前
Ubuntu源码版comfyui的安装
大模型·文生图·comfyui·工作流·图生视频
HuggingFace12 小时前
大模型评估排障指南 | 关于可复现性
大模型·llm
AI大模型顾潇12 小时前
[特殊字符] 本地部署DeepSeek大模型:安全加固与企业级集成方案
数据库·人工智能·安全·大模型·llm·微调·llama
Coding的叶子15 小时前
React Agent:从零开始构建 AI 智能体|React Flow 实战・智能体开发・低代码平台搭建
人工智能·大模型·工作流·智能体·react flow
-曾牛17 小时前
Spring AI 与 Hugging Face 深度集成:打造高效文本生成应用
java·人工智能·后端·spring·搜索引擎·springai·deepseek
青衫客3620 小时前
使用本地部署的 LLaMA 3 模型进行中文对话生成
大模型·llama
大白技术控20 小时前
浙江大学 deepseek 公开课 第三季 第3期 - 陈喜群 教授 (附PPT下载) by 突破信息差
人工智能·互联网·deepseek·deepseek公开课·浙大deepseek公开课课件·deepseek公开课ppt·人工智能大模型
Silence4Allen20 小时前
大模型微调指南之 LLaMA-Factory 篇:一键启动LLaMA系列模型高效微调
人工智能·大模型·微调·llama-factory
concisedistinct1 天前
如何评价大语言模型架构 TTT ?模型应不应该永远“固定”在推理阶段?模型是否应当在使用时继续学习?
人工智能·语言模型·大模型
Silence4Allen2 天前
RagFlow 完全指南(一):从零搭建开源大模型应用平台(Ollama、VLLM本地模型接入实战)
人工智能·大模型·rag·ragflow