DeepSeek-Open WebUI部署

1.DeepSeek部署-Win版本

2.DeepSeek部署-Linux版本

3.DeepSeek部署-一键部署(Linux版本)

4.DeepSeek部署-进阶版本(Linux+GPU)

5.DeepSeek部署-基于vLLM部署

前面部署了vLLM版本以后,访问它比较麻烦。如何才能更好的实现访问呢,这个就是我们今天要讲的Open WebUI,它可以向我们使用官方DeepSeek一样直接在网页进行对话。

OpenWeb UI 是一个功能丰富且用户友好的自托管 Web 用户界面,主要用于管理和操作各种本地和云端的人工智能模型。它支持多种大型语言模型(LLM)运行程序,包括 Ollama 和兼容 OpenAI 的 API,旨在完全离线操作。以下是关于 OpenWeb UI 的详细介绍:

主要特点

  1. 用户界面:直观且响应式,可在任何设备上提供卓越的体验。支持多种主题和自定义选项,满足个人喜好。

  2. 性能:快速响应和流畅的性能,即使在处理复杂任务时也是如此。支持多模型和多模态交互,实现更强大的功能。

  3. 功能:包括全面 Markdown 和 LaTeX 支持,本地 RAG 集成,Web 浏览功能,提示预设,RLHF 注释,对话标记,模型管理功能,语音输入和文本转语音,高级参数微调,图像生成集成等。

  4. API 支持:支持 OpenAI API 和其他兼容 API,扩展其功能。

安装和使用

  • 安装:通过 Docker 或 Kubernetes(如 kubectl、kustoize 或 helm)无缝安装,支持 ollama 和 cuda 标记的图像。
  • Ollama/OpenAI API 集成:轻松集成与 OpenAI 兼容的 API,与 Ollama 模型一起进行多功能对话。
  • Pipelines 插件支持:使用 Pipelines 插件框架将自定义逻辑和 Python 库无缝集成到 Open WebUI 中

1.创建conda 虚拟环境

复制代码
conda create --name openwebui python=3.12.9

2.安装Open WebUI

复制代码
pip install open-webui -i https://mirrors.aliyun.com/pypi/simple/

3.启动Open WebUI

bash 复制代码
# 禁用OLLAMA API
export ENABLE_OLLAMA_API=False
# 设置OpenAI API的基础URL为本地服务器
export OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1
# 设置默认模型路径
export DEFAULT_MODELS="/root/deepseekr1_1.5b/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B"
# 启动Open WebUI
open-webui serve

4.配置Open WebUI

5.开始提问

相关推荐
藥瓿亭几秒前
K8S认证|CKS题库+答案| 10. Trivy 扫描镜像安全漏洞
linux·运维·服务器·云原生·容器·kubernetes·cks
Leo.yuan43 分钟前
数据湖是什么?数据湖和数据仓库的区别是什么?
大数据·运维·数据仓库·人工智能·信息可视化
程序员JerrySUN1 小时前
Linux 内核内存管理子系统全面解析与体系构建
java·linux·运维
CIb0la1 小时前
Ai自动补全编程工具:llama vscode
运维·开发语言·学习·测试工具·程序人生
rui锐rui1 小时前
大模型模型部署和暴露接口
linux·运维·服务器
BJ_Bonree2 小时前
博睿数据×华为, 共筑智慧金融新未来
运维
摘星编程2 小时前
华为云Flexus+DeepSeek征文 | MaaS平台避坑指南:DeepSeek商用服务开通与成本控制
deepseek·华为云flexus·maas平台·云成本控制·ai服务开通
孙克旭_2 小时前
day030-Shell自动化编程-函数
linux·运维·自动化
IT葛大侠2 小时前
OSPF域内路由
运维·网络·计算机网络
面朝大海,春不暖,花不开4 小时前
管理数据洪流:自动化处理与归档每日数据文件的策略与实践
运维·python·自动化