在 KubeSphere 上构建你的自托管 AI 助手|Open WebUI 扩展上线

在云原生与智能化融合的进程中,越来越多的企业和开发者希望具备一套 自主可控、可离线运行的 AI 平台,能够本地运行大语言模型(LLM),并与企业内部系统安全集成。

现在,Open WebUI 扩展 已正式登陆 KubeSphere AI Labs。通过该扩展,用户可在 KubeSphere 环境中一键部署并运行 可完全自托管的智能对话与交互平台 ,打造安全可控的 AI 使用体验。无论是本地 Ollama 模型,还是远程 API 服务(如 OpenAI),都能统一管理和接入,为云原生场景提供灵活的智能化入口。

Open WebUI 简介

Open WebUI 是一个开源、功能丰富且用户友好的 自托管 AI 界面(User-friendly AI Interface)

它支持多种 LLM 运行后端,如 OllamaOpenAI API 等,并内置 RAG(检索增强生成)引擎,让模型具备文档问答与知识增强能力。

简单来说,Open WebUI 是你的「私有 ChatGPT 界面」,帮助你在本地或云原生环境中轻松使用、集成和扩展大语言模型。

核心特性:

  • 💻 离线可运行,完全自托管
  • 🔌 支持 Ollama、本地模型与 OpenAI API
  • 🧠 支持知识库与 RAG 检索增强
  • 🧩 插件扩展体系(Tools / Functions)
  • 🔐 多用户登录与 SSO 支持
  • ⚡ 现代化界面设计,支持移动端访问

在 KubeSphere 中快速部署 Open WebUI

Open WebUI 已正式上架 KubeSphere 扩展中心(AI Labs) ,用户可通过控制台快速部署并体验。使用 KubeSphere 企业版KubeSphere 社区版 ,均可通过控制台完成 Open WebUI 的快速安装部署。

值得一提的是,KubeSphere 社区版与企业版之间支持平滑迁移。用户在完成社区版部署后,仅需更换 License 即可升级为企业版,无需重新安装或中断现有服务。

通过 KubeSphere 控制台,你可以实现:

  • ✅ 一键部署 Open WebUI 与 Ollama
  • ✅ 支持 KubeSphere 账户登录(OIDC 集成)
  • ✅ 无需命令行,开箱即用的 AI 体验

在正式部署 Open WebUI 前,请确保已部署可用的 KubeSphere 环境(详细安装文档请参考:👉 KubeSphere 安装指南)

一键安装步骤

1.快速部署 AI Labs

参考 AI Labs 快速开始指南 进行安装和初始化配置。

2.安装 Open WebUI 扩展

打开 KubeSphere 扩展中心,在控制台中搜索 Open WebUI,进入详情页后点击安装,根据提示完成初始化部署。

3.配置运行参数

配置 open-webui service 的暴露方式及访问地址

受限于本地环境,测试验证仅使用 deepseek-r1:1.5b 轻量本地模型,您可以根据环境规格借助 ollama 自行选择模型部署。

yaml 复制代码
open-webui-helper:
  openWebUIUrl: "http://172.31.19.4:32678"  # Open WebUI 访问地址

open-webui:
  ollama:
    enabled: true
    ollama:
      models:
        pull:
          - deepseek-r1:1.5b
        run:
          - deepseek-r1:1.5b
  service:
    type: NodePort                         # 服务暴露方式,即 Open WebUI 访问地址
    nodePort: "32678"

⚠️ 注意:

  • Open WebUI 扩展 v0.6.18 存在兼容问题,不支持 KubeSphere v4.1.x 。 请使用 v0.6.34 版本进行部署。
  • 镜像与模型拉取速度较慢时,若安装失败,可等待完成后更新扩展配置以重新触发。

使用 KubeSphere 账户登录

Open WebUI 原生支持 OIDC(OpenID Connect) 协议,可与 KubeSphere 身份服务无缝集成,实现单点登录(SSO) 与多用户访问控制。

用户可通过配置使用 KubeSphere 账户登录,统一身份体系,简化管理流程。详细配置可查看 接入 KubeSphere 账户

Ollama 模型部署

Ollama 是一个开源的本地大语言模型(LLM)运行平台,可以轻松运行、管理和调用各种主流模型。常用模型包括 llama2/llama3gemmaqwen2deepseek 等。

通过在 Open WebUI 扩展组件中集成 Ollama,用户可直接在 KubeSphere 一键部署本地大模型服务,实现模型的私有化运行与灵活管理。

总结

Open WebUI 扩展 是一个开源、自托管的智能对话平台,支持本地模型(如 Ollama)与远程 API 接入。通过该扩展,用户可在 KubeSphere 环境中快速部署并构建安全可控的 ChatGPT 界面,实现灵活的 AI 应用与集成。

关于 KubeSphere AI Labs

本文是 KubeSphere AI Labs 推出的第二篇内容。AI Labs 是面向 KubeSphere 平台的智能扩展实验计划,致力于探索 "AI × 云原生" 的新边界,助力云原生智能化。

相关推荐
XUN4J6 分钟前
深入解析MySQL事务与锁:构建高并发数据系统的基石
后端·面试
徐行code11 分钟前
C++核心机制-复制消除
后端
开心猴爷27 分钟前
在 CICD 中实践 Fastlane + Appuploader 命令行,构建可复制的 iOS 自动化发布流程
后端
一 乐39 分钟前
高校评教|基于SpringBoot+vue高校学生评教系统 (源码+数据库+文档)
java·数据库·vue.js·spring boot·后端·学习
疯狂的程序猴1 小时前
Web 抓包完整实践指南,从浏览器网络调试到底层数据流捕获的全流程方案
后端
喵手1 小时前
我使用openEuler构建出了一个自愈式系统监控平台
后端
调试人生的显微镜1 小时前
以 uni-app 为核心的 iOS 上架流程实践, 从构建到最终提交的完整路径
后端
喵手1 小时前
我在openEuler上从零开始构建云原生AI应用
后端
解读玫瑰1 小时前
WSL+openEuler嵌入式开发实战:交叉编译与QEMU仿真全流程
后端
Stream1 小时前
加密与签名技术之数字签名算法
后端