Open WebUI大模型对话平台-适配Ollama

什么是Open WebUI

Open WebUI是一种可扩展、功能丰富、用户友好的大模型对话平台,旨在完全离线运行。它支持各种LLM运行程序,包括与Ollama和Openai兼容的API。

功能

  • 直观的界面:我们的聊天界面灵感来自ChatGPT,确保了用户友好的体验。
  • 响应式设计:在桌面和移动设备上享受无缝体验。
  • 快速响应:享受快速响应的性能。
  • 轻松安装:使用Docker或Kubernetes (kubectl, kustomize或helm)无缝安装,获得轻松的体验。
  • 代码语法突出显示:使用我们的语法突出显示功能,享受增强的代码可读性。
  • 完全Markdown和LaTeX支持:通过全面的Markdown和LaTeX功能提升您的LLM经验,以丰富交互。
  • 本地RAG集成:通过突破性的检索增强生成(RAG)支持,深入了解聊天交互的未来。此功能将文档交互无缝地集成到您的聊天体验中。您可以直接将文档加载到聊天中或将文件添加到文档库中,在提示符中使用 # 命令轻松访问它们。在alpha阶段,当我们积极改进和增强此功能以确保最佳性能和可靠性时,可能会偶尔出现问题。
  • 网页浏览功能:使用 # 命令后跟URL,无缝地将网站集成到您的聊天体验中。此功能允许您将web内容直接合并到您的对话中,增强交互的丰富性和深度。
  • 提示预设支持:使用聊天输入中的 / 命令立即访问预设提示。轻松加载预定义的会话启动器,加快您的交互。通过Open web社区集成轻松导入提示。
  • RLHF注释:通过对它们进行大拇指和大拇指的评级来授权您的消息,促进从人类反馈(RLHF)中进行强化学习的数据集的创建。利用您的消息来训练或微调模型,同时确保本地保存数据的机密性。
  • 对话标签:毫不费力地分类和定位特定的聊天快速参考和简化的数据收集。
  • 下载/删除模型:直接从web UI轻松下载或删除模型。
  • GGUF文件模型创建:通过直接从web UI上传GGUF文件,轻松创建Ollama模型。简化的过程选项,从您的机器上传或下载GGUF文件从拥抱的脸。
  • 多模型支持:在不同的聊天模型之间无缝切换,实现不同的交互。
  • 多模态支持:无缝地与支持多模态交互的模型交互,包括图像(例如,LLava)。
  • Modelfile Builder:通过web UI轻松创建Ollama模型文件。通过Open web Community集成,轻松创建和添加角色/代理、自定义聊天元素和导入模型文件。
  • 协作聊天:通过无缝编排组对话来利用多个模型的集体智能。使用 @ 命令指定模型,在聊天界面中启用动态和多样化的对话。让自己沉浸在编织在聊天环境中的集体智慧中。
  • OpenAI API集成:轻松集成OpenAI兼容API,用于与Ollama模型一起进行多功能对话。自定义API Base URL以链接LMStudio、Mistral、OpenRouter等。
  • 多用户管理:通过我们直观的管理面板轻松监督和管理用户,简化用户管理流程。

安装

Open WebUI官方推荐采用Docker方式进行部署:

java 复制代码
# 拉取镜像
docker pull ghcr.io/open-webui/open-webui:main

如果没有科学上网,很可能会拉不动,可以试试 docker 代理网站:https://dockerproxy.com/,按步骤依次执行以下命令:

java 复制代码
# 如果拉不动的话加个代理
docker pull ghcr.dockerproxy.com/open-webui/open-webui:main

# 重命名镜像(如果是通过代理下载的)
docker tag ghcr.dockerproxy.com/open-webui/open-webui:main ghcr.io/open-webui/open-webui:main

# 删除代理镜像(如果是通过代理下载的)
docker rmi ghcr.dockerproxy.com/open-webui/open-webui:main

下载完成后,可以在映像中找到了。

使用 docker-compose 安装,将下面的内容保存为 docker-compose.yml 文件

java 复制代码
version: '3'

services:
  ollama-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: ollama-webui
    restart: unless-stopped
    ports:
      - 11345:8080
    environment:
      - OLLAMA_API_BASE_URL=http://10.8.10.xxx:11434/api
      - WEBUI_SECRET_KEY=123456

其中

OLLAMA_API_BASE_URL填写你的ollama的服务地址;

WEBUI_SECRET_KEY填写一个密码

java 复制代码
# 将 docker-compose.yml 放入当前目录
# 一键启动
docker-compose up -d

运行使用

容器运行后,在浏览器中输入 http://IP:11345 就能看到登录界面。

登录成功后,首先点击左下角的Setting,进行设置:

设置Ollama服务的地址:

保存后,就可以选择我们ollama部署的模型正常进行问答了:

另外还有两个比较实用的功能:

1、设置prompt提示词模板

以上是我之前设置好的提示词模板,然后在问答的时候就可以通过"/"调用出设置好的prompt提示词了:

2、基于文档/网页的问答

可以在这块上传一下自己的文档:

在问答的过程中,可以通过"#"调用出上传的文档:

也可以引入一些网页,对网页内容进行问答:

其他更多内容可以参龙:

https://docs.openwebui.com/

相关推荐
brucelee1861 天前
Debian 安装 Ollama 教程
debian·ollama·open claw
将冲破艾迪i1 天前
【AI】部署及调用deepseek和qwen等大模型
人工智能·python·ollama·deepseek
竹之却2 天前
【Ollama】解决 ollama 软件下载慢,模型下载慢的问题
代理·ollama·deepseek·openclaw·ollama 模型下载
福大大架构师每日一题4 天前
ollama v0.18.2 发布!OpenClaw 安装优化、Claude 加速、MLX 量化全面升级
golang·ollama
razelan7 天前
本地大模型系列:2.通过API让本地大模型为你服务
人工智能·api·ollama·本地大模型
樂油7 天前
小龙虾OpenClaw本地部署(四)连接ollama模型(qwen3.5:0.8b为例)
ollama·openclaw
弗锐土豆7 天前
使用ollama运行本地大模型
llm·大语言模型·安装·ollama
SP八岐大兔7 天前
Ollama安装及运行模型
linux·服务器·ollama
竹之却7 天前
Ubuntu 系统安装 Ollama 教程
linux·运维·ubuntu·ollama
小田学Python8 天前
简明教程:实现OpenCLaw轻量级应用服务器部署及Ollama大模型本地化
ai·大模型·ollama·openclaw