Open WebUI大模型对话平台-适配Ollama

什么是Open WebUI

Open WebUI是一种可扩展、功能丰富、用户友好的大模型对话平台,旨在完全离线运行。它支持各种LLM运行程序,包括与Ollama和Openai兼容的API。

功能

  • 直观的界面:我们的聊天界面灵感来自ChatGPT,确保了用户友好的体验。
  • 响应式设计:在桌面和移动设备上享受无缝体验。
  • 快速响应:享受快速响应的性能。
  • 轻松安装:使用Docker或Kubernetes (kubectl, kustomize或helm)无缝安装,获得轻松的体验。
  • 代码语法突出显示:使用我们的语法突出显示功能,享受增强的代码可读性。
  • 完全Markdown和LaTeX支持:通过全面的Markdown和LaTeX功能提升您的LLM经验,以丰富交互。
  • 本地RAG集成:通过突破性的检索增强生成(RAG)支持,深入了解聊天交互的未来。此功能将文档交互无缝地集成到您的聊天体验中。您可以直接将文档加载到聊天中或将文件添加到文档库中,在提示符中使用 # 命令轻松访问它们。在alpha阶段,当我们积极改进和增强此功能以确保最佳性能和可靠性时,可能会偶尔出现问题。
  • 网页浏览功能:使用 # 命令后跟URL,无缝地将网站集成到您的聊天体验中。此功能允许您将web内容直接合并到您的对话中,增强交互的丰富性和深度。
  • 提示预设支持:使用聊天输入中的 / 命令立即访问预设提示。轻松加载预定义的会话启动器,加快您的交互。通过Open web社区集成轻松导入提示。
  • RLHF注释:通过对它们进行大拇指和大拇指的评级来授权您的消息,促进从人类反馈(RLHF)中进行强化学习的数据集的创建。利用您的消息来训练或微调模型,同时确保本地保存数据的机密性。
  • 对话标签:毫不费力地分类和定位特定的聊天快速参考和简化的数据收集。
  • 下载/删除模型:直接从web UI轻松下载或删除模型。
  • GGUF文件模型创建:通过直接从web UI上传GGUF文件,轻松创建Ollama模型。简化的过程选项,从您的机器上传或下载GGUF文件从拥抱的脸。
  • 多模型支持:在不同的聊天模型之间无缝切换,实现不同的交互。
  • 多模态支持:无缝地与支持多模态交互的模型交互,包括图像(例如,LLava)。
  • Modelfile Builder:通过web UI轻松创建Ollama模型文件。通过Open web Community集成,轻松创建和添加角色/代理、自定义聊天元素和导入模型文件。
  • 协作聊天:通过无缝编排组对话来利用多个模型的集体智能。使用 @ 命令指定模型,在聊天界面中启用动态和多样化的对话。让自己沉浸在编织在聊天环境中的集体智慧中。
  • OpenAI API集成:轻松集成OpenAI兼容API,用于与Ollama模型一起进行多功能对话。自定义API Base URL以链接LMStudio、Mistral、OpenRouter等。
  • 多用户管理:通过我们直观的管理面板轻松监督和管理用户,简化用户管理流程。

安装

Open WebUI官方推荐采用Docker方式进行部署:

java 复制代码
# 拉取镜像
docker pull ghcr.io/open-webui/open-webui:main

如果没有科学上网,很可能会拉不动,可以试试 docker 代理网站:https://dockerproxy.com/,按步骤依次执行以下命令:

java 复制代码
# 如果拉不动的话加个代理
docker pull ghcr.dockerproxy.com/open-webui/open-webui:main

# 重命名镜像(如果是通过代理下载的)
docker tag ghcr.dockerproxy.com/open-webui/open-webui:main ghcr.io/open-webui/open-webui:main

# 删除代理镜像(如果是通过代理下载的)
docker rmi ghcr.dockerproxy.com/open-webui/open-webui:main

下载完成后,可以在映像中找到了。

使用 docker-compose 安装,将下面的内容保存为 docker-compose.yml 文件

java 复制代码
version: '3'

services:
  ollama-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: ollama-webui
    restart: unless-stopped
    ports:
      - 11345:8080
    environment:
      - OLLAMA_API_BASE_URL=http://10.8.10.xxx:11434/api
      - WEBUI_SECRET_KEY=123456

其中

OLLAMA_API_BASE_URL填写你的ollama的服务地址;

WEBUI_SECRET_KEY填写一个密码

java 复制代码
# 将 docker-compose.yml 放入当前目录
# 一键启动
docker-compose up -d

运行使用

容器运行后,在浏览器中输入 http://IP:11345 就能看到登录界面。

登录成功后,首先点击左下角的Setting,进行设置:

设置Ollama服务的地址:

保存后,就可以选择我们ollama部署的模型正常进行问答了:

另外还有两个比较实用的功能:

1、设置prompt提示词模板

以上是我之前设置好的提示词模板,然后在问答的时候就可以通过"/"调用出设置好的prompt提示词了:

2、基于文档/网页的问答

可以在这块上传一下自己的文档:

在问答的过程中,可以通过"#"调用出上传的文档:

也可以引入一些网页,对网页内容进行问答:

其他更多内容可以参龙:

https://docs.openwebui.com/

相关推荐
一起屠龙18 小时前
SpringAi+milvus向量数据库实现基于本地知识问答
llm·ollama
jessezappy2 天前
记录:安装 Docker Desktop 时直接设置安装路径及容器存储路径
docker·dify·anythingllm·ollama·本地知识库·ragflow·deepseek
程序员洲洲2 天前
3款顶流云电脑与传统电脑性能PK战:START云游戏/无影云/ToDesk云电脑谁更流畅?
ai·大模型·todesk·性能·云电脑·ollama
仙人掌_lz3 天前
如何在本地使用Ollama运行 Hugging Face 模型
java·人工智能·servlet·ai·大模型·llm·ollama
穷人小水滴5 天前
制造一只电子喵 (qwen2.5:0.5b 微调 LoRA 使用 llama-factory)
llm·aigc·ollama
cxr8286 天前
Google ADK(Agent Development Kit)简要示例说明
人工智能·智能体·ollama·mcp
百年孤独百年6 天前
Ollama调用多GPU实现负载均衡
分布式·大模型·负载均衡·llama·ollama·deepseek
Silence4Allen7 天前
Ubuntu 22.04 AI大模型环境配置及常用工具安装
ubuntu·vllm·ollama·llama-factory·openwebui·lmdeploy
云原生应用市场9 天前
如何零代码搭建ChatGPT级界面?
chatgpt·ollama·deepseek
十步杀一人_千里不留行10 天前
如何在最新的 Mac mini M4 机器上,让 Ollama 支持局域网访问
macos·ollama