open webui

Okailon15 天前
大模型·open webui·ai 客户端
Open WebUI 文档这是一个官方的、结构化的、用于指导用户从零开始使用 Open WebUI 的综合性在线文档中心 (Comprehensive Online Documentation)1。
Okailon16 天前
ai·open webui
Open WebUI 核心功能与使用指南《Open WebUI 核心功能与使用指南》,它按照新手入门、核心功能、进阶配置的逻辑顺序排列,涵盖了您使用 Open WebUI 所需要了解的全部知识点,您可以将其视为一份结构化、易懂的学习手册。
zhangbaolin8 个月前
大模型·open webui
open webui源码分析13-模型管理在open webui中使用的模型来源很多,可以直连第三方大模型,可以连接ollama使用本地化模型,可以使用本地定制的模型(比如挂接了知识库的模型),可以是本地管道,还可以是流水线,各种模型特征不一,数据结构也有差距,代码中经常要根据模型中的属性执行不同的逻辑,属实让人头疼,本文对open webui中的模型管理进行透彻的分析。
zhangbaolin8 个月前
python·大模型·memory·open webui
open webui源码分析11-四个特征之记忆用户可自主手动管理一些希望大模型能够记忆的内容,进而增强大模型的能力,满足用户个性化的需求。本文将对open webui的记忆功能的使用进行讲解,然后对相关源码进行分析。
zhangbaolin8 个月前
大模型·open webui
open webui源码分析5-Tools本文从最简单的时间工具入手,分析Tools相关的代码。一、安装工具git clone https://github.com/open-webui/openapi-servers cd openapi-servers
zhangbaolin8 个月前
大模型·open webui
open webui源码分析3—一次对话对话过程是open webui的核心逻辑,本文针对最简单的一个对话中的一次交互进行分析,暂不涉及知识库、推理、function calling、过滤、搜索、多模态等功能。
文军的烹饪实验室1 年前
open webui
MacOS 安装open webuiopen-webui 不是一个 Python 包,所以 pip install open-webui 会失败。它是一个独立的 Web UI 应用,通常通过 Docker 或 手动构建 来运行。
我叫安查查1 年前
人工智能·ragflow·open webui
一文对比RAGFLOW和Open WebUI【使用场景参考】RAGFLOW是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。 —————————————————— Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了
achirandliu1 年前
open webui·deepseek·选择模型为空·ubuntu 22
Open WebUI选择模型为空,解决办法(for DeepSeek)问题:Open WebUI选择模型为空,解决办法 (for DeepSeek)操作系统:Ubuntu 22 硬件:台式电脑
F_D_Z1 年前
运维·docker·容器·open webui·deepseek r1
【清晰教程】通过Docker为本地DeepSeek-r1部署WebUI界面【清晰教程】本地部署DeepSeek-r1模型-CSDN博客目录安装Docker配置&检查Open WebUI
nangonghen1 年前
容器·kubernetes·ollama·open webui·deepseek
华为云kubernetes部署deepseek r1、ollama和open-webui(已踩过坑)ollama是一个管理大模型的一个中间层,通过它你可以下载并管理deepseek R1、llama3等大模型。 open-webui是一个web界面(界面设计受到chatgpt启发),可以集成ollama API、 OpenAI的 API。 用常见的web应用架构来类比,open-webui是前端,ollama是后端,大模型是数据库。
君臣Andy1 年前
open webui
openwebui使用github地址:python 3.11选择上就可以调用工具了参考:https://percent4.github.io/NLP%EF%BC%88%E4%B8%80%E7%99%BE%E9%9B%B6%E4%B8%89%EF%BC%89%E5%A4%A7%E6%A8%A1%E5%9E%8B%E5%BA%94%E7%94%A8%E5%88%A9%E5%99%A8%E4%B9%8BOpen-WebUI%E5%85%A5%E9%97%A8/
Hello 0 12 年前
llama·ollama·open webui·本地部署大语言模型
用Ollama 和 Open WebUI本地部署Llama 3.1 8B说明: 本人运行环境windows11 N卡6G显存。部署Llama3.1 8BOllama是一个开源的大型语言模型服务工具,它允许用户在自己的硬件环境中轻松部署和使用大规模预训练模型。Ollama 的主要功能是在Docker容器内部署和管理大型语言模型(LLM),使得用户能够快速地在本地运行这些模型。它简化了部署过程,通过简单的安装指令,用户可以执行一条命令就在本地运行开源大型语言模型,例如Llama 3.1。本地部署,离线运行,数据无需上传云端,担心隐私泄露。
剑客的茶馆2 年前
docker·ai·stable diffusion·ollama·open webui
企业本地大模型用Ollama+Open WebUI+Stable Diffusion可视化问答及画图最近在尝试搭建公司内部用户的大模型,可视化回答,并让它能画图出来, 主要包括四块:以上运行环境Win10, Ollama,SD直接装在windows10下, 然后安装Docker Desktop版, 将Open WebUI部署在Docker内
DbWong_09182 年前
docker·ollama·open webui
使用open webui+ollama部署本地大模型上次使用了angthingllm + ollama部署了本地大模型,详情见:https://www.cnblogs.com/jokingremarks/p/18151827
我是有底线的