技术栈
openwebui
闫利朋
14 小时前
ollama
·
openwebui
·
本地deepseek对话
ubuntu22.04本地部署OpenWebUI
Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。
神秘的土鸡
16 天前
人工智能
·
llama
·
ollama
·
openwebui
使用Open WebUI下载的模型文件(Model)默认存放在哪里?
🏡作者主页:点击!🤖Ollama部署LLM专栏:点击!⏰️创作时间:2025年2月21日21点21分
wuhanwhite
1 个月前
docker
·
openwebui
更新无忧:用 Docker 数据卷确保 Open WebUI 数据持久化
在使用 Docker 部署 Open WebUI 时,如何在更新容器的同时确保数据不丢失,始终是工程师们关注的焦点。每次拉取新版镜像、停止并重启容器时,如果没有正确挂载数据卷,配置和数据库数据极易流失,给生产环境带来不必要的麻烦。
IT果果日记
1 个月前
人工智能
·
ai编程
·
ollama
·
openwebui
Ollama+OpenWebUI部署本地大模型
Ollama是一个强大且易于使用的本地大模型推理框架,它专注于简化和优化大型语言模型(LLMs)在本地环境中的部署、管理和推理工作流。可以将Ollama理解为一个大模型推理框架的后端服务。
盛世芳华
4 个月前
openwebui
openwebui二改界面环境搭建
注意版本要求:浏览器访问:http://localhost:5173/后端首次执行时,会去huggingface下载模型,网络原因,需要梯子。
不求上进的鱼仔
6 个月前
llm
·
openwebui
【LLM】局域网内为容器服务启用HTTPS
OpenWebUI中,语音输入需要HTTPS才能使用麦克风等硬件资源,在局域网中通过NGINX转发实现HTTPS访问。
Anakki
10 个月前
运维
·
docker
·
容器
·
大模型
·
大语言
·
ollama
·
openwebui
Docker下Open WebUI,Ollama的安装实践
提示一下Open WebUI与ollama的关系。后端的同学可以理解为Open WebUI等于是个Navicat,Ollama就是具体的数据库实例。