openwebui

闫利朋14 小时前
ollama·openwebui·本地deepseek对话
ubuntu22.04本地部署OpenWebUIOpen WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。
神秘的土鸡16 天前
人工智能·llama·ollama·openwebui
使用Open WebUI下载的模型文件(Model)默认存放在哪里?🏡作者主页:点击!🤖Ollama部署LLM专栏:点击!⏰️创作时间:2025年2月21日21点21分
wuhanwhite1 个月前
docker·openwebui
更新无忧:用 Docker 数据卷确保 Open WebUI 数据持久化在使用 Docker 部署 Open WebUI 时,如何在更新容器的同时确保数据不丢失,始终是工程师们关注的焦点。每次拉取新版镜像、停止并重启容器时,如果没有正确挂载数据卷,配置和数据库数据极易流失,给生产环境带来不必要的麻烦。
IT果果日记1 个月前
人工智能·ai编程·ollama·openwebui
Ollama+OpenWebUI部署本地大模型Ollama是一个强大且易于使用的本地大模型推理框架,它专注于简化和优化大型语言模型(LLMs)在本地环境中的部署、管理和推理工作流。可以将Ollama理解为一个大模型推理框架的后端服务。
盛世芳华4 个月前
openwebui
openwebui二改界面环境搭建注意版本要求:浏览器访问:http://localhost:5173/后端首次执行时,会去huggingface下载模型,网络原因,需要梯子。
不求上进的鱼仔6 个月前
llm·openwebui
【LLM】局域网内为容器服务启用HTTPSOpenWebUI中,语音输入需要HTTPS才能使用麦克风等硬件资源,在局域网中通过NGINX转发实现HTTPS访问。
Anakki10 个月前
运维·docker·容器·大模型·大语言·ollama·openwebui
Docker下Open WebUI,Ollama的安装实践提示一下Open WebUI与ollama的关系。后端的同学可以理解为Open WebUI等于是个Navicat,Ollama就是具体的数据库实例。