openwebui

Silence4Allen6 天前
ubuntu·vllm·ollama·llama-factory·openwebui·lmdeploy
Ubuntu 22.04 AI大模型环境配置及常用工具安装建议使用 Ubuntu22.04 以下配置皆以 Ubuntu22.04 系统版本为例【建议安装 3.10】(安装miniconda或者conda来管理虚拟环境)
王亭_66614 天前
人工智能·大模型·ollama·openwebui·deepseek
Ollama+open-webui搭建私有本地大模型详细教程Ollama 是一个轻量级的 AI 模型运行时,专注于简化 AI 模型的部署和使用。它支持多种预训练模型(如 Llama、Vicuna、Dolly 等),并且可以在本地运行,无需复杂的基础设施。Ollama 的设计理念是让 AI 模型的使用变得像运行普通程序一样简单,同时确保数据和隐私的安全性。
小生测试1 个月前
ollama·openwebui·ollama本地部署大模型
Ollama+OpenWebUI本地部署大模型Ollama是一个开源项目,用于在本地计算机上运行大型语言模型(LLMs)的工具,它的底层是使用Docker,所以支持类似Docker的构建方式,大模型就是它的镜像。它支持多种模型格式,包括但不限于GGUF,允许用户在没有高性能GPU或不希望使用云服务的情况下,利用个人计算机的资源来执行复杂的语言任务。
闫利朋1 个月前
ollama·openwebui·本地deepseek对话
ubuntu22.04本地部署OpenWebUIOpen WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器,如 Ollama 和 OpenAI 兼容的 API,并内置了 RAG 推理引擎,使其成为强大的 AI 部署解决方案。
神秘的土鸡2 个月前
人工智能·llama·ollama·openwebui
使用Open WebUI下载的模型文件(Model)默认存放在哪里?🏡作者主页:点击!🤖Ollama部署LLM专栏:点击!⏰️创作时间:2025年2月21日21点21分
wuhanwhite2 个月前
docker·openwebui
更新无忧:用 Docker 数据卷确保 Open WebUI 数据持久化在使用 Docker 部署 Open WebUI 时,如何在更新容器的同时确保数据不丢失,始终是工程师们关注的焦点。每次拉取新版镜像、停止并重启容器时,如果没有正确挂载数据卷,配置和数据库数据极易流失,给生产环境带来不必要的麻烦。
IT果果日记2 个月前
人工智能·ai编程·ollama·openwebui
Ollama+OpenWebUI部署本地大模型Ollama是一个强大且易于使用的本地大模型推理框架,它专注于简化和优化大型语言模型(LLMs)在本地环境中的部署、管理和推理工作流。可以将Ollama理解为一个大模型推理框架的后端服务。
盛世芳华5 个月前
openwebui
openwebui二改界面环境搭建注意版本要求:浏览器访问:http://localhost:5173/后端首次执行时,会去huggingface下载模型,网络原因,需要梯子。
不求上进的鱼仔7 个月前
llm·openwebui
【LLM】局域网内为容器服务启用HTTPSOpenWebUI中,语音输入需要HTTPS才能使用麦克风等硬件资源,在局域网中通过NGINX转发实现HTTPS访问。
Anakki1 年前
运维·docker·容器·大模型·大语言·ollama·openwebui
Docker下Open WebUI,Ollama的安装实践提示一下Open WebUI与ollama的关系。后端的同学可以理解为Open WebUI等于是个Navicat,Ollama就是具体的数据库实例。