Ollama+open-webui部署模型

Ollama+open-webui部署模型

  • 1.启动Ollama服务
    • [1.1 安装ollama](#1.1 安装ollama)
    • [1.2 启动ollama服务](#1.2 启动ollama服务)
    • [1.3 运行模型:](#1.3 运行模型:)
  • [2. 使用 Open WebUI 部署模型](#2. 使用 Open WebUI 部署模型)
    • [2.1 创建虚拟环境](#2.1 创建虚拟环境)
    • [2.2 安装所有依赖](#2.2 安装所有依赖)
    • [2.3 运行 ollama](#2.3 运行 ollama)
    • [2.4 运行 open-webui](#2.4 运行 open-webui)
    • [2.5 启动浏览器,开始对话](#2.5 启动浏览器,开始对话)

1.启动Ollama服务

1.1 安装ollama

python 复制代码
curl -fsSL https://ollama.com/install.sh | sh

1.2 启动ollama服务

python 复制代码
ollama serve

1.3 运行模型:

python 复制代码
ollama run ollama run qwen2.5:0.5b

2. 使用 Open WebUI 部署模型

Open WebUI 是一个可扩展的、自托管的 AI 界面,可以适应您的工作流程,同时完全离线操作。

python 复制代码
仓库:https://github.com/open-webui/open-webui
文档:https://docs.openwebui.com/

2.1 创建虚拟环境

python 复制代码
conda create -n open-webui python==3.11

这里选用 python 3.11 版本是因为 open-webui 的要求。

2.2 安装所有依赖

python 复制代码
conda activate open-webui
pip install -U open-webui torch transformers

2.3 运行 ollama

python 复制代码
ollama serve

2.4 运行 open-webui

由于 ollama 的运行导致原终端阻塞,因此要另外开一个新终端 。

python 复制代码
conda activate open-webui
export HF_ENDPOINT=https://hf-mirror.com
export ENABLE_OLLAMA_API=True
export OPENAI_API_BASE_URL=http://127.0.0.1:11434/v1
open-webui serve

2.5 启动浏览器,开始对话

一切运行正常后,可以通过浏览器输入 http://127.0.0.1:8080 打开 open-webui 面板进行使用。

相关推荐
纠结哥_Shrek8 个月前
ollama+open-webui搭建可视化大模型聊天
人工智能·电商·ollama·open-webui
GuokLiu9 个月前
250405-VSCode编辑launch.json实现Debug调试Open-WebUI
vscode·debug·open-webui
toooooop810 个月前
免费OpenAI gpt-4o-mini-tts API调用(已开源)
docker·open-webui
toooooop810 个月前
Open WebUI自定义OpenWebUI图标
open-webui
GuokLiu10 个月前
250316-Open-WebUI源码部署+离线迁移
nodejs·open-webui
百年孤独百年10 个月前
docker的anythingllm和open-webui压缩包分享(国内镜像拉取,百度云压缩包分享)
运维·docker·容器·anythingllm·open-webui·docker国内镜像
亲持红叶1 年前
open-webui安装
docker·open-webui
a41324471 年前
亲测Windows部署Ollama+WebUI可视化
windows·ollama·open-webui·deepseek本地化部署
_loehuang_1 年前
(二)DeepSeek大模型安装部署-Web工具Open-WebUI安装
大模型·open-webui·deepseek