部署open-webui到本地

方法一:使用Docker Compose(推荐)

1. 进入项目目录(git 克隆)

命令:git clone https://github.com/open-webui/open-webui.git

bash 复制代码
cd open-webui

2. 复制环境配置文件

bash 复制代码
cp .env.example .env

3. 编辑环境配置

打开 .env 文件,主要配置以下内容:

bash 复制代码
# Ollama服务地址
OLLAMA_BASE_URL=http://host.docker.internal:11434

# 数据库配置
DATABASE_URL=sqlite:///./data/open-webui.db

# 管理员账户
WEBUI_SECRET_KEY=your-secret-key-here

4. 启动服务

bash 复制代码
docker-compose up -d

方法二:使用Docker直接运行

1. 拉取镜像

bash 复制代码
docker pull ghcr.io/open-webui/open-webui:main

2. 运行容器

bash 复制代码
docker run -d \
  --name open-webui \
  -p 3000:8080 \
  -v open-webui:/app/backend/data \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  -e WEBUI_SECRET_KEY=your-secret-key-here \
  ghcr.io/open-webui/open-webui:main

方法三:本地开发模式

1. 安装依赖

bash 复制代码
# 安装Python依赖
pip install -r requirements.txt

# 安装前端依赖
cd frontend
npm install

2. 启动后端服务

bash 复制代码
# 在项目根目录
python -m uvicorn app.main:app --host 0.0.0.0 --port 8080

3. 启动前端服务

bash 复制代码
# 在frontend目录
npm run dev

验证部署

1. 检查Ollama服务

bash 复制代码
# 测试Ollama是否正常运行
curl http://localhost:11434/api/tags

2. 访问WebUI

打开浏览器访问:http://localhost:3000

3. 创建管理员账户

首次访问时,系统会提示创建管理员账户。

常见问题解决

1. 如果Ollama连接失败

确保Ollama服务正在运行:

bash 复制代码
# 启动Ollama
ollama serve

2. 如果端口被占用

修改Docker运行命令中的端口映射:

bash 复制代码
docker run -d \
  --name open-webui \
  -p 3001:8080 \  # 改为3001端口
  ...

3. 如果数据库连接失败

检查数据库配置,确保路径正确且有写入权限。

使用建议

1. 模型管理

在WebUI中,您可以:

  • 下载和管理不同的模型
  • 配置模型参数
  • 创建自定义模型配置

2. 用户管理

  • 创建多个用户账户
  • 设置不同的权限级别
  • 管理用户会话

3. 安全配置

  • 设置强密码
  • 配置HTTPS(生产环境)
  • 定期备份数据

生产环境部署

如果您计划在生产环境使用,建议:

  1. 使用HTTPS:配置SSL证书
  2. 设置反向代理:使用Nginx或Apache
  3. 配置防火墙:限制访问端口
  4. 定期备份:备份数据库和配置文件
  5. 监控日志:设置日志监控和告警

部署完成后,您就可以通过Web界面来管理和使用您的Ollama模型了!如果遇到任何问题.