【AGI使用教程】GPT-OSS 本地部署(2)

欢迎关注【AGI使用教程】 专栏
【AGI使用教程】GPT-OSS 本地部署(1)
【AGI使用教程】GPT-OSS 本地部署(2)

【AGI使用教程】GPT-OSS 本地部署(2)基于 WebUI 使用 GPT-OSS

    • [1. 安装Docker](#1. 安装Docker)
    • [2. 安装WebUI](#2. 安装WebUI)
    • [3. 使用GPT-OSS模型](#3. 使用GPT-OSS模型)
    • [4. 模型管理与联网搜索](#4. 模型管理与联网搜索)
      • [4.1 模型管理](#4.1 模型管理)
      • [4.2 联网搜索](#4.2 联网搜索)

2025年8月5日,OpenAI 正式发布了 开源 GPT 服务框架:GPT-OSS-120B 和 GPT-OSS-20B。

GPT-OSS 支持主流开源大模型(如 Llama、Qwen、Mistral、Gemma 等),兼容 OpenAI API 标准,具备高性能推理、插件扩展、模型管理、权限控制等能力,适用于智能问答、内容生成、RAG、Agent、企业知识库等多种场景。

本节继续介绍:基于 WebUI 使用 GPT-OSS

Open WebUI 是一款可扩展、功能丰富、用户友好的大语言模型(LLM)交互界面,支持本地部署与离线运行。它支持各种LLM运行程序,包括 Ollama 和 OpenAI 兼容的 API,提供了 web 的方式来访问 Ollama API。

本教程将指导您使用 Docker 安装Open WebUI,并将其与Ollama的GPT-OSS模型集成。这种方法可以简化部署过程,并确保环境的一致性。

1. 安装Docker

Docker是一种虚拟化容器技术。Docker基于镜像,可以秒级启动各种容器。每一种容器都是一个完整的运行环境,容器之间互相隔离。注意Docker Desktop要求Windows 10 Pro或企业版,并且需要启用Hyper-V。

  1. 检查安装环境。检查Windows系统是否开启虚拟化。
    (1)打开任务管理器(Ctrl+Alt+Del),选择:"性能-CPU-虚拟化",确认 "虚拟化" 已启用。
    (2)如果未开启虚拟化,则要开机重启并进入BIOS 设置:选择Advanced(高级)-CPU Configuration-Secure Virtual Machine,设置为:Enabled(启用)。
    (3)在 "控制面板" 打开 "程序",然后点击 "启用或关闭Windows功能",勾选 "Hyper-V 管理工具" 和 "Hyper-V 平台"。
    (4)以管理员身份打开命令行窗口,输入 "wsl --set-default-version 2",将默认设置为 WSL 2。
    (5)在命令行窗口输入"wsl --update --web-download",更新安装 wsl。
    通过适用于Linux的Windows子系统 (WSL),开发人员可以安装Linux发行版,并直接在Windows上使用Linux应用程序、实用程序和 Bash 命令行工具。
  1. 安装 Docker for Desktop。
    Docker Desktop 是 Docker 官方提供的桌面应用程序。
    (1)下载Docker Desktop。访问Docker官网(https://www.docker.com/),下载 Docker Desktop for Windows安装程序。
    (2)安装Docker Desktop。以管理员身份运行下载的Docker Desktop安装包,安装程序会引导用户完成安装过程。
    (3)创建Docker Hub账号。访问Docker官网,点击右上角的"Sign Up"按钮,进入注册页面注册Docker Hub账号。
    (4)登录Docker Hub账号。访问Docker官网并登录。
    (5)安装完成后,启动Docker Desktop,检查右下角托盘图标状态为"Docker Desktop running",表明安装成功。

(6)打开命令行窗口,输入" docker version "检查,显示docker的版本号,

  1. 配置国内镜像源。
    在命令行运行 "docker run hello-world",可能出现报错:" docker: Error response from daemon. (Client. Timeout exceeded while awaiting headers). "。这是Docker守护进程在尝试连接到 Docker Hub(registry-1.docker.io)时,发生连接超时,即访问镜像源失败。配置国内的镜像源或者相关加速可以解决这个问题。

(1)进入Docker Desktop,选择 "Settings-Docker Engine",将镜像源替换如下。

bash 复制代码
{
  "builder": {
    "gc": {
      "defaultKeepStorage": "20GB",
      "enabled": true
    }
  },
  "experimental": false,
  "features": {
    "buildkit": true
  },
  "registry-mirrors": [
    "https://docker.m.daocloud.io",
    "https://docker.1panel.live",
    "https://registry.docker-cn.com",
    "https://cr.console.aliyun.com",
    "https://mirror.ccs.tencentyun.com"
  ]
}

(2)点击 "Apply" 按钮,然后重启Docker Desktop,等待Engine Starting后就完成镜像源替换。

(3)再次运行 "docker run hello-world",就可以成功拉取hello-world镜像。

2. 安装WebUI

Open WebUI 支持本地部署与离线运行大语言模型,提供了web方式来访问 Ollama API。

  1. 从GitHub仓库拉取Open WebUI Docker镜像。

docker pull ghcr.io/open-webui/open-webui:main

  1. 使用默认设置运行容器 docker。
    (1)使用CPU(不支持GPU)。
bash 复制代码
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

(2)若要支持 Nvidia GPU,请在 "docker run" 命令中添加 "--gpus all"。

bash 复制代码
docker run -d -p 3000:8080 --gpus all -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:cuda

(3)若要跳过登录页面,使用单用户设置,请将 WEBUI_AUTH 环境变量设置为 False。注意:修改后将无法在单用户模式和多帐户模式之间切换。

bash 复制代码
docker run -d -p 3000:8080 -e WEBUI_AUTH=False -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

其中:卷映射 -v open-webui:/app/backend/data 可以防止容器重启时数据丢失;端口映射 -p 3000:8080 表示访问主机的 3000端口时,请求会被转发到容器的 8080 端口。

  1. 访问 WebUI。
    (1)在容器docker中运行open-webui,如下图所示。

(2)从浏览器访问3000端口:"http://127.0.0.1:3000" 或 "http://localhost:3000",进入 WebUI。首次访问时,需要创建一个管理员账户。

(3)再次访问 WebUI 时,则显示如下的登录界面。输入用户名(电子邮箱)和密码,登录WebUI 。

3. 使用GPT-OSS模型

  1. 访问 WebUI("http://localhost:3000"),登录用户账号。
  2. 模型配置。点击左上角模型选择按钮,选中 "gpt-oss:20b" 模型,就可以使用本地部署的GPT-OSS模型进行对话了。
  1. 向GPT-OSS模型提问:【请比较RCNN,Fast RCNN 与 Faster RCNN。】。
    模型的输出如下图所示。

本地计算机配置NVIDIA RTX 4060Ti(16 GB)单卡GPU,对话时的GPU性能如下图所示,GPU利用率高达98%,表示算力已经满载。

4. 模型管理与联网搜索

4.1 模型管理

(1)在 Open WebUI 中,选择 "管理员面板-设置-外部连接",可以下载模型、配置设置和管理连接。

(2)点击 "管理OpenAI API连接",在弹出的 "添加连接" 窗口中填写API请求地址和API密钥,可以将您的服务器连接到 Open WebUI。

4.2 联网搜索

本节内容需要模型支持,GPT-OSS 目前不能支持。

为了充分释放本地模型的潜力,启用网络搜索将允许从网络中获取实时数据,从而通过最新信息增强他们的响应。

  1. 启用网络搜索。
    (1)导航到管理面板:打开WebUI,选择 "管理员面板-设置-联网搜索"。
    (2)启用网络搜索:点击"通用-联网搜索"后的切换按钮,启用联网搜索功能。
    (3)选择搜索提供商:点击"网络搜索引擎"选择搜索根据,如"tavily"。注意有的模型需要API密钥。
  1. 使用网络搜索:
    启用Web搜索后,模型就可以使用实时搜索功能。当你提出需要当前信息的查询时,该模型将自动从网络中搜索相关数据。
    (1)打开Web搜索:在WebUI聊天界面中,点击输入框下方"联网搜索"图标,该图标转为蓝色背景表明打开Web搜索。
    (2)与模型对话:像往常一样输入提问。如果输入的问题需要联网信息,模型将使用启用的搜索引擎为您提供更准确和最新的响应。

【本节完】

下节 继续介绍:使用API接口调用GPT-OSS

版权声明:

youcans@qq.com 原创作品,转载必须标注原文链接:
【AGI使用教程】GPT-OSS 本地部署(1)
【AGI使用教程】GPT-OSS 本地部署(2)

Copyright@youcans 2025

Crated:2025-08

相关推荐
严文文-Chris7 分钟前
【人工智能AI、机器学习ML、深度学习DL、基础模型FM、LLM、GPT、Generative AI 分别是什么?他们之间的关系是什么?】
人工智能·深度学习·机器学习
Tom·Ge12 分钟前
Spring AI 入门指南:三步将AI集成到Spring Boot应用
人工智能·spring boot·spring
高光视点21 分钟前
2025中国生物制造科技创新论坛为何“花落”常德?
人工智能·科技·制造
梓羽玩Python44 分钟前
3分钟搭建 MCP 交易平台,这个开源项目帮你搞外快!
人工智能·github·产品
柠檬味拥抱1 小时前
面向不确定环境的AI Agent鲁棒决策模型设计与实现
人工智能
zxsz_com_cn1 小时前
机床智能健康管理系统:基于多源数据融合与边缘智能的技术实现
人工智能
盼小辉丶1 小时前
PyTorch生成式人工智能——PatchGAN详解与实现
人工智能·pytorch·生成模型
柠檬味拥抱1 小时前
从Q-Learning到DQN-AI Agent自主决策能力的进化
人工智能
二向箔reverse1 小时前
CNN 中 3×3 卷积核等设计背后的底层逻辑
人工智能·神经网络·cnn
aneasystone本尊2 小时前
GraphRAG 索引构建概述
人工智能