GPUStack私有模型仓库配置教程

GPUStack 当前支持从 Hugging FaceOllama Registry 模型仓库部署模型,其中 Ollama 使用了 OCI 分发规范 来分发模型镜像,虽然 Ollama 不支持通过 Docker 来构建和管理 Ollama 的模型镜像,但 Ollama 提供了相关的 CLI 命令同样可以用来管理模型镜像,例如进行 pull 和 push 等操作,也支持使用 Docker Registry 作为自托管的私有模型仓库。

配置教程

前置准备工作

安装 Docker

安装 Ollamahttps://ollama.com/

安装 GPUStack,参考:

https://docs.gpustack.ai/quickstart/

运行 Docker Registry

通过 Docker 在本地运行一个 Docker Registry 容器,监听在主机的5001端口:

docker run -d -p 5001:5000 --name registry registry:2

检查 Registry 容器运行状态:docker ps

访问 Docker Registry 端点验证 Registry 服务正常:curl http://localhost:5001/v2

Ollama 推送模型镜像到 Docker Registry

运行 Ollama ,然后打开命令行,通过 Ollama 命令下载 llama3.1 模型:ollama pull llama3.1

检查已下载好的模型:ollama list

通过 ollama cp 命令将模型拷贝一个指向 Docker Registry 地址的名称:ollama cp llama3.1 192.168.50.53:5001/library/llama3.1

将模型镜像推送到 Docker Registry :ollama push 192.168.50.53:5001/library/llama3.1 --insecure

配置 GPUStack 使用私有模型仓库

配置 GPUStack ,添加 --ollama-library-base-url 启动参数指定 Docker Registry 的地址:curl -sfL https://get.gpustack.ai | sh -s - --ollama-library-base-url http://192.168.50.53:5001

检查 GPUStack 日志,确认 GPUStack 服务正常启动:tail -200f /var/log/gpustack.log

从私有模型仓库部署模型

访问 GPUStack ,选择模型-部署模型 ,选择从 Ollama Library 部署,填写前面推送到 Docker Registry 的模型名称,教程示例是 llama3.1,如下:

GPUStack 会从私有模型仓库下载模型,而不是从公网 Ollama Library 下载:

相关推荐
zhuiyisuifeng15 小时前
2026图像精修:GPT-Image-2局部编辑全攻略
gpt
zhuiyisuifeng17 小时前
GPT-Image-2镜像官网:文生图技术迈入工程化时代
gpt
甩手网软件17 小时前
GPT Images 2.0&nNano banana:按电商全流程选模型,做图不踩坑效率翻倍
人工智能·gpt
深念Y21 小时前
Codex 买号登录问题排查与 auth.json 手动配置记录
gpt·jwt·coding·codex·email·refresh_token·access_token
Resistance丶未来21 小时前
Kimi K2.6 智能应用场景与落地指南
人工智能·gpt·大模型·api·claude·kimi·kimi k2.6
锕琅1 天前
OpenAI Codex使用教程-GPT功能配置
人工智能·gpt·codex
一粒黑子2 天前
【实测】GitNexus实测:拖入GitHub链接秒出代码知识图谱,今天涨了857星
人工智能·gpt·安全·ai·大模型·ai编程
chaofan9802 天前
GPT-5.5 领衔 Image 2.0:像素级控制时代,AI 绘图告别开盲盒
开发语言·人工智能·python·gpt·自动化·api
chaofan9802 天前
GPT-5.5 深度评测:15项基准测试全优,视觉理解精度跃升 42%
大数据·人工智能·gpt·计算机视觉·api
ai大模型中转api测评2 天前
解密 GPT-5.5:原生多模态架构如何重定义 AI 逻辑推理与精准制图
大数据·人工智能·gpt·架构·api