GPUStack私有模型仓库配置教程

GPUStack 当前支持从 Hugging FaceOllama Registry 模型仓库部署模型,其中 Ollama 使用了 OCI 分发规范 来分发模型镜像,虽然 Ollama 不支持通过 Docker 来构建和管理 Ollama 的模型镜像,但 Ollama 提供了相关的 CLI 命令同样可以用来管理模型镜像,例如进行 pull 和 push 等操作,也支持使用 Docker Registry 作为自托管的私有模型仓库。

配置教程

前置准备工作

安装 Docker

安装 Ollamahttps://ollama.com/

安装 GPUStack,参考:

https://docs.gpustack.ai/quickstart/

运行 Docker Registry

通过 Docker 在本地运行一个 Docker Registry 容器,监听在主机的5001端口:

docker run -d -p 5001:5000 --name registry registry:2

检查 Registry 容器运行状态:docker ps

访问 Docker Registry 端点验证 Registry 服务正常:curl http://localhost:5001/v2

Ollama 推送模型镜像到 Docker Registry

运行 Ollama ,然后打开命令行,通过 Ollama 命令下载 llama3.1 模型:ollama pull llama3.1

检查已下载好的模型:ollama list

通过 ollama cp 命令将模型拷贝一个指向 Docker Registry 地址的名称:ollama cp llama3.1 192.168.50.53:5001/library/llama3.1

将模型镜像推送到 Docker Registry :ollama push 192.168.50.53:5001/library/llama3.1 --insecure

配置 GPUStack 使用私有模型仓库

配置 GPUStack ,添加 --ollama-library-base-url 启动参数指定 Docker Registry 的地址:curl -sfL https://get.gpustack.ai | sh -s - --ollama-library-base-url http://192.168.50.53:5001

检查 GPUStack 日志,确认 GPUStack 服务正常启动:tail -200f /var/log/gpustack.log

从私有模型仓库部署模型

访问 GPUStack ,选择模型-部署模型 ,选择从 Ollama Library 部署,填写前面推送到 Docker Registry 的模型名称,教程示例是 llama3.1,如下:

GPUStack 会从私有模型仓库下载模型,而不是从公网 Ollama Library 下载:

相关推荐
PD我是你的真爱粉4 小时前
大模型可控性实践:护栏技术、结构化输出、GPT Structured Outputs 与 GPTCache
人工智能·gpt
东北洗浴王子讲AI8 小时前
GPT-5.4英语口语学习全攻略:从开口困难到流利表达的进阶之路
gpt·学习
Sim148010 小时前
GPT-5倒计时:多模态AI助手大战一触即发,谁将主导下一代操作系统?
人工智能·gpt·microsoft
东北洗浴王子讲AI10 小时前
GPT-5.4英语写作能力提升:从基础表达到专业写作的系统训练方法
gpt
东北洗浴王子讲AI10 小时前
GPT-5.4在自动化测试与质量保障中的创新应用实践
人工智能·gpt·自然语言处理·chatgpt
东北洗浴王子讲AI19 小时前
GPT-5.4辅助算法设计与优化:从理论到实践的系统方法
人工智能·gpt·算法·chatgpt
晨欣1 天前
【如何选出最适合你业务场景所需的大模型?】Artificial Analysis 网站最佳使用指南(GPT-5.4-high生成)
gpt·llm选型
东北洗浴王子讲AI1 天前
GPT-5.4辅助机器学习论文写作:从构思到发表的全流程指南
人工智能·gpt·自然语言处理