从 Device Plugin 到 DRA:GPU 调度范式升级与 HAMi-DRA 实践

KCD Beijing 2026 上,HAMi 社区核心贡献者分享了从 Device Plugin 到 DRA 的 GPU 调度范式升级。本文回顾了这次技术分享的核心内容,包括 DRA 的能力与挑战、HAMi-DRA 通过 Webhook 自动化 降低用户迁移成本的关键设计,以及性能与可观测性方面的实践成果。

KCD Beijing 2026 是近年来规模最大的 Kubernetes 社区大会之一,超过 1000 人报名参与,刷新了历届 KCD 北京的记录。

HAMi 社区不仅受邀进行了技术分享,也在现场设立了展台,与来自云原生与 AI 基础设施领域的开发者和企业用户进行了深入交流。

本次分享由两位 HAMi 社区核心贡献者完成:

  • 王纪飞(「Dynamia 密瓜智能」,HAMi Approver,HAMi-DRA 主要贡献者)
  • James Deng(第四范式,HAMi Reviewer)

分享主题为:从 Device Plugin 到 DRA:GPU 调度范式升级与 HAMi-DRA 实践

本文结合现场分享内容与幻灯片,做一次更完整的技术回顾。附幻灯片下载:GitHub - HAMi-DRA KCD Beijing 2026

现场回顾

图 1: 大会主会场

图 2: 观众注册中

图 3: HAMi 展台前参会者前来交流打卡

图 4: 志愿者在为观众盖章

图 5: 王纪飞正在分享中

图 6: James Deng 正在分享

GPU 调度范式正在发生变化

这次分享的核心,其实不只是 DRA 本身,而是一个更大的转变:

GPU 正在从 " 设备 " 变成 " 资源对象 "。

这个转变背后,是 AI workload 对 GPU 使用方式的根本性改变------GPU 不再适合以 " 整卡独占 " 的方式被简单分配,而是需要被共享、切分、调度和治理。

Device Plugin 的天花板

传统 Device Plugin 模型的问题,本质上在于表达能力不足:

  • 只能描述 " 数量 "(nvidia.com/gpu: 1
  • 无法表达多维资源(显存 / 核数 / 切片)
  • 无法表达多卡组合
  • 无法表达拓扑关系(NUMA / NVLink)

这些限制直接导致:

  • 调度逻辑外溢(extender / sidecar)
  • 系统复杂度上升
  • 并发调度能力受限

当 AI workload 进入推理服务、多租户混合场景后,这些问题的严重性被迅速放大。

DRA:资源建模能力的跃迁

DRA(Dynamic Resource Allocation)是 Kubernetes 社区在资源模型层面的一次重要升级,其核心优势包括:

  • 多维资源建模能力------不再局限于数量,可以表达显存、算力等细粒度维度
  • 完整设备生命周期管理------从资源发现、分配到回收的完整闭环
  • 细粒度资源分配------支持更灵活的资源组合方式

关键的结构性变化在于:

资源申请从 Pod 内嵌字段,变成独立的 ResourceClaim 对象。

这意味着 GPU 资源获得了与 Pod、PVC 同等的 " 一等公民 " 地位,调度器可以像管理存储卷一样管理 GPU 资源。

现实问题:DRA 太复杂了

DRA 的能力毋庸置疑,但有一个经常被忽视的现实问题:UX 明显退化。

Device Plugin 的写法

复制代码
resources:
  limits:
    nvidia.com/gpu: 1

DRA 的写法

复制代码
spec:
  devices:
    requests:
    - exactly:
        allocationMode: ExactCount
        capacity:
          requests:
            memory: 4194304k
            count: 1

同时还需要编写 CEL selector:

复制代码
device.attributes["gpu.hami.io"].type == "hami-gpu"

对比之下,结论非常明确:

DRA 是能力升级,但用户体验明显退化。

对于已经在使用 Device Plugin 的企业来说,迁移成本不只是改写 YAML 这么简单,而是整个团队需要学习一套全新的资源声明范式。

HAMi-DRA 的关键突破:自动化迁移

这是这次分享最有价值的部分之一。

HAMi 的做法不是让用户 " 直接用 DRA",而是采用了一个更务实的策略:

让用户继续使用 Device Plugin 的写法,由系统自动转换成 DRA。

工作机制

通过 Mutating Webhook,HAMi-DRA 在 Pod 创建阶段自动完成转换:

输入(用户侧,保持 Device Plugin 语法):

复制代码
nvidia.com/gpu: 1
nvidia.com/gpumemory: 4000

Webhook 自动转换

  • 生成 ResourceClaim 对象
  • 构造 CEL selector
  • 注入设备约束(UUID / GPU 类型)

输出(系统内部):

  • 标准的 DRA 资源对象
  • 可被调度器识别的资源表达

这个设计的核心价值在于:

将 DRA 从 " 专家接口 " 变成了 " 普通用户接口 "。

用户不需要理解 ResourceClaim、CEL selector 这些新概念,只需要像以前一样写 nvidia.com/gpu,系统会自动处理底层复杂性。

DRA Driver:不只是 " 注册资源 "

DRA Driver 的实现复杂度远超想象。它不只是 " 把资源注册到调度器 ",而是承担了完整的设备生命周期管理:

三个核心接口

  • Publish Resources------向调度器发布可用资源
  • Prepare Resources------Pod 创建前的资源准备(注入 libvgpu.so、配置 ld.so.preload、管理环境变量和临时目录)
  • Unprepare Resources------Pod 删除后的资源回收

这意味着:

GPU 调度已经进入运行时编排层,不再只是简单的资源分配。

从用户角度看,Pod 创建的时间线被拉长了------调度器匹配资源后,Driver 还需要完成设备初始化、运行时注入等一系列操作,才能让 Pod 正常运行。

性能提升:不只是 " 更优雅 "

HAMi-DRA 不只是架构更优雅,在性能方面也有实质性的提升。

Pod 创建时间对比

  • HAMi(传统模式):峰值约 42,000
  • HAMi-DRA:显著降低(提升约 30%+)

这一提升来自 DRA 的资源预绑定机制:在调度阶段就已经确定了资源分配,减少了调度冲突和重试次数。

对于大规模 AI 集群来说,Pod 创建速度直接影响任务启动延迟和集群吞吐量,30%+ 的提升在生产环境中意义重大。

可观测性范式的转变

一个容易被低估但非常重要的变化是可观测性。

传统模型

  • 资源信息来自 Node
  • 使用情况来自 Pod
  • 需要聚合和推断才能获得完整的资源视图

DRA 模型

  • ResourceSlice 描述设备清单
  • ResourceClaim 描述资源分配
  • 资源视角是一等公民

这意味着:

可观测性从 " 推断 " 变成了 " 直接建模 "。

运维团队可以直接通过 ResourceClaim 了解每张 GPU 被谁占用、分配了多少显存、还有多少余量,而不需要从 Node 状态和 Pod 配置中反推。

统一建模:异构设备的未来方向

如果设备属性可以被标准化,那么一个与厂商无关的调度模型就成为可能。

例如,通过标准化的属性字段描述:

  • PCIe root complex
  • PCI bus ID
  • GPU 核心属性

这指向了一个更大的叙事:

DRA 是异构算力抽象的起点。

当华为昇腾、寒武纪、AMD 等不同厂商的加速器都通过统一的属性模型接入 Kubernetes,调度器就能真正实现跨厂商的资源管理,而不再需要为每个硬件厂商维护独立的调度逻辑。

更大的趋势:Kubernetes 正在成为 AI 控制平面

将这些变化串联起来,可以看到一个清晰的趋势:

  • 从调度 " 机器 " 到调度 " 资源对象 "------Node 不再是最小调度单元
  • 从 " 设备 " 到 " 虚拟资源 "------GPU 不再是一张物理卡,而是可切分、可组合的资源
  • 从 " 命令式 " 到 " 声明式 "------调度逻辑被资源声明所替代

本质上:

Kubernetes 正在演进为 AI 基础设施的控制平面。

HAMi 的定位

在这一趋势下,HAMi 的定位正在变得越来越清晰:

面向 Kubernetes 的 GPU 资源层。

  • 向下:适配异构 GPU(NVIDIA / 华为昇腾 / 寒武纪等)
  • 向上:支持 AI workload(训练 / 推理 / Agent)
  • 中间:调度 + 虚拟化 + 资源抽象

而 HAMi-DRA,正是将这层资源能力与 Kubernetes 原生模型对齐的关键一步。

结语

这次 KCD Beijing 2026 分享的真正价值,不只是介绍了 DRA,而是回答了一个更实际的问题:

如何把一个 " 正确但难用 " 的模型,变成一个今天就能用的系统?

HAMi-DRA 的答案是:

  • 不改变用户习惯------继续使用 Device Plugin 语法
  • 吸收 DRA 能力------底层自动转换为 DRA 资源模型
  • 内部消化复杂性------Webhook、Driver、生命周期管理全部由系统处理

这也是 HAMi 社区一直坚持的方式:通过社区协作推动 AI 基础设施进步,而不是封闭系统。 来自不同公司的贡献者在真实生产环境中验证方案,通过社区共享经验,让更多人受益。

如果你对 HAMi-DRA 或 GPU 调度感兴趣,欢迎加入 HAMi 社区,与我们一起推动 Kubernetes 上的 AI 算力资源管理。

HAMi 是 CNCF 托管的开源项目 与社区,核心方向是 GPU 虚拟化与异构算力调度,面向 AI 场景提升算力利用效率;其目标是实现 灵活、按需、弹性、可靠 的 GPU 虚拟化,并持续扩展对主流 AI 芯片生态的支持。


「密瓜智能(Dynamia) 」专注 GPU 虚拟化与异构算力 调度,发起并主导 CNCF 开源项目 HAMi;同时基于 HAMi 提供商业发行版、企业产品与服务,帮助用户在真实业务中规模化使用相关能力

官网:https://dynamia.ai

邮箱:info@dynamia.ai

原文链接:https://dynamia.ai/zh/blog/kcd-beijing-2026-dra-gpu-scheduling

本文作者「Dynamia密瓜智能」

相关推荐
茫忙然2 小时前
CTF大语言模型(LLM)提示词注入12种方法
网络·人工智能·语言模型
sali-tec2 小时前
C# 基于OpenCv的视觉工作流-章51-点查找
图像处理·人工智能·opencv·算法·计算机视觉
FluxMelodySun2 小时前
机器学习(三十二) 半监督学习-基于分歧的方法与半监督聚类
人工智能·算法·机器学习
预见AI2 小时前
康耐视VisionPro连接海康相机教程(Gige)及常见错误问题
人工智能·计算机视觉·visionpro·海康相机
xushichang123_2 小时前
AI销售助手工具推荐:径硕科技(JINGdigital)与JINGEO,赋能B2B销售团队高效增长
大数据·人工智能·科技
金融Tech趋势派2 小时前
企业微信收费吗?2026年最新收费标准
人工智能·企业微信
竹之却2 小时前
【Agent-阿程】AI先锋杯·14天征文挑战第14期-第6天-大模型RAG检索增强生成实战
人工智能·大模型·检索增强·faiss·rag
QYR_Jodie2 小时前
异戊二烯橡胶(IR)行业深度洞察:预计2032年将达到20.92亿美元
大数据·人工智能·市场报告
TsingtaoAI2 小时前
技术博客外,Gen1比Gen0进化了什么
人工智能·具身智能