vgpu

爱吃芝麻汤圆20 天前
kubernetes·开源·vgpu
开源vGPU解决方案HAMi在云计算与容器化快速发展的今天,GPU作为AI训练、深度学习等场景的核心算力资源,其高效利用一直是企业与开发者关注的焦点。然而,在Kubernetes(k8s)环境中,原生的NVIDIA Device Plugin存在一个显著局限:物理GPU与Pod严格一一对应——一个物理GPU被一个Pod占用后,其他Pod无法再使用,导致GPU资源利用率低下,甚至出现“一核难求”与“资源闲置”并存的矛盾。
探索云原生22 天前
云原生·容器·kubernetes·vgpu
HAMi vGPU 原理分析 Part3:hami-scheduler 工作流程分析上篇我们分析了 hami-webhook,该 Webhook 将申请了 vGPU 资源的 Pod 的调度器修改为 hami-scheduler,后续使用 hami-scheduler 进行调度。
探索云原生1 个月前
云原生·容器·kubernetes·go·vgpu
HAMi vGPU 原理分析 Part2:hami-webhook 原理分析上篇我们分析了 hami-device-plugin-nvidia,知道了 HAMi 的 NVIDIA device plugin 工作原理。
探索云原生1 个月前
云原生·kubernetes·gpu·vgpu
开源 vGPU 方案 HAMi 原理分析 Part1:hami-device-plugin-nvidia 实现本文为开源的 vGPU 方案 HAMi 实现原理分析第一篇,主要分析 hami-device-plugin-nvidia 实现原理。
探索云原生2 个月前
ai·vgpu
开源 vGPU 方案 HAMi: core&memory 隔离测试本文主要对开源的 vGPU 方案 HAMi 的 GPU Core&Memory 隔离功能进行测试。省流:
静谧之心7 个月前
容器·kubernetes·开源·gpu算力·vgpu
开源 vGPU 方案 HAMi 解析在 k8s 中,资源与节点紧密绑定。对于 GPU 资源,我们依赖 NVIDIA 提供的 device-plugin 来进行感知,并将其上报到 kube-apiserver。例如,通过执行 kubectl describe node gpu01|grep Capacity -A 7 命令,我们可以看到节点上的资源信息,其中包括 nvidia.com/gpu: 8,这表明该节点上有 8 个 GPU。这一机制使得 k8s 能够对 GPU 资源有一定的了解,但也带来了后续的调度问题。
YSRM9 个月前
算法·gpu算力·vgpu·pci直通
Experimental Analysis of Dedicated GPU in Virtual Framework using vGPU 论文分析年份:2021作者:Amrapali Shivajirao Chavan会议:ESCI出版商:IEEE