【DPU系列之】Bluefield 2 DPU卡的功能图,ConnectX网卡、ARM OS、Host OS的关系?(通过PCIe Switch连接)

核心要点:

  • CX系列网卡与ARM中间有一个PCIe Swtich的硬件单元链接。

简要记录。

  • 可以看到图中两个灰色框,上端是Host主机,下端是BlueField DPU卡。图中是BF2的图,是BF2用的是DDR4。
  • DPU上的Connect系列网卡以及ARM系统之间有一个PCIe的Switch这个PCIe switch是独立于CX网卡和ARM核的。通过PCIe Switch从而可以将BF2 DPU上的网卡以独立网卡模式,还是附属到ARM上的方式做到灵活配置。
  • mlx5的驱动需要再Host上和ARM上都需要安装,这里有点类似累死ConnectX系列网卡接入了multihost。一个是Host一个ARM,并且是通过PCIe总线挂在一起的。 每个主机上运行的操作系统进行探测驱动程序。
  • BlueField-2 网络接口与 ConnectX-6 及更高版本兼容。
  • BlueField-3 网络接口与 ConnectX-7 及更高版本兼容。

图片来源:https://docs.nvidia.com/networking/display/bluefielddpuosv460/functional+diagram

相关推荐
tiantianuser1 天前
RDMA设计19:RoCE v2 发送及接收模块设计
nvme·rdma·fpga设计·高速传输·nvme-of
tianyuanwo3 天前
DPU驱动的云服务器革命:性能飙升与成本重构的商业技术双赢
服务器·云计算·dpu
tiantianuser3 天前
RDMA设计15:连接管理模块设计2
网络协议·fpga开发·rdma·高速传输·cmac
李洛克077 天前
RDMA 编程完整学习路线图
学习·rdma·路线
tiantianuser14 天前
RDMA设计13:融合以太网协议栈设计2
fpga开发·rdma·高速传输·cmac·roce v2
9527华安1 个月前
全国产化方案实现NVMe over 100G RDMA,解决智算超算中“存算”不匹配问题
fpga开发·nvme·rdma
bandaoyu2 个月前
【RDMA】mlx5dev mlx5dv_devx 接口
rdma·mlx5
漫谈网络3 个月前
InfiniBand 深度解析
网络·rdma·infiniband·roce v2
apple_ttt3 个月前
范式革命:RDMA 如何让网络成为 “分布式内存总线”
网络·计算机网络·数据中心·rdma·数据中心网络
apple_ttt3 个月前
InfiniBand技术解析(2):为什么它是高性能计算的 “超级血管”?
网络·rdma·infiniband·异构计算·数据中心网络