面对HPC领域的不断发展,未来HPC业务核心在于HPC网络和基础设施。随着高性能计算应用的复杂性和数据量的增长,对弹性、可扩展和高效网络的需求变得日益迫切。HPC网络架构作为HPC系统运行的基础,在数据处理、管理和大规模存储方面至关重要。本文详细探讨了飞速(FS)HPC网络架构关键组成部分,阐述HPC数据中心网络的优势,并深入介绍飞速(FS)针对高性能计算(HPC)网络架构不同分区提供的全面解决方案和丰富产品线。
飞速(FS)HPC网络架构
飞速(FS)HPC工作负载的网络架构由三个关键部分组成:算力网、管理网和存储网。它们共同协作,应对复杂算法,在各个领域释放出全新潜力。
算力网
算力网是飞速(FS)HPC网络系统的计算骨干,由HPC算力网络和通用算力网络组成。
HPC算力网专为HPC任务而设计,能够高效处理海量数据和执行更为复杂的计算任务,如图像识别、自然语言处理和模型推理。HPC算力网通常由GPU服务器、高性能交换机、高速光模块和高速线缆/光缆组成大型算力网络集群,共同加速HPC工作负载。飞速(FS)HPC算力网通常采用400G及更高速率的连接,并利用InfiniBand互连,实现高性能、无丢包传输、低延迟和可扩展性的网络。
通用算力网络主要处理通用型应用流量,为HPC网络提供必要的算力资源,如深度学习平台和其他软件。它们提供灵活的计算环境,能够适应各种不同的工作负载和应用,除了HPC的数据密集型计算任务,飞速(FS)通用算力网络通常由10/25/100/400/800G千兆以太网连接组成。
管理网
管理网主要部署服务管理系统和运营支持组件,以高效分配工作负载和分发资源,确保高性能和资源利用。
在HPC网络架构中,管理网可以分为带外管理网络和带内管理网络。带外管理网络可以托管数据中心中多种终端类型的管理端口访问,并监控和管理集群中物理设备的状态,实现统一运维和远程维护。带内管理网络提供与业务/办公网络的互联网接口,为数据中心提供互联网访问。
存储网
在HPC数据中心中,存储网利用高速、高带宽的互联存储系统,实现HPC海量数据采集存储。飞速(FS)存储网络架构包括存储服务器、存储设备和存储管理软件等组件。在HPC数据中心中,存储设备通常具有高速和高容量的特点,以满足庞大数据集的存储需求。同时,为了确保快速高效的数据传输,部署高速网络基础设施(包括交换机和光模块)非常重要。存储管理软件在监控和控制存储系统方面发挥着关键作用,包括数据管理、存储资源管理、数据备份、恢复和数据安全等功能。
在飞速(FS)HPC网络架构中,对其存储网及基础设施进行升级,实现高吞吐量和低延迟,确保成本效益和可靠的数据存储。
飞速(FS)HPC网络的优势
飞速(FS)HPC网络架构通过不同网络结构相互协作,构建无丢包、高性能和可扩展的网络。该网络可以高效地在多个互联的算力资源之间分配工作负载,使企业能够快速扩展大规模的多节点训练工作负载,提高行业竞争力。以下是飞速(FS)HPC数据中心网络的特点,使其能够满足各种HPC工作负载和扩展需求。
-
并行计算 - 飞速(FS)HPC网络利用并行处理技术,可同时执行多个工作负载,并在毫秒内处理完成。
-
大规模 - 飞速(FS)HPC网络包含多个计算引擎(如GPU和CPU)和各种不同速率的网络连接基础设施。
-
高带宽 - 高带宽流量需要在服务器之间进行有效流动,以使应用程序能够有效运行。在飞速(FS)HPC网络部署中,HPC应用的接口速率可达400G。
-
低延迟 - HPC工作负载的完成时间是影响用户体验的关键因素。因此,飞速(FS)HPC网络通常采用低延迟的网络技术,如InfiniBand和RDMA。
-
无丢包 - 飞速(FS)HPC网络可减少数据包丢失,实现高效数据传输,以保持数据完整性和优化性能。
-
统一管理 - 大规模的HPC网络由众多的网络基础设施组成。飞速(FS)HPC网络采用统一管理平台进行配置、监控和管理,简化操作并增强系统安全性。
飞速(FS)InfiniBand解决方案为HPC工作负载构建高效网络
飞速(FS)推出高性能计算(HPC)解决方案,利用高速、低延迟的InfiniBand技术,飞速(FS)H100 InfiniBand解决方案帮助企业优化HPC工作负载,简化HPC业务流程,并促进HPC在各行业的智能应用。
NVIDIA® InfiniBand解决方案高速、低延迟、可扩展,专为超级计算机、高性能计算和云数据中心量身定制,成为HPC网络的首选。作为英伟达(NVIDIA)合作伙伴,飞速(FS)提供全系列NVIDIA® InfiniBand,成为HPC领域的可靠解决方案提供商。
飞速(FS)提供速率高达800G的InfiniBand光模块和线缆,构建HPC InfiniBand网络,提升网络性能,确保网络运行的连续性与高效性。
InfiniBand光模块
飞速(FS)推出40G/100G/400G/800G InfiniBand光模块,可提升计算和存储基础设施的高效互连,实现灵活拓扑结构构建。
产品型号 | 产品描述 | 产品优势 |
---|---|---|
OSFP-SR8-800G | 英伟达(NVIDIA) InfiniBand MMA4Z00-NS兼容800G SR8 OSFP多模光模块 PAM4 2 x SR4850nm 50m DOM 双MPO-12/APC NDR 平顶,用于QM9790/9700交换机 | * 符合InfiniBand NDR端到端系统要求 * 内置 Broadcom 7nm DSP芯片, 最大功耗15W * 顶部带散热片OSFP光模块适用于Quantum-2交换机 * 支持800G交换机之间/800G到2个400G ConnectX-7网卡的链路连接 |
OSFP-SR4-400G-FL | 英伟达(NVIDIA) InfiniBand MMA4Z00-NS400兼容400G SR4 OSFP多模光模块 PAM4 850nm 50m DOM MPO-12/APC NDR, 平顶 | * 符合InfiniBand NDR端到端系统要求 * 内置Broadcom 7nm DSP, 最大功耗9W * 平顶式OSFP光模块适用于ConnectX-7网卡 * 支持800G到2个400G网卡的链路连接 |
QSFP-FR4-200G | 英伟达(NVIDIA) InfiniBand MMS1W50-HM兼容200G FR4 QSFP56单模光模块 1310nm 2km DOM 双工LC HDR | * 符合InfiniBand HDR端到端系统的要求 * 最大功耗6.5W * 支持200G交换机之间的链路连接 * 4个50G-PAM4电信号转换为4个50G-PAM4光信号复用 |
QSFP-SR4-100G | 英伟达(NVIDIA) InfiniBand MMA1B00-E100兼容100G SR4 QSFP28多模光模块 850nm 100m DOM MPO-12/UPC EDR | * 符合InfiniBand EDR端到端系统要求 * 内置Macom芯片, 最大功耗2.5W * 支持100G交换机之间/交换机与网卡的链路连接 * 将4个25G-NRZ电信号转换为4个25G-NRZ光信号并行传输 |
QSFP-SR4-40G | 英伟达(NVIDIA) InfiniBand MC2210411-SR4E兼容40G SR4 QSFP+多模光模块 850nm 150m DOM MPO-12/UPC FDR10 | * 符合InfiniBand FDR10端到端系统要求 * 内置Macom芯片, 最大功耗1.5W * 支持40G交换机之间/交换机与网卡的链路连接 * 将4个10G-NRZ电信号转换为4个10G-NRZ光信号并行传输 |
InfiniBand线缆
飞速(FS)推出的InfiniBand 线缆满足迈络思(Mellanox)/英伟达(NVIDIA)技术要求,可与 迈络思(Mellanox)/英伟达(NVIDIA)交换机及网卡全面适配,在超级计算机和超大规模系统中提供出色的传输效能。
产品型号 | 产品描述 | 产品优势 |
---|---|---|
OSFP-800G-PC005 | 0.5m (2ft) 英伟达(NVIDIA) InfiniBand MCP4Y10-N00A兼容 800G NDR OSFP平顶无源直连铜缆,用于QM9790/9700交换机 | * 符合InfiniBand NDR端到端系统要求 * 低延迟、低插损、低串扰、高速互连 * 8x 100G-PAM4到8x 100G-PAM4 * 全方位检验,与英伟达(NVIDIA) QM9700/9790设备全面适配 |
OSFP-400G-2QPC01 | 1m (3ft) 英伟达(NVIDIA) InfiniBand MCP7Y60-H01兼容400G OSFP到QSFP56 2x200G无源直连分支高速线缆 | * 符合InfiniBand NDR端到端系统要求 * 低延迟、低插损、低串扰、高速互连 * 2个4x50G-PAM4到双4x50G-PAM4 * 全方位检验,与英伟达(NVIDIA) QM9700/9790设备全面适配 |
QSFP-200G-PC005 | 0.5m (2ft) 英伟达(NVIDIA) InfiniBand MCP1650-H005Eyy兼容 QSFP56 200G无源直连高速线缆 | * 符合InfiniBand HDR端到端系统要求 * 低延迟、低插损、低串扰、高速互连 * 4x 50G-PAM4到4x 50G-PAM4 * 全方位检验,与英伟达(NVIDIA) QM8700设备全面适配 |
QSFP-100G-AO01 | 1m (3ft) 英伟达(NVIDIA) InfiniBand MFA1A00-E001兼容100G QSFP28有源光缆 | * 符合InfiniBand EDR端到端系统要求 * 低延迟、低插损、低串扰、高速互连 * 4x 25G-NRZ到4x 25G-NRZ * 全方位检验,与英伟达(NVIDIA) SB8700 设备全面适配 |
QSFP-40G-PC01 | 1m (3ft) 英伟达(NVIDIA) InfiniBand MC2206130-001兼容40G QSFP+直连高速线缆 | * 符合InfiniBand FDR10端到端系统要求 * 低延迟、低插损、低串扰、高速互连 * 4x 10G-NRZ到4x 10G-NRZ * 全方位检验,与英伟达(NVIDIA) SB7800 设备全面适配 |
总结
随着HPC数据中心网络的不断扩大,飞速(FS)成为全球HPC解决方案提供商,凭借覆盖200+国家的7个全球本地仓库和敏捷的供应链系统优势,可以实现产品快速交付,缩短客户项目周期。飞速(FS)为HPC数据中心网络架构的不同分区量身定制解决方案,帮助客户有效管理项目成本。
随着HPC领域的不断发展,飞速(FS)持续创新HPC解决方案,并加速高性能计算在各行业的广泛应用。