服务器技术研究分析:存储从HBM到CXL

服务器变革:存储从HBM到CXL

****   

在《从云到端,AI产业的新范式(2024)》中揭示,传统服务器价格低至1万美金,而配备8张H100算力卡的DGX H100AI服务器价值高达40万美金(约300万人民币)。

从供应链角度出发,探讨存储、PCB,以及更上游的封测、制造环节的产业机遇。

AI三要素包括算力、互联和存储,从服务器供应链角度看,存储是AI时代变革重点。

随着处理器性能的飞跃,"内存墙"成为计算机瓶颈。处理器速度依照摩尔定律持续提升,但内存DRAM带宽未同步增长,导致访存延迟高,效率低下,严重限制了处理器性能。在AI和视觉等高带宽需求领域,内存性能的落后将导致算力下降达50%甚至90%,影响巨大。

HBM,突破"内存墙"的关键技术,以其3D堆栈工艺,提供卓越内存带宽与低能耗。HBM3E新品,带宽超1TB/s,I/O速率达8Gb/s,助力HPC、网络交换设备等,解决算力增长瓶颈。

Yole Group数据显示,2023年海力士以55%的营收独占HBM市场鳌头,紧随其后的是三星(41%)和美光(3%)。美光虽曾因HMC技术导致传输速度和延迟问题,但迅速调整策略,于2020年推出HBM2,并直接投入HBM3E研发,2023年7月成功发布24GB 8-HighHBM3E。

AI服务器需求核心在于更大带宽的存储,带来了存储技术路线变革:

MCR/MDIMM技术大幅提升内存带宽。AMD致力于推动JEDEC MRDIMM开放标准,英特尔联合SK hynix与瑞萨,开发类似MCR的多路合并阵列DIMM,共铸高性能内存未来。

MCR/MRDIMM技术完美契合AI服务器对内存带宽的严苛需求。它通过整合多个DRAM模块,创建伪多内存通道,并配备专用控制器,大幅提升数据传输效率。MCR/MRDIMM内存带宽理论上是DDR5的两倍,助力AI服务器性能飞跃。

澜起科技已于2022年完成MCR控制芯片(MRCD/MDB)研发。

美光虽在HBM市场起步较晚,却于2023年7月以HBM3E反超三星和SK海力士。未来,美光计划于2025年推出36GB 12-High HBM3E,2026年推出带宽超1.5TB/s的36GB 12-High HBM4,引领行业革新。

预计至2027年,美光将升级HBM4至48GB 16-High,2028年推出带宽超2TB/s的HBM4E。2023至2028年,美光年均推出一款HBM新品,彰显其在高速增长市场的坚定决心。

澜起科技引领行业,两大产品线实力非凡:涵盖内存接口、PCIe Retimer等高端互连芯片,及津逮CPU、混合安全内存模组等服务器平台产品。

新品序列2023年全面研发并送样,业绩增长双管齐下:DDR5芯片迭代增值,新品量产拓展成长空间。高性能产品线已推出Retimer、MRCD/MDB,并加速研发DDR5第四代RCD、第二代MRCD/MDB及PCIe 6.0 Retimer芯片。

聚辰股份,国产EEPROM领军企业,产品涵盖EEPROM、音圈马达驱动芯片、智能卡芯片及NOR Flash,广泛应用于手机、汽车电子、家电等领域。拓展应用新领域,与澜起科技合作,SPD EEPROM量产于2021年Q4,技术领先。

DDR5时代来临,SPD EEPROM需求激增。作为内存管理系统核心,串行检测集线器(SPD)适配LRDIMM、RDIMM等内存模组。随着DDR5市场渗透率上升,SPD EEPROM市场前景广阔。

-对此,您有什么看法见解?-

-欢迎在评论区留言探讨和分享。-

相关推荐
量子网络13 分钟前
debian 如何进入root
linux·服务器·debian
时光の尘16 分钟前
C语言菜鸟入门·关键字·float以及double的用法
运维·服务器·c语言·开发语言·stm32·单片机·c
我言秋日胜春朝★1 小时前
【Linux】进程地址空间
linux·运维·服务器
繁依Fanyi1 小时前
简易安卓句分器实现
java·服务器·开发语言·算法·eclipse
C-cat.1 小时前
Linux|环境变量
linux·运维·服务器
m51272 小时前
LinuxC语言
java·服务器·前端
运维-大白同学2 小时前
将django+vue项目发布部署到服务器
服务器·vue.js·django
烦躁的大鼻嘎2 小时前
【Linux】深入理解GCC/G++编译流程及库文件管理
linux·运维·服务器
乐大师2 小时前
Deepin登录后提示“解锁登陆密钥环里的密码不匹配”
运维·服务器