浪潮信息元脑R1服务器重塑大模型推理新标准

浪潮信息近日正式发布元脑R1推理服务器,通过系统级创新与软硬协同优化,成功实现单机部署DeepSeek 671B全参数大模型。作为AI基础设施领域的领军者,浪潮信息此次突破性技术显著降低了企业部署千亿参数模型的显存门槛,在FP8精度下仅需单台服务器即可支撑800GB显存需求,助力客户以更低成本探索大模型智能涌现。

当前,DeepSeek开源多版本模型,助力各行业加速应用大模型技术推动业务升级转型。其中,DeepSeek R1 671B模型作为全参数基础大模型,相比蒸馏模型具有更强的泛化能力、更高的准确性和更好的上下文理解能力,但也对系统显存容量、显存带宽、互连带宽和延迟提出了更高要求:在FP8精度下至少需要约800GB显存承载,FP16/BF16精度下需要1.4TB以上的显存空间;此外,DeepSeek R1是典型的长思维链模型,具有短输入、长输出的应用特点,推理解码阶段依赖更高的显存带宽和极低的通信延迟。面向671B模型的算力特征和系统需求,元脑R1推理服务器提供领先的显存容量、显存带宽和通信速度,能够助力企业高效完成DeepSeek全参数模型的本地化部署。

元脑R1推理服务器NF5688G7是领先的高算效AI计算平台,原生搭载FP8计算引擎,针对DeepSeek R1 671B模型部署速度快且无精度损失。在显存方面,提供1128GB HBM3e高速显存,满足671B模型 FP8精度下不低于800GB显存容量的需求,单机支持全量模型推理情况下,仍保留充足的KV缓存空间。显存带宽高达4.8TB/s,完美契合DeepSeek R1模型"短输入长输出、显存带宽敏感"的技术特征,在推理解码阶段可实现极致加速。在通信方面,GPU P2P带宽达900GB/s,保障单机部署张量并行最佳通讯性能,基于最新推理框架单机可支持20-30用户并发。同时,单台NF5688G7配备3200Gbps无损扩展网络,可根据用户业务需求增长实现敏捷扩展,提供成熟的R1服务器集群Turnkey解决方案。

元脑R1推理服务器NF5868G8是专为大推理模型(Large Reasoning Model)创新设计的高吞吐推理服务器,业界首次实现单机支持16张标准PCIe双宽卡,提供高达1536GB显存容量,支持在FP16/BF16精度下单机部署DeepSeek 671B模型。创新研发基于PCIe Fabric的16卡全互连拓扑,任意两卡P2P通信带宽可达128GB/s,降低通信延迟超60%。通过软硬协同优化,相较传统2机8卡PCIe机型,NF5868G8可将DeepSeek 671B模型推理性能提升近40%,目前已支持多元AI加速卡选配。

作为全球领先的IT基础设施全栈供应商,浪潮信息持续深耕智算领域创新,其打造的元脑生态已形成覆盖计算平台、资源平台、算法平台的完整产品矩阵。通过新一代以系统为核心的计算架构,浪潮信息不仅推出支持16卡全互连的NF5868G8推理服务器,更构建了开放多元的元脑智算解决方案体系。在"AI+行业"深度融合的大背景下,浪潮信息正携手生态伙伴加速人工智能技术的规模化落地,持续推动行业技术革新与生态共建。

相关推荐
Swaggy T13 分钟前
自动驾驶轨迹规划算法——Apollo EM Planner
人工智能·算法·自动驾驶
gptplusplus17 分钟前
超越“调参”:从系统架构师视角,重构 AI 智能体的设计范式
人工智能·重构·系统架构
小白的代码日记25 分钟前
Nginx学习与安装
运维·nginx
jndingxin25 分钟前
OpenCV图像注册模块
人工智能·opencv·计算机视觉
数据智研27 分钟前
【数据分享】上市公司创新韧性数据(2007-2023)
大数据·人工智能
荼蘼31 分钟前
OpenCv(三)——图像平滑处理
人工智能·opencv·计算机视觉
martian66533 分钟前
AI大模型实践项目:医学影像分类器(肺结节检测)
人工智能·ai大模型·医学影像·影像大模型·肺结节
Monkey PilotX42 分钟前
机器人“ChatGPT 时刻”倒计时
人工智能·机器学习·计算机视觉·自动驾驶
luoganttcc44 分钟前
L4 级别自动驾驶 硬件架构设计
人工智能·自动驾驶·硬件架构
ejinxian1 小时前
AI Agents 2025年十大战略科技趋势
人工智能·ai·ai agents