A3超级计算机虚拟机,为大型语言模型LLM和AIGC提供强大算力支持

热门大语言模型项目地址:www.suanjiayun.com/mirrorDetails?id=66ac7d478099315577961758

近几个月来,我们目睹了大型语言模型(LLMs)和生成式人工智能强势闯入我们的视野,显然,这些模型在训练和运行时需要耗费大量的计算能力。认识到这一点,谷歌云在谷歌I/O大会上宣布推出一款全新的A3超级计算机虚拟机。

A3是专门为满足这些对资源需求极高的应用场景的大量需求而打造的。 该公司在一份公告中写道:"A3 GPU虚拟机是专门为当今的机器学习工作负载提供最高性能的训练而打造的,配备了现代CPU、改进的主机内存、下一代英伟达GPU以及重大的网络升级。" 具体而言,该公司为这些机器配备了英伟达的H100 GPU,并与一个专门的数据中心相结合,从而获得了具有高吞吐量和低延迟的强大计算能力,而且据他们所说,其价格相较于通常购买此类配置所需的费用更为合理。

其具体配置参数如下,它由8块英伟达H100 GPU、第四代英特尔至强可扩展处理器、2TB的主机内存以及通过NVSwitch和NVLink 4.0实现的8块GPU之间3.6 TB的双向带宽提供动力,NVSwitch和NVLink 4.0是英伟达的两项技术,旨在帮助像本产品中的这些多块GPU之间实现吞吐量的最大化。 这些机器可提供高达26exaFLOP(每秒百亿亿次浮点运算)的算力,这将有助于缩短训练更大规模机器学习模型所需的时间并降低相关成本。此外,这些虚拟机上的工作负载在谷歌专门的朱庇特数据中心网络架构中运行,该公司将其描述为"26000个高度互联的GPU"。这使得"可按需调整拓扑结构的全带宽可重构光链路"成为可能。

该公司表示,这种方式也应有助于降低运行这些工作负载的成本。 其目的是为客户提供强大的算力,以训练要求更高的工作负载,无论是涉及复杂的机器学习模型还是运行生成式人工智能应用的大型语言模型,并且是以一种更具成本效益的方式来实现。

谷歌将通过以下几种方式提供A3:客户可以自行运行它,或者如果他们愿意,也可以选择托管服务,由谷歌为他们承担大部分繁重的工作。自行运行的方式是在谷歌Kubernetes引擎(GKE)和谷歌计算引擎(GCE)上运行A3虚拟机,而托管服务则是在Vertex AI(该公司的托管机器学习平台)上运行A3虚拟机。 虽然新的A3虚拟机在谷歌I/O大会上宣布推出,但目前只能通过注册预览等候名单来获取使用资格。

热门模型开源项目地址:应用社区 算家云

相关推荐
搞笑的秀儿10 分钟前
信息新技术
大数据·人工智能·物联网·云计算·区块链
阿里云大数据AI技术28 分钟前
OpenSearch 视频 RAG 实践
数据库·人工智能·llm
XMAIPC_Robot40 分钟前
基于ARM+FPGA的光栅尺精密位移加速度测试解决方案
arm开发·人工智能·fpga开发·自动化·边缘计算
加油吧zkf1 小时前
YOLO目标检测数据集类别:分类与应用
人工智能·计算机视觉·目标跟踪
Blossom.1181 小时前
机器学习在智能制造业中的应用:质量检测与设备故障预测
人工智能·深度学习·神经网络·机器学习·机器人·tensorflow·sklearn
天天扭码1 小时前
AI时代,前端如何处理大模型返回的多模态数据?
前端·人工智能·面试
牛奶咖啡131 小时前
Linux系统的常用操作命令——文件远程传输、文件编辑、软件安装的四种方式
运维·服务器·软件安装·linux云计算·scp文件远程传输·vi文件编辑·设置yum的阿里云源
weixin_437398211 小时前
转Go学习笔记(2)进阶
服务器·笔记·后端·学习·架构·golang
难受啊马飞2.01 小时前
如何判断 AI 将优先自动化哪些任务?
运维·人工智能·ai·语言模型·程序员·大模型·大模型学习
顺丰同城前端技术团队1 小时前
掌握未来:构建专属领域的大模型与私有知识库——从部署到微调的全面指南
人工智能·deepseek