大模型训练算力利用率达60%,蚂蚁开源分布式训练扩展库ATorch

近日,蚂蚁集团宣布开源大模型分布式训练加速扩展库ATorch。ATorch可针对不同模型和硬件资源,实现深度学习自动资源动态优化和分布式训练稳定性提升,帮助提升深度学习的智能性。据了解,在大模型训练中,ATorch千亿模型千卡级别训练的算力利用率可达60%,相当于为跑车装上了强劲的引擎。

(图:ATorch致力于让大模型训练更高效、可复现)

随着生成式大模型的爆发,模型训练的数据集和参数规模成指数级增长,要带动如此庞然大物,并且满足模型的快速迭代,分布式训练就成为了解题之道。在大模型开发工作中,很多开发者和研究人员采用PyTorch和TensorFlow深度学习框架,来构建和训练模型。业内已开展多项工作,为PyTorch等深度学习框架装上更加适用于大模型训练的"工具包",本次蚂蚁开源的ATorch就是其中之一。

据了解,ATorch采用了分层的架构设计,功能清晰、设计全面,可为开发者提供极致精简的开发体验,以及领先的稳定性保障。主要包括统一分布式优化策略配置接口、自动分布式策略搜索、自动弹性容错、高效动态显存管理库、自研优化器加速收敛等核心功能。作为PyTorch框架的高性能扩展加速库,ATorch可实现最少化用户代码侵入,为千亿参数大模型千卡级训练提供易用的高性能方案。

近期在以开源模型为对象的大模型训练优化实践中,ATorch取得了优异的成绩。如,将清华大学开源的GLM-65b大模型千卡预训练算力利用率从28.8%提升至62%、Meta开发的LLama2-70b大模型预训练算力利用率从42%提升至60%、英国AI公司Stability AI 开发的多模态大模型Stable Diffusion训练算力利用率从21.8%提升至58.7%。此外,ATorch千卡训练稳定性表现优异,日均纯训练时长占比提升至95%,ckpt save耗时控制在1分钟,训练重启耗时最快5分钟,达到了行业领先水平。

目前,ATorch已集成到蚂蚁集团大模型训练开源产品DLRover中,这是蚂蚁集团基于云原生技术打造的智能分布式深度学习系统。ATorch的加入,将更大程度上帮助大模型开发能够专注于模型架构的设计,而无需处理工程方面的细节,让训练更高效、智能。

相关推荐
juniperhan2 小时前
Flink 系列第21篇:Flink SQL 函数与 UDF 全解读:类型推导、开发要点与 Module 扩展
java·大数据·数据仓库·分布式·sql·flink
勇气要爆发4 小时前
科技爱好者周刊(第 4 期):开源模型的“双响炮“:一周两款国产大模型开源
科技·开源
X.AI6667 小时前
小米 MiMo‑V2.5 正式开源,Orbit 百万亿 Token 激励计划开放申请,速来撸资源
开源
redreamSo7 小时前
让AI Agent自动接Issue、写代码、上线:我用200行代码搭了一个全自动开发流水线
人工智能·开源·github
sinovoip8 小时前
香蕉派开源社区联合进迭进空重磅打造: BPI‑SM10(K3-Com260) 和 K3 Pico‑ITX 计算机将于5月11日全球发货
人工智能·开源·risc-v
FIT2CLOUD飞致云8 小时前
飞致云开源社区月度动态报告(2026年4月)
开源·飞致云·月度报告·开源报告
胖虎喜欢静香9 小时前
从零到一快速实现 Mini DeepResearch
人工智能·python·开源
花间相见9 小时前
【大模型推理01】—— 初探VLLM:高性能LLM推理引擎,让开源模型跑起来更快更省
开源·vllm
redreamSo10 小时前
一个只有70行的文件,凭什么拿下GitHub 10万星?
人工智能·开源