AI训练存储系统的架构选型演变:对象存储为后端的文件系统概论

存储系统按照抽象级别分类,分为三种:文件存储、对象存储、块存储。此处我们不讨论块存储,只讨论文件存储与对象存储。

文件存储是我们在日常生活中最熟悉的存储方式。它将数据组织成树状结构(目录/文件夹)。每个文件都位于特定的路径中,拥有文件名、大小、创建日期等有限的元数据。 典型的代表有NTFS、ext4、xfs、NTFS等。 访问协议有NFS、SMB/CIFS、POSIX接口。 文件存储的优势在于遍历目录速度快、支持随机写操作,POSIX接口使用广泛,无需客户端进行开发适配。

而对象存储是一种扁平化的存储架构。数据不再以层级结构存储,而是被视为一个"对象",放到一个"桶"中进行管理。每个对象包含数据、元数据和全局唯一的key来构成。 典型的代表有Amazon S3, Google Cloud Storage, Tencent Cloud Object Storage, Ali OSS, ceph radosgw等。 访问现已为RESTful API(基于HTTP/HTTPS)。 对象存储的优势在于无限可扩展性、低成本、高可用性与持久性,便于网络访问。因此一般用于镜像仓库的存储端、海量文件的备份归档等。

AI训练存储选型的演进路线

第一阶段:单机直连时代

早期的深度学习数据集较小,模型训练通常在单台服务器或单张GPU卡上完成。此时直接将数据存储在训练机器的本地NVMe SSD/HDD上。

其优势在于IO延迟最低,吞吐量极高,也就是"数据离计算最近"。缺点也很明显:

数据孤岛:多台机器无法共享数据,数据拷贝(scp/rsync)及其耗时。

容量受限:本地磁盘容量有限。

数据安全:数据没有冗余,机器或盘挂了,数据可能就丢了。

第二阶段:传统共享存储时代(NFS/NAS)

到后来开始团队协作,训练规模也变大,则需要多机多卡分布式训练,同时出于使用方便,大家希望像操作本地文件一样操作共享数据。

此时开始以NFS(Network File System)挂载传统的NAS存储阵列来使用。

其优势在于POSIX兼容,不需要修改PyTorch/TensorFlow代码,直接读写文件路径,共享也十分便利,所有节点看到的目录结构一致。缺点则在于元数据性能瓶颈,NFS在处理海量小文件的open,lookup操作时,元数据服务器可能被瞬间打死。另外,所有计算节点抢占同一个NAS的出口带宽,也可能导致GPU等待IO,造成GPU无法维持高使用率。

第三阶段:大数据融合时代(HDFS)

Google等大厂入局,Hadoop诞生。数据存储在HDFS上,通过一些软件层面的优化将大量小图片打包成大文件,变成"顺序读",训练代码通过API读取。这样就能够极大地利用HDFS的设计初衷:吞吐量极高、大规模顺序读,同时还能利用现成的大数据基础设施。但同样有缺点:

生态割裂:PyTorch对HDFS支持不如TensorFlow友好。

随机访问差:对于需要频繁Shuffle(随机打乱)的数据集,HDFS性能不佳。

Java开销:HDFS客户端通常较重,占用CPU资源

第四阶段:高性能并行文件系统(HPC/Parallel FS)

此时的AI领域进入超算时代,模型越来越大,对低延迟和超高带宽的要求极高。

此时的方案是借用超算(HPC)领域的Lustre或GPFS(IMB Spectrum Scale)。优点在于专为高并发设计,可以轻松喂饱数千张GPU,支持POSIX,且元数据性能极强。缺点则在于贵,运维难(Lustre等系统内合级调优十分困难,一旦集群崩溃,恢复十分困难),扩容困难,很难像云存储那样弹性伸缩。

第五阶段:存算分离与分层架构(Object Storage + Cache)

当前这个时代即云原生时代,数据集达到PB级别,成本成为了核心考量。对象存储最便宜且容量无限,但性能(尤其是元数据)不够好。 此时针对元数据有了若干解决方案:

方案一: 原生对象存储+格式优化

这种方案将数据存储在S3,客户端使用S3 SDK进行对接,以对象存储的接口访问文件。同时降低小文件数量,对小文件进行打包。此处的缺点则在于丧失了POSIX标准。

方案二:对象存储+高性能文件网关

这是目前的最终形态,也是本文将要讲的形态。

其底层数据存储在对象存储中(S3、COS、OSS、ceph),在用户和对象存储层中加一个中间层,作为文件系统层,负责将文件系统与对象存储的操作进行翻译转换,从而实现POSIX兼容。而最重要的是,在GPU训练节点的本地NVMe SSD上建立热数据缓存,以提升IO能力。

此时第一次读取时从对象存储拉取数据,过程稍慢,而后续的读取则可以直接走本地缓存,极快。而一些实现(如JuiceFS)将元数据独立放在Redis/TiKV中,可以完美地解决对象存储list对象的性能问题。据最新的企业版JuiceFS文档说明,当前单机文件系统已经可以支持5000亿级别文件!

本文将以"对象存储+高性能文件网关"的技术路线的现状进行分析,描述业界若干实现的设计思想,抛砖引玉。

Object Storage + Cache的一般性设计原则

本小节介绍Object Storage + Cache的一般性设计原则。在介绍之前,首先需要理清楚文件系统与对象存储的区别是什么,文件系统对接对象存储需要做哪些工作,之后才考虑性能的优化与可靠性的优化。

文件系统与对象存储的异同点分析

文件系统的核心特征如下所示:

层级结构:数据以目录树的形式组织,文件包含在目录中,目录又包含在父目录中。

寻址方式:通过路径名来访问。

数据可变性:支持原地修改。应用程序可以打开一个文件,seek到特定偏移量,然后只修改文件中间的几个字节,而无需重写整个文件。

操作接口:基于系统调用,如open(), read(), write(), seek(), close(), flock()等。

元数据:如权限、创建时间、大小与文件数据紧密绑定,通常存储在inode中。

强一致性:在单机文件系统中,写入数据后,随后的读取操作立即能看到新数据。

原子性:许多元数据操作(如rename)通常是原子的。

而对象存储的核心特征如下所示:

扁平结构:数据存储在"桶"中,没有真正的文件夹或目录层级。虽然看起来像目录,但这只是对象键名(key)中的前缀字符串。

寻址方式:通过key访问,需要结合对象存储访问域名/IP来访问。

数据不可变性:对象通常被视为原子单元。无法修改对象的中间部分。如果要修改部分数据,必须新上传一个对象来覆盖旧对象(Read-Modify-Write)。

操作接口:基于RESTful API(HTTP),主要操作是PUT(上传/覆盖),GET(下载),DELETE(删除),HEAD(获取元数据),不支持seek或部分写入。

一致性模型:不同的对象存储实现下有不同的一致性模型。可能是强一致性(如ceph),也可能是最终一致性。

异同点如下表所示:

将对象存储(S3 协议等)挂载为本地文件系统(FUSE)是业界的常见需求,目的是为了让不支持 S3 API 的传统应用也能利用对象存储的低成本和无限容量。

由于我们在上一部分分析了"文件系统"与"对象存储"存在巨大的语义鸿沟,因此这些 FUSE 工具的核心设计难点都在于:如何用笨重的 HTTP 对象接口去模拟灵活的 POSIX 文件接口。

业界主流有两个设计流派

  1. 直接映射型(1:1 Mapping):文件对应对象,元数据存放在对象头中。
  2. 元数据分离型(Metadata Separation):数据存在对象存储,元数据存放在独立的数据库中。

对象存储的 FUSE 并不是完美的。直接映射型保留了数据的通用性但牺牲了性能和语义;元数据分离型重建了文件系统语义和性能,但把对象存储降级为了纯粹的"硬盘",牺牲了数据的通用访问性。

设计优劣势分析

1. 直接映射型 (S3FS, Goofys, Rclone)

设计优点:

通用性强: 写入的数据就是标准的 S3 对象。你用 S3FS 传上去的图片,可以直接用浏览器通过 S3 URL 打开,也可以被其他不使用 FUSE 的程序处理。

部署简单: 无需额外部署数据库,只要有 S3 账号就能用。

无状态: 客户端挂了重启即可,不依赖外部元数据服务。

设计劣势:

元数据性能灾难: S3 处理元数据非常慢。执行 ls -l 可能会很慢,还可能造成集群slow op。

重命名原子性缺失: 在 S3 中没有"重命名目录"的操作。重命名一个包含 1000 个文件的目录,S3FS 需要执行 1000 次 Copy + 1000 次 Delete。这不仅慢,而且如果在中间崩溃,目录会断裂(一半在旧名,一半在新名)。

无法支持随机写/追加写: 修改 1GB 文件的最后 1 个字节,S3FS 必须下载 1GB -> 修改 -> 上传 1GB。效率极低。

2. 元数据分离型 (JuiceFS)

设计优点:

极致性能: 元数据操作(ls, getattr, rename)都在 Redis/SQL 中完成,延迟是微秒级,与本地文件系统无异。

完全 POSIX 兼容: 通过将文件切块(Chunking),实现了对象存储本身不支持的"随机写"和"追加写"(只用重传修改过的那个 Block)。

原子性保障: 重命名目录只是数据库里的一个事务,瞬间完成且原子。

缓存能力: 通常带有强大的本地缓存机制(利用本地磁盘缓存 S3 的数据块)。

设计劣势:

数据不透明(黑盒): 你在 S3 Bucket 里看到的不再是 photo.jpg,而是 chunks/1/123_456 这样的分块数据。脱离了 JuiceFS 客户端,你无法直接识别和使用 S3 里的数据。

运维复杂度: 需要额外部署和维护一个高可用的元数据引擎(如 Redis 集群或 RDS)。

成本: 虽然 S3 请求少了,但增加了数据库的成本。

后续文章将详细以s3fs-fuse为例,解释"直接映射型"的设计思想,也会以JuiceFS为例,解释"元数据分离型"的设计思想。


相关推荐
IT机器猫2 小时前
SpringAI基础一
人工智能·prompt·springaialibaba·advisors
陌陌6232 小时前
10 天 AI 协作开发实录:一份可复用的 AI 开发流程样例
人工智能·ai开发·vibecoding
张小凡vip2 小时前
数据挖掘(六)--conda安装与使用指南:Miniconda篇
人工智能·数据挖掘·conda
TechubNews2 小时前
BEATOZ区块链专业企业与韩国头部旅游集团MODETOUR从签署MOU迈向网络验证节点合作
大数据·人工智能·区块链
杜子不疼.3 小时前
进程控制(四):自主Shell命令行解释器
linux·c语言·人工智能
Allen_LVyingbo3 小时前
多智能体协作驱动的多模态医疗大模型系统:RAG–KAG双路径知识增强与架构的设计与验证(上)
支持向量机·架构·知识图谱·健康医疗·gpu算力·迭代加深
编码小哥10 小时前
OpenCV Haar级联分类器:人脸检测入门
人工智能·计算机视觉·目标跟踪
程序员:钧念10 小时前
深度学习与强化学习的区别
人工智能·python·深度学习·算法·transformer·rag
数据与后端架构提升之路11 小时前
TeleTron 源码揭秘:如何用适配器模式“无缝魔改” Megatron-Core?
人工智能·python·适配器模式