CEPH的写入流程

1、客户端程序发起对文件的读写请求,ceph前端接口(RADOS Gateway)将文件切分成多个固定大小的对象(默认大小为4MB)

2、计算文件到对象的映射

(1) 计算OID为每个对象分配一个唯一的OID(Object ID),该OID由文件的inode number(INO)和object number(ONO)组成。INO是文件的唯一标识符,ONO是文件分割后的对象序号

3、根据HASH算法计算文件对应的Pool中的PG,

(1)一致性HASH客户端或CEPH前端使用一致性哈希算法将OID映射到一个PG上,一致性哈希算法可以帮助保持数据分布的均衡性,并且及时在集群变化时也能减少数据迁移

(2)映射计算:通过计算hash(oid)&mask来确定数据应该存储在哪个PG中,mask用来确定PG范围的一个数值

4、通过CRUSH算法将对象映射到PG中的OSD

(1)CRUSH算法:ceph使用CRUSH算法来决定数据应该存储在那个OSD上,CRUSH算法根据集群拓扑结构、权重等来选择OSD,CRUSH算法执行后会给出一组OSD列表,这些OSD负责存储PG中的数据,这些列表中的OSD分为主和备

5、主OSD将数据同步给备份OSD,并等待备份OSD返回确认

(1)数据复制:主OSD将数据复制到备OSD,并等待所有副本完成写入,当备OSD写入完成并向主OSD发送确认信息后,主OSD将知道数据已被持久化,当OSD收到所有备OSD的确认消息,就表明数据以存储成功,主OSD向客户端返回完成写入的消息

可能有些不足,欢迎大佬们来指正

相关推荐
一个行走的民2 天前
CEPH OSD心跳机制
ceph
一个行走的民2 天前
Ceph PG 状态详解与线上故障处理
网络·ceph
一个行走的民3 天前
Ceph MDS 状态机与 Monitor 中的状态流转分析
ceph
Virtual_human08067 天前
在VMware workstation上,部署3节点ceph测试,及加入openstack
ceph·云计算·openstack·osd·ceph集群
Brandon汐14 天前
从0开始搭建一主两节点k8s集群对接Ceph集群
ceph·容器·kubernetes
泡沫·18 天前
CEPH的基本认识
ceph
2301_7679026419 天前
ceph分布式存储(三)
分布式·ceph
2301_7679026420 天前
ceph分布式存储(一)
分布式·ceph
2301_7679026420 天前
ceph分布式存储(二)
分布式·ceph
FJW02081422 天前
cephadm部署ceph集群以及k8s对接
ceph·容器·kubernetes