Ceph基础原理分享

1、Ceph存储架构

2、Radosgw层

2.1 Bucket & Object

3、Rados层

3.1 重要成员

3.2 Pool & Object

3.3 Object 对象寻址

3.4 PG PGP

3.5 Crush Map

4、RadosgwObject VS RadosObject

  1. Ceph调优配置

a.PG和PGP分配 参考https://ceph.com/pgcalc/

b.建议取消分片功能

rgw_dynamic_resharding = false

注:目前开源社区功能不稳定,建议提前预估数据量,对bucket进行手动分片

c.给指定Pool设置SSD

ceph osd crush set-device-class ssd osd.0

ceph osd crush rule create-replicated rule-ssd default host ssd

ceph osd pool create default.rgw.buckets.index 4 4 rule-ssd

d.Radosgw GC参数配置调优

rgw_gc_max_objs是控制每次GC任务可处理的最大对象数,高速存储设备可以适当扩大,当底层存储设备比较慢并且负载较高的时候,可适当缩小。

rgw_gc_processor_max_time是控制每次GC任务最多能够执行的时长,高速存储设备可以适当缩小,当底层存储设备比较慢并且负载较高的时候,可适当调大。

rgw_gc_obj_min_wait 是控制删除数据以后多久以后开始真正的底层数据回收,默认是2小时,如果线上对空间资源利用率比较敏感,可以适当缩短。

rgw_gc_processor_period 是控制多久时长以后GCworker开始下一轮的GC操作,如果单次GC需要操作的列表条目数较少,可以适当缩短这个参数。

相关推荐
wniuniu_1 天前
ceph中修改镜像大小
网络·ceph
金海境科技1 天前
【服务器数据恢复】H3C华三Ceph分布式存储文件丢失数据恢复案例
服务器·经验分享·分布式·ceph
menggb071 天前
通过 S3 接口删除 Ceph RGW 对象后,ceph df 使用率不立即减少的原因详解
ceph
wniuniu_1 天前
ceph中的crush map
java·运维·ceph
wniuniu_1 天前
ceph的ceph df detail中的max avail
ceph
金海境科技2 天前
【服务器数据恢复】数据中心私有云Ceph分布式集群文件丢失数据恢复案例
服务器·经验分享·分布式·ceph
wniuniu_4 天前
ceph中librbd模式下的qemu+librbd
ceph
wniuniu_4 天前
一些问题ceph
ceph
wniuniu_4 天前
ceph内核模式 和 librbd 模式
运维·服务器·ceph