Ceph基础原理分享

1、Ceph存储架构

2、Radosgw层

2.1 Bucket & Object

3、Rados层

3.1 重要成员

3.2 Pool & Object

3.3 Object 对象寻址

3.4 PG PGP

3.5 Crush Map

4、RadosgwObject VS RadosObject

  1. Ceph调优配置

a.PG和PGP分配 参考https://ceph.com/pgcalc/

b.建议取消分片功能

rgw_dynamic_resharding = false

注:目前开源社区功能不稳定,建议提前预估数据量,对bucket进行手动分片

c.给指定Pool设置SSD

ceph osd crush set-device-class ssd osd.0

ceph osd crush rule create-replicated rule-ssd default host ssd

ceph osd pool create default.rgw.buckets.index 4 4 rule-ssd

d.Radosgw GC参数配置调优

rgw_gc_max_objs是控制每次GC任务可处理的最大对象数,高速存储设备可以适当扩大,当底层存储设备比较慢并且负载较高的时候,可适当缩小。

rgw_gc_processor_max_time是控制每次GC任务最多能够执行的时长,高速存储设备可以适当缩小,当底层存储设备比较慢并且负载较高的时候,可适当调大。

rgw_gc_obj_min_wait 是控制删除数据以后多久以后开始真正的底层数据回收,默认是2小时,如果线上对空间资源利用率比较敏感,可以适当缩短。

rgw_gc_processor_period 是控制多久时长以后GCworker开始下一轮的GC操作,如果单次GC需要操作的列表条目数较少,可以适当缩短这个参数。

相关推荐
lisanmengmeng3 天前
cephadm 17.2.5安装部署 (二)
linux·运维·服务器·ceph
only_Klein3 天前
kubernetes集群下的分布式存储方案-ceph
ceph·kubernetes·分布式存储
苦逼IT运维3 天前
Helm 实战指南(四):生产环境 Helm 部署 CVAT 全记录:Ceph 存储、GPU 节点污点调度与 HTTPS 指南
ceph·网络协议·https
大新新大浩浩4 天前
ceph平台-未及时移除故障osd导致根目录100%问题的故障记录
ceph
北亚数据恢复5 天前
分布式数据恢复—Ceph+TiDB数据恢复报告
分布式·ceph·数据恢复·tidb·服务器数据恢复·北亚数据恢复·存储数据恢复
lisanmengmeng7 天前
添加ceph节点
linux·服务器·ceph
张小凡vip7 天前
Kubernetes---存储方案:Rook自动结合Ceph
ceph·容器·kubernetes
XSKY星辰天合9 天前
XSKY 赋能高端半导体制造:12 寸晶圆产线数据的高效管治实践
ai·分布式存储
wniuniu_10 天前
日志内容和cephadm
数据库·ceph
wniuniu_11 天前
ceph锁测试
ceph