ceph之rados设计原理与实现:crush算法

执行命令

shell 复制代码
ceph osd crush dump

可以查看当前集群crush信息

其中会输出可调crush参数"tunables"、规定的若干规则"rules"、以及crush map。

这些规则"rules"可以与存储池绑定,针对特定存储池执行自制的crush算法映射。

"crushmap"包含了数据中心、机架、主机、osd等整个拓扑结构,除了osd都是虚拟的,并且记录了每个osd的weight和reweight,weight和reweight直接影响了随机哈希算法结果,但是由于crush是随机的,所以调整weight、reweight并不能精确控制pg在osd上的分布。

"tunables"大多数参数都不建议调整,如果选不出足够的样本数,那么应该调大全局重试次数,但显然这会增加哈希计算时间。

以上针对crush可以的参数调整,都会导致pg在osd迁移已达到数据分布均衡,但是为了在线平衡不影响业务的性能,每次调整都应该先模拟测试效果,并且做到多次微调。

调整crush只有两个目标,一个是增加crush计算效率,另一个就是数据负载均衡。针对数据重平衡,ceph有reweight、weight-set、umap、balancer。balancer依赖前三种工具,计算osd空间利用率的方差构建评分系统,既可以针对整个集群也可以针对存储池独占的osd,实现自动的评估系统评分,然后决定什么时候调整以及调整多少合适,从而代替了人工实现了自动化。因为针对上述参数的调整都是需要人工干预,都是多次微调实际非常麻烦,并且实际生产环境ceph扩容或者故障导致的pg自动迁移非常频繁,每次pg迁移后之前的调整都付之东流,因此自动化调整应运而生。

相关推荐
斯普信专业组3 天前
Ceph集群OSD运维手册:基础操作与节点扩缩容实战
运维·ceph
时空无限1 个月前
CEPH OSD_SLOW_PING_TIME_FRONT/BACK 警告处理
ceph
云计算运维丁丁1 个月前
ceph集群架构阐述
ceph·架构
liuy52771 个月前
dmsetup 清理ceph osd残留磁盘分区
ceph
斯普信专业组1 个月前
ceph数据迁移数据迁移与bacula配置调整优化实战
前端·ceph·github
斯普信专业组1 个月前
Ceph异地数据同步之-RBD异地同步复制(下)
linux·服务器·ceph
小马爱打代码1 个月前
Kubernetes 中部署 Ceph,构建高可用分布式存储服务
分布式·ceph·kubernetes
斯普信专业组1 个月前
Ceph与Bacula运维实战:数据迁移与备份配置优化指南
运维·ceph·github
野猪佩挤2 个月前
Ceph集群2025(Squid版)导出高可用NFS集群(上集)
java·服务器·ceph
不死鸟.亚历山大.狼崽子2 个月前
Ceph(1):分布式存储技术简介
ceph