Ceph入门到精通-OSD waring 设置建议

OSD

以下检查表明 OSD 节点存在问题。

警告

1

在 /var/lib/ceph/osd 中找到的多个ceph_fsid值。

这可能意味着您正在托管许多集群的 OSD 此节点或某些 OSD 配置错误以加入 您期望的集群。

2

设置可能会导致数据丢失,因为如果 未达到最小值,Ceph 将不会确认对客户端的写入。osd pool default min size = 1

3

必须满足正常运行群集的默认值 3 个 OSD 节点。如果配置为其他号码,则该设置将采用 优先。OSD 节点数通过加 和 + 1 来计算。默认情况下, 这加了 3。ceph.conf``osd_pool_default_size``osd_pool_default_min_size

4

如果比率已从其默认值修改,则会发出警告,指出 任何发散的比率。在默认值下观察到的比率为:

  • backfillfull_ratio: 0.9
  • nearfull_ratio: 0.85
  • full_ratio: 0.95

OSD --- ceph-medic 0.0.1 文档

相关推荐
qq_312920113 天前
K8s存储类(StorageClass)设计与Ceph集成实战
ceph·容器·kubernetes
1990_super11 天前
虚拟机环境部署Ceph集群的详细指南
ceph
1990_super12 天前
Ceph对象池详解
ceph
1990_super13 天前
使用ceph-deploy安装和配置RADOS Gateway (RGW)并使用S3访问集群
ceph·gateway
野生技术架构师19 天前
分布式存储 Ceph 的演进经验 · SOSP 2019
分布式·ceph
mixboot20 天前
ceph 14.2.22 nautilus Balancer 数据平衡
ceph·balancer·数据平衡
斯普信专业组24 天前
k8s云原生rook-ceph pvc快照与恢复(下)
ceph·云原生·kubernetes
斯普信专业组24 天前
k8s云原生rook-ceph pvc快照与恢复(上)
ceph·云原生·kubernetes
斯普信专业组24 天前
Ceph、K8s、CSI、PVC、PV 深入详解
ceph·容器·kubernetes
mixboot1 个月前
Ceph OSD.419 故障分析
ceph·osd