Ceph入门到精通-OSD waring 设置建议

OSD

以下检查表明 OSD 节点存在问题。

警告

1

在 /var/lib/ceph/osd 中找到的多个ceph_fsid值。

这可能意味着您正在托管许多集群的 OSD 此节点或某些 OSD 配置错误以加入 您期望的集群。

2

设置可能会导致数据丢失,因为如果 未达到最小值,Ceph 将不会确认对客户端的写入。osd pool default min size = 1

3

必须满足正常运行群集的默认值 3 个 OSD 节点。如果配置为其他号码,则该设置将采用 优先。OSD 节点数通过加 和 + 1 来计算。默认情况下, 这加了 3。ceph.conf``osd_pool_default_size``osd_pool_default_min_size

4

如果比率已从其默认值修改,则会发出警告,指出 任何发散的比率。在默认值下观察到的比率为:

  • backfillfull_ratio: 0.9
  • nearfull_ratio: 0.85
  • full_ratio: 0.95

OSD --- ceph-medic 0.0.1 文档

相关推荐
Brandon汐6 天前
从0开始搭建一主两节点k8s集群对接Ceph集群
ceph·容器·kubernetes
泡沫·9 天前
CEPH的基本认识
ceph
2301_7679026410 天前
ceph分布式存储(三)
分布式·ceph
2301_7679026411 天前
ceph分布式存储(一)
分布式·ceph
2301_7679026411 天前
ceph分布式存储(二)
分布式·ceph
FJW02081413 天前
cephadm部署ceph集群以及k8s对接
ceph·容器·kubernetes
韭菜张师傅14 天前
Ceph RBD 命令详解
ceph
韭菜张师傅15 天前
Ceph FS 命令详解
ceph
韭菜张师傅15 天前
Ceph MDS 命令详解
网络·ceph
lpruoyu15 天前
【云原生】Kubernetes平台存储系统搭建_CRI、CNI、CSI
ceph·云原生·容器·kubernetes