ceph删除坏的磁盘

在Ceph集群中,查看和处理坏掉的磁盘主要涉及到以下几个步骤:检查磁盘状态、从集群中删除坏磁盘、最后是物理或逻辑地替换坏掉的磁盘。请注意,处理Ceph集群的操作需要谨慎执行,并确保在操作前你有足够的备份和恢复计划

1. 查看集群健康状况

开始之前,先检查Ceph集群的健康状况:

bash 复制代码
ceph health detail

2. 查看磁盘状态

使用ceph osd tree命令查看OSD(对象存储守护进程)的状态,找出状态为down的磁盘。

bash 复制代码
ceph osd tree

3. 标记OSD为out

如果确定OSD是坏的,需要先将OSD标记为out,这样Ceph会开始把该OSD上的数据迁移到其他OSD上:

bash 复制代码
ceph osd out osd.<osd-id>

其中<osd-id>是坏掉的磁盘对应的OSD编号。

4. 停止OSD服务

在物理服务器上停止OSD服务,这一步骤需要在OSD实际运行的服务器上执行

bash 复制代码
systemctl stop ceph-osd@<osd-id>

5. 从CRUSH map中删除OSD

CRUSH map决定了数据如何在OSD之间分布。在CRUSH map中移除坏掉的OSD

bash 复制代码
ceph osd crush remove osd.<osd-id>

6. 删除OSD的认证

删除OSD的CephX认证:

bash 复制代码
ceph auth del osd.<osd-id>

7. 从集群中删除OSD

最后,从集群中彻底删除OSD:

bash 复制代码
ceph osd rm osd.<osd-id>

8. 物理替换坏盘

在完成上述步骤后,你可以物理替换掉坏掉的磁盘。替换后,根据你的集群配置,需要手动添加新磁盘到Ceph集群中,并允许Ceph对新的OSD进行数据恢复和平衡操作

注意:

1.上述操作可能导致数据迁移,从而影响集群性能,建议在业务低峰期进行。

2.在执行操作前,请确保对你的Ceph版本和配置有足够的了解。

3.在添加新磁盘和扩展集群之前,请确保新磁盘与集群中的其他磁盘有相似的性能和容量,以维持集群的均衡。

4.执行命令前请确保你有适当的权限,可能需要sudo或作为root用户执行。

根据你的Ceph版本和配置,命令的具体参数可能会有所不同。建议在执行之前,查看官方文档或咨询Ceph社区获取最新和最准确的信息

相关推荐
1990_super6 天前
虚拟机环境部署Ceph集群的详细指南
ceph
1990_super7 天前
Ceph对象池详解
ceph
1990_super8 天前
使用ceph-deploy安装和配置RADOS Gateway (RGW)并使用S3访问集群
ceph·gateway
野生技术架构师14 天前
分布式存储 Ceph 的演进经验 · SOSP 2019
分布式·ceph
mixboot15 天前
ceph 14.2.22 nautilus Balancer 数据平衡
ceph·balancer·数据平衡
斯普信专业组19 天前
k8s云原生rook-ceph pvc快照与恢复(下)
ceph·云原生·kubernetes
斯普信专业组19 天前
k8s云原生rook-ceph pvc快照与恢复(上)
ceph·云原生·kubernetes
斯普信专业组19 天前
Ceph、K8s、CSI、PVC、PV 深入详解
ceph·容器·kubernetes
mixboot1 个月前
Ceph OSD.419 故障分析
ceph·osd
赵成ccc1 个月前
离线部署三节点 Ceph 分布式存储
分布式·ceph