ceph删除坏的磁盘

在Ceph集群中,查看和处理坏掉的磁盘主要涉及到以下几个步骤:检查磁盘状态、从集群中删除坏磁盘、最后是物理或逻辑地替换坏掉的磁盘。请注意,处理Ceph集群的操作需要谨慎执行,并确保在操作前你有足够的备份和恢复计划

1. 查看集群健康状况

开始之前,先检查Ceph集群的健康状况:

bash 复制代码
ceph health detail

2. 查看磁盘状态

使用ceph osd tree命令查看OSD(对象存储守护进程)的状态,找出状态为down的磁盘。

bash 复制代码
ceph osd tree

3. 标记OSD为out

如果确定OSD是坏的,需要先将OSD标记为out,这样Ceph会开始把该OSD上的数据迁移到其他OSD上:

bash 复制代码
ceph osd out osd.<osd-id>

其中<osd-id>是坏掉的磁盘对应的OSD编号。

4. 停止OSD服务

在物理服务器上停止OSD服务,这一步骤需要在OSD实际运行的服务器上执行

bash 复制代码
systemctl stop ceph-osd@<osd-id>

5. 从CRUSH map中删除OSD

CRUSH map决定了数据如何在OSD之间分布。在CRUSH map中移除坏掉的OSD

bash 复制代码
ceph osd crush remove osd.<osd-id>

6. 删除OSD的认证

删除OSD的CephX认证:

bash 复制代码
ceph auth del osd.<osd-id>

7. 从集群中删除OSD

最后,从集群中彻底删除OSD:

bash 复制代码
ceph osd rm osd.<osd-id>

8. 物理替换坏盘

在完成上述步骤后,你可以物理替换掉坏掉的磁盘。替换后,根据你的集群配置,需要手动添加新磁盘到Ceph集群中,并允许Ceph对新的OSD进行数据恢复和平衡操作

注意:

1.上述操作可能导致数据迁移,从而影响集群性能,建议在业务低峰期进行。

2.在执行操作前,请确保对你的Ceph版本和配置有足够的了解。

3.在添加新磁盘和扩展集群之前,请确保新磁盘与集群中的其他磁盘有相似的性能和容量,以维持集群的均衡。

4.执行命令前请确保你有适当的权限,可能需要sudo或作为root用户执行。

根据你的Ceph版本和配置,命令的具体参数可能会有所不同。建议在执行之前,查看官方文档或咨询Ceph社区获取最新和最准确的信息

相关推荐
一名路过的小码农5 天前
ceph 18.2.4二次开发,docker镜像制作
ceph·docker·容器
墨水\\9 天前
分布式----Ceph应用(下)
分布式·ceph
大G哥9 天前
基于K8S1.28.2实验rook部署ceph
java·ceph·云原生·容器·kubernetes
石兴稳11 天前
Ceph PG(归置组)的状态说明
ceph
石兴稳11 天前
Ceph层次架构分析
ceph
活老鬼11 天前
Ceph分布式存储
linux·运维·服务器·分布式·ceph
石兴稳12 天前
Ceph client 写入osd 数据的两种方式librbd 和kernel rbd
linux·ceph
石兴稳13 天前
Ceph的pool有两种类型
ceph
运维小文13 天前
ceph的集群管理
ceph·对象存储·存储·ceph集群管理·ceph节点管理
石兴稳14 天前
iSCSI 和SCSI的概述
ceph