ceph删除坏的磁盘

在Ceph集群中,查看和处理坏掉的磁盘主要涉及到以下几个步骤:检查磁盘状态、从集群中删除坏磁盘、最后是物理或逻辑地替换坏掉的磁盘。请注意,处理Ceph集群的操作需要谨慎执行,并确保在操作前你有足够的备份和恢复计划

1. 查看集群健康状况

开始之前,先检查Ceph集群的健康状况:

bash 复制代码
ceph health detail

2. 查看磁盘状态

使用ceph osd tree命令查看OSD(对象存储守护进程)的状态,找出状态为down的磁盘。

bash 复制代码
ceph osd tree

3. 标记OSD为out

如果确定OSD是坏的,需要先将OSD标记为out,这样Ceph会开始把该OSD上的数据迁移到其他OSD上:

bash 复制代码
ceph osd out osd.<osd-id>

其中<osd-id>是坏掉的磁盘对应的OSD编号。

4. 停止OSD服务

在物理服务器上停止OSD服务,这一步骤需要在OSD实际运行的服务器上执行

bash 复制代码
systemctl stop ceph-osd@<osd-id>

5. 从CRUSH map中删除OSD

CRUSH map决定了数据如何在OSD之间分布。在CRUSH map中移除坏掉的OSD

bash 复制代码
ceph osd crush remove osd.<osd-id>

6. 删除OSD的认证

删除OSD的CephX认证:

bash 复制代码
ceph auth del osd.<osd-id>

7. 从集群中删除OSD

最后,从集群中彻底删除OSD:

bash 复制代码
ceph osd rm osd.<osd-id>

8. 物理替换坏盘

在完成上述步骤后,你可以物理替换掉坏掉的磁盘。替换后,根据你的集群配置,需要手动添加新磁盘到Ceph集群中,并允许Ceph对新的OSD进行数据恢复和平衡操作

注意:

1.上述操作可能导致数据迁移,从而影响集群性能,建议在业务低峰期进行。

2.在执行操作前,请确保对你的Ceph版本和配置有足够的了解。

3.在添加新磁盘和扩展集群之前,请确保新磁盘与集群中的其他磁盘有相似的性能和容量,以维持集群的均衡。

4.执行命令前请确保你有适当的权限,可能需要sudo或作为root用户执行。

根据你的Ceph版本和配置,命令的具体参数可能会有所不同。建议在执行之前,查看官方文档或咨询Ceph社区获取最新和最准确的信息

相关推荐
行走的山峰1 天前
ceph之osd扩容和缩容
ceph
hejingdong1231 天前
ceph iscsi网关配置过程遇到的问题和解决办法
ceph·ceph iscsi·iscsi 网关
行走的山峰1 天前
ceph简介
ceph
奋斗的松鼠2 天前
numa分布奇葩引发的性能问题
ceph
奋斗的松鼠9 天前
2.1ceph集群部署准备-硬件及拓扑
linux·服务器·ceph
hejingdong12313 天前
ceph-iscsi 手动安装过程中的一些问题记录以及解决办法
ceph
奋斗的松鼠13 天前
2.2ceph集群部署准备-软件准备上
分布式·ceph
henan程序媛14 天前
云原生存储Rook部署Ceph
ceph·云原生·rook
不爱代码的小杜14 天前
Ceph集群维护相关操作
linux·服务器·ceph
PolarisHuster14 天前
ceph中pg与pool关系
ceph