ceph删除坏的磁盘

在Ceph集群中,查看和处理坏掉的磁盘主要涉及到以下几个步骤:检查磁盘状态、从集群中删除坏磁盘、最后是物理或逻辑地替换坏掉的磁盘。请注意,处理Ceph集群的操作需要谨慎执行,并确保在操作前你有足够的备份和恢复计划

1. 查看集群健康状况

开始之前,先检查Ceph集群的健康状况:

bash 复制代码
ceph health detail

2. 查看磁盘状态

使用ceph osd tree命令查看OSD(对象存储守护进程)的状态,找出状态为down的磁盘。

bash 复制代码
ceph osd tree

3. 标记OSD为out

如果确定OSD是坏的,需要先将OSD标记为out,这样Ceph会开始把该OSD上的数据迁移到其他OSD上:

bash 复制代码
ceph osd out osd.<osd-id>

其中<osd-id>是坏掉的磁盘对应的OSD编号。

4. 停止OSD服务

在物理服务器上停止OSD服务,这一步骤需要在OSD实际运行的服务器上执行

bash 复制代码
systemctl stop ceph-osd@<osd-id>

5. 从CRUSH map中删除OSD

CRUSH map决定了数据如何在OSD之间分布。在CRUSH map中移除坏掉的OSD

bash 复制代码
ceph osd crush remove osd.<osd-id>

6. 删除OSD的认证

删除OSD的CephX认证:

bash 复制代码
ceph auth del osd.<osd-id>

7. 从集群中删除OSD

最后,从集群中彻底删除OSD:

bash 复制代码
ceph osd rm osd.<osd-id>

8. 物理替换坏盘

在完成上述步骤后,你可以物理替换掉坏掉的磁盘。替换后,根据你的集群配置,需要手动添加新磁盘到Ceph集群中,并允许Ceph对新的OSD进行数据恢复和平衡操作

注意:

1.上述操作可能导致数据迁移,从而影响集群性能,建议在业务低峰期进行。

2.在执行操作前,请确保对你的Ceph版本和配置有足够的了解。

3.在添加新磁盘和扩展集群之前,请确保新磁盘与集群中的其他磁盘有相似的性能和容量,以维持集群的均衡。

4.执行命令前请确保你有适当的权限,可能需要sudo或作为root用户执行。

根据你的Ceph版本和配置,命令的具体参数可能会有所不同。建议在执行之前,查看官方文档或咨询Ceph社区获取最新和最准确的信息

相关推荐
斯普信专业组2 天前
CephFS管理秘籍:全面掌握文件系统与MDS守护程序命令
ceph·cephfs
45° 微笑5 天前
k8s集群 ceph rbd 存储动态扩容
ceph·容器·kubernetes·rbd
查士丁尼·绵6 天前
ceph补充介绍
ceph
Hello.Reader8 天前
Ceph 存储系统全解
分布式·ceph
Clarence_Ls11 天前
<十六>Ceph mon 运维
运维·ceph
手持钩笼引天下11 天前
踩坑:关于使用ceph pg repair引发的业务阻塞
运维·ceph
Clarence_Ls11 天前
<十七>Ceph 块存储理论与实践
ceph
知本知至14 天前
ceph rgw使用sts Security Token Service
linux·网络·ceph
一名路过的小码农14 天前
ubantu 编译安装ceph 18.2.4
linux·c++·ceph
大新新大浩浩14 天前
ceph 删除rbd 锁的命令
ceph·1024程序员节