ceph之osd扩容和缩容

osd扩容和缩容

扩容:

一、备份cephfs数据

二、给要扩容的新机器打上label

三、防止osd运行到现有osd节点,给现有osd节点打上禁止调度

四、给rook-ceph-operator的副本数由0改为1

五、查看osd pod数量,是否与预计的一致

六、给rook-ceph-operator的副本数由1改为0

七、查看ceph集群状态,数据均衡情况

八、上传测试文档验证

九、关闭现有ods节点的禁止调度

参考文档信通院企搜ceph-osd横向扩容方案

缩容:

1) 将rook-ceph-operator 的副本缩为0,确保后续不会有新的osd被创建;

2) 依次逐渐删掉osd66、osd65、osd64、osd63、osd66

bash 复制代码
1、OSD.66 踢出集群
ceph osd out osd.66

2、查看状态,观察该osd上数据已经迁移均衡
ceph status
#必须等osd.66 数据迁移完,才进行下一步,否则后续会发生数据丢失,文件损坏的情况

3、停掉osd.66 进程
kubectl delete deployment rook-ceph-osd-66 

4、删掉osd在ceph中信息
ceph osd rm osd.66
ceph osd crush remove osd.66 # 如果crush中没有,该步骤报错,忽略即可
ceph auth del osd.66

5、按需删掉osd.66 的裸盘数据

特别提醒:osd的删除操作必须依次进行,不能同时批量进行,否则会发生数据均衡和迁移的异常

3) 解决完毕后ceph osd status 查看osd状态

相关推荐
大新新大浩浩4 天前
k8s环境中的rook-ceph的osd报Permission denied无法正常运行问题的处理方式
java·ceph·kubernetes
大新新大浩浩6 天前
ceph部署-14版本(nautilus)-使用ceph-ansible部署实验记录
ceph·ansible
我科绝伦(Huanhuan Zhou)7 天前
共享存储-一步一步部署ceph分布式文件系统
ceph
野猪佩挤7 天前
Ceph集群搭建2025(squid版)
ceph
野猪佩挤7 天前
Rook-ceph(1.92最新版)
ceph
斯普信专业组11 天前
从零到一:基于Rook构建云原生Ceph存储的全面指南(上)
ceph·云原生
斯普信专业组12 天前
从零到一:基于Rook构建云原生Ceph存储的全面指南(下)
ceph·云原生
佟晖13 天前
ceph 16.2.15(Pacific)编译
linux·ceph·分布式存储
淡黄的Cherry1 个月前
ceph新增节点,OSD设备,标签管理(二)
ceph
Linux运维老纪1 个月前
分布式存储的技术选型之HDFS、Ceph、MinIO对比
大数据·分布式·ceph·hdfs·云原生·云计算·运维开发