ceph之osd扩容和缩容

osd扩容和缩容

扩容:

一、备份cephfs数据

二、给要扩容的新机器打上label

三、防止osd运行到现有osd节点,给现有osd节点打上禁止调度

四、给rook-ceph-operator的副本数由0改为1

五、查看osd pod数量,是否与预计的一致

六、给rook-ceph-operator的副本数由1改为0

七、查看ceph集群状态,数据均衡情况

八、上传测试文档验证

九、关闭现有ods节点的禁止调度

参考文档信通院企搜ceph-osd横向扩容方案

缩容:

1) 将rook-ceph-operator 的副本缩为0,确保后续不会有新的osd被创建;

2) 依次逐渐删掉osd66、osd65、osd64、osd63、osd66

bash 复制代码
1、OSD.66 踢出集群
ceph osd out osd.66

2、查看状态,观察该osd上数据已经迁移均衡
ceph status
#必须等osd.66 数据迁移完,才进行下一步,否则后续会发生数据丢失,文件损坏的情况

3、停掉osd.66 进程
kubectl delete deployment rook-ceph-osd-66 

4、删掉osd在ceph中信息
ceph osd rm osd.66
ceph osd crush remove osd.66 # 如果crush中没有,该步骤报错,忽略即可
ceph auth del osd.66

5、按需删掉osd.66 的裸盘数据

特别提醒:osd的删除操作必须依次进行,不能同时批量进行,否则会发生数据均衡和迁移的异常

3) 解决完毕后ceph osd status 查看osd状态

相关推荐
Mr.王8358 天前
Kubernetes宿主机本地盘池化管理
ceph·云原生·容器·kubernetes
一个行走的民12 天前
CEPH OSD心跳机制
ceph
一个行走的民12 天前
Ceph PG 状态详解与线上故障处理
网络·ceph
一个行走的民12 天前
Ceph MDS 状态机与 Monitor 中的状态流转分析
ceph
Virtual_human080617 天前
在VMware workstation上,部署3节点ceph测试,及加入openstack
ceph·云计算·openstack·osd·ceph集群
Brandon汐24 天前
从0开始搭建一主两节点k8s集群对接Ceph集群
ceph·容器·kubernetes
泡沫·1 个月前
CEPH的基本认识
ceph
2301_767902641 个月前
ceph分布式存储(三)
分布式·ceph
2301_767902641 个月前
ceph分布式存储(一)
分布式·ceph
2301_767902641 个月前
ceph分布式存储(二)
分布式·ceph