dmsetup 清理ceph osd残留磁盘分区

在物理机上接入磁盘并准备格式化时,发现磁盘中存在之前残留的 Ceph OSD 分区。尝试运用 fdisk 重新分区、重新格式化,以及使用 sgdisk 格式化,甚至重写磁盘头,都未能成功清理掉这些 OSD 残留分区。最终,借助 dmsetup 直接删除磁盘映射的方式,成功解决了这一棘手问题 。

复制代码
root@ceph103:~# lsblk -f
NAME                                                                              FSTYPE         FSVER    LABEL UUID                                   FSAVAIL FSUSE% MOUNTPOINTS
loop0                                                                             squashfs       4.0                                                         0   100% /snap/core20/2318
loop1                                                                             squashfs       4.0                                                         0   100% /snap/lxd/29351
loop2                                                                             squashfs       4.0                                                         0   100% /snap/snapd/21759
loop3                                                                                                                                                        0   100% /snap/lxd/31333
sda
sdb
sdc
└─ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c
                                                                                  ceph_bluestore
sdd
sde
sdf
sdg
├─sdg1                                                                            vfat           FAT32          59DD-701A                                   1G     1% /boot/efi
├─sdg2                                                                            xfs                           22bf3bd4-e829-4cd8-bc64-f68171ccea52      1.8G     9% /boot
└─sdg3                                                                            LVM2_member    LVM2 001       kkrEXQ-KlwJ-xo1U-LpmI-2rZE-5Haq-CaQ2LN
  └─ubuntu--vg-ubuntu--lv                                                         xfs                           cd5dabb4-b8d2-4cf0-81b9-fe989abf2231    871.1G     2% /

dmsetup remove ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c

复制代码
root@ceph103:~# dms
dmsetup  dmstats
root@ceph103:~# dmsetup ls
ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c     (253:0)
ubuntu--vg-ubuntu--lv   (253:1)
root@ceph103:~# dmsetup remove ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c
root@ceph103:~# lsblk
NAME                      MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
loop0                       7:0    0  63.9M  1 loop /snap/core20/2318
loop1                       7:1    0    87M  1 loop /snap/lxd/29351
loop2                       7:2    0  38.8M  1 loop /snap/snapd/21759
loop3                       7:3    0  89.4M  1 loop /snap/lxd/31333
sda                         8:0    0   1.6T  0 disk
sdb                         8:16   0   1.6T  0 disk
sdc                         8:32   0   1.6T  0 disk
sdd                         8:48   0   3.5T  0 disk
sde                         8:64   0   3.5T  0 disk
sdf                         8:80   0   3.5T  0 disk
sdg                         8:96   0 893.8G  0 disk
├─sdg1                      8:97   0     1G  0 part /boot/efi
├─sdg2                      8:98   0     2G  0 part /boot
└─sdg3                      8:99   0 890.7G  0 part
  └─ubuntu--vg-ubuntu--lv 253:1    0 890.7G  0 lvm  /
root@ceph103:~# sgdisk --zap-all /dev/sdc
Creating new GPT entries in memory.
GPT data structures destroyed! You may now partition the disk using fdisk or
other utilities.
oot@ceph103:~# lsblk
NAME                      MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
loop0                       7:0    0  63.9M  1 loop /snap/core20/2318
loop1                       7:1    0    87M  1 loop /snap/lxd/29351
loop2                       7:2    0  38.8M  1 loop /snap/snapd/21759
loop3                       7:3    0  89.4M  1 loop /snap/lxd/31333
sda                         8:0    0   1.6T  0 disk
sdb                         8:16   0   1.6T  0 disk
sdc                         8:32   0   1.6T  0 disk
sdd                         8:48   0   3.5T  0 disk
sde                         8:64   0   3.5T  0 disk
sdf                         8:80   0   3.5T  0 disk
sdg                         8:96   0 893.8G  0 disk
├─sdg1                      8:97   0     1G  0 part /boot/efi
├─sdg2                      8:98   0     2G  0 part /boot
└─sdg3                      8:99   0 890.7G  0 part
  └─ubuntu--vg-ubuntu--lv 253:1    0 890.7G  0 lvm  /
root@ceph103:~#
相关推荐
一个行走的民3 天前
分布式系统中 Map 增量(Delta)是否需要持久化
ceph
一个行走的民4 天前
BlueStore 核心原理与关键机制
ceph
奋斗的小青年I7 天前
Proxmox VE Ceph 超融合集群落地实战
windows·ceph·vmware·pve·超融合·proxmox
一个行走的民7 天前
深度剖析 Ceph PG 分裂机制:原理、底层、实操、影响、线上避坑(最全完整版)
ceph·算法
一个行走的民7 天前
Ceph 核心概念精讲:彻底搞懂 PG、PGP、pg_num、pgp_num
ceph
Mr.王83519 天前
Kubernetes宿主机本地盘池化管理
ceph·云原生·容器·kubernetes
一个行走的民24 天前
CEPH OSD心跳机制
ceph
一个行走的民24 天前
Ceph PG 状态详解与线上故障处理
网络·ceph
一个行走的民24 天前
Ceph MDS 状态机与 Monitor 中的状态流转分析
ceph
Virtual_human08061 个月前
在VMware workstation上,部署3节点ceph测试,及加入openstack
ceph·云计算·openstack·osd·ceph集群