dmsetup 清理ceph osd残留磁盘分区

在物理机上接入磁盘并准备格式化时,发现磁盘中存在之前残留的 Ceph OSD 分区。尝试运用 fdisk 重新分区、重新格式化,以及使用 sgdisk 格式化,甚至重写磁盘头,都未能成功清理掉这些 OSD 残留分区。最终,借助 dmsetup 直接删除磁盘映射的方式,成功解决了这一棘手问题 。

复制代码
root@ceph103:~# lsblk -f
NAME                                                                              FSTYPE         FSVER    LABEL UUID                                   FSAVAIL FSUSE% MOUNTPOINTS
loop0                                                                             squashfs       4.0                                                         0   100% /snap/core20/2318
loop1                                                                             squashfs       4.0                                                         0   100% /snap/lxd/29351
loop2                                                                             squashfs       4.0                                                         0   100% /snap/snapd/21759
loop3                                                                                                                                                        0   100% /snap/lxd/31333
sda
sdb
sdc
└─ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c
                                                                                  ceph_bluestore
sdd
sde
sdf
sdg
├─sdg1                                                                            vfat           FAT32          59DD-701A                                   1G     1% /boot/efi
├─sdg2                                                                            xfs                           22bf3bd4-e829-4cd8-bc64-f68171ccea52      1.8G     9% /boot
└─sdg3                                                                            LVM2_member    LVM2 001       kkrEXQ-KlwJ-xo1U-LpmI-2rZE-5Haq-CaQ2LN
  └─ubuntu--vg-ubuntu--lv                                                         xfs                           cd5dabb4-b8d2-4cf0-81b9-fe989abf2231    871.1G     2% /

dmsetup remove ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c

复制代码
root@ceph103:~# dms
dmsetup  dmstats
root@ceph103:~# dmsetup ls
ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c     (253:0)
ubuntu--vg-ubuntu--lv   (253:1)
root@ceph103:~# dmsetup remove ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c
root@ceph103:~# lsblk
NAME                      MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
loop0                       7:0    0  63.9M  1 loop /snap/core20/2318
loop1                       7:1    0    87M  1 loop /snap/lxd/29351
loop2                       7:2    0  38.8M  1 loop /snap/snapd/21759
loop3                       7:3    0  89.4M  1 loop /snap/lxd/31333
sda                         8:0    0   1.6T  0 disk
sdb                         8:16   0   1.6T  0 disk
sdc                         8:32   0   1.6T  0 disk
sdd                         8:48   0   3.5T  0 disk
sde                         8:64   0   3.5T  0 disk
sdf                         8:80   0   3.5T  0 disk
sdg                         8:96   0 893.8G  0 disk
├─sdg1                      8:97   0     1G  0 part /boot/efi
├─sdg2                      8:98   0     2G  0 part /boot
└─sdg3                      8:99   0 890.7G  0 part
  └─ubuntu--vg-ubuntu--lv 253:1    0 890.7G  0 lvm  /
root@ceph103:~# sgdisk --zap-all /dev/sdc
Creating new GPT entries in memory.
GPT data structures destroyed! You may now partition the disk using fdisk or
other utilities.
oot@ceph103:~# lsblk
NAME                      MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
loop0                       7:0    0  63.9M  1 loop /snap/core20/2318
loop1                       7:1    0    87M  1 loop /snap/lxd/29351
loop2                       7:2    0  38.8M  1 loop /snap/snapd/21759
loop3                       7:3    0  89.4M  1 loop /snap/lxd/31333
sda                         8:0    0   1.6T  0 disk
sdb                         8:16   0   1.6T  0 disk
sdc                         8:32   0   1.6T  0 disk
sdd                         8:48   0   3.5T  0 disk
sde                         8:64   0   3.5T  0 disk
sdf                         8:80   0   3.5T  0 disk
sdg                         8:96   0 893.8G  0 disk
├─sdg1                      8:97   0     1G  0 part /boot/efi
├─sdg2                      8:98   0     2G  0 part /boot
└─sdg3                      8:99   0 890.7G  0 part
  └─ubuntu--vg-ubuntu--lv 253:1    0 890.7G  0 lvm  /
root@ceph103:~#
相关推荐
误入运维泥潭2 小时前
Ceph分布式存储全解析:从了解到使用
ceph·rgw·rbd·mds
mixboot13 天前
Ceph OSD 硬盘重连导致设备名变化
ceph
qq_3129201116 天前
K8s存储类(StorageClass)设计与Ceph集成实战
ceph·容器·kubernetes
1990_super25 天前
虚拟机环境部署Ceph集群的详细指南
ceph
1990_super25 天前
Ceph对象池详解
ceph
1990_super1 个月前
使用ceph-deploy安装和配置RADOS Gateway (RGW)并使用S3访问集群
ceph·gateway
野生技术架构师1 个月前
分布式存储 Ceph 的演进经验 · SOSP 2019
分布式·ceph
mixboot1 个月前
ceph 14.2.22 nautilus Balancer 数据平衡
ceph·balancer·数据平衡
斯普信专业组1 个月前
k8s云原生rook-ceph pvc快照与恢复(下)
ceph·云原生·kubernetes
斯普信专业组1 个月前
k8s云原生rook-ceph pvc快照与恢复(上)
ceph·云原生·kubernetes