dmsetup 清理ceph osd残留磁盘分区

在物理机上接入磁盘并准备格式化时,发现磁盘中存在之前残留的 Ceph OSD 分区。尝试运用 fdisk 重新分区、重新格式化,以及使用 sgdisk 格式化,甚至重写磁盘头,都未能成功清理掉这些 OSD 残留分区。最终,借助 dmsetup 直接删除磁盘映射的方式,成功解决了这一棘手问题 。

复制代码
root@ceph103:~# lsblk -f
NAME                                                                              FSTYPE         FSVER    LABEL UUID                                   FSAVAIL FSUSE% MOUNTPOINTS
loop0                                                                             squashfs       4.0                                                         0   100% /snap/core20/2318
loop1                                                                             squashfs       4.0                                                         0   100% /snap/lxd/29351
loop2                                                                             squashfs       4.0                                                         0   100% /snap/snapd/21759
loop3                                                                                                                                                        0   100% /snap/lxd/31333
sda
sdb
sdc
└─ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c
                                                                                  ceph_bluestore
sdd
sde
sdf
sdg
├─sdg1                                                                            vfat           FAT32          59DD-701A                                   1G     1% /boot/efi
├─sdg2                                                                            xfs                           22bf3bd4-e829-4cd8-bc64-f68171ccea52      1.8G     9% /boot
└─sdg3                                                                            LVM2_member    LVM2 001       kkrEXQ-KlwJ-xo1U-LpmI-2rZE-5Haq-CaQ2LN
  └─ubuntu--vg-ubuntu--lv                                                         xfs                           cd5dabb4-b8d2-4cf0-81b9-fe989abf2231    871.1G     2% /

dmsetup remove ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c

复制代码
root@ceph103:~# dms
dmsetup  dmstats
root@ceph103:~# dmsetup ls
ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c     (253:0)
ubuntu--vg-ubuntu--lv   (253:1)
root@ceph103:~# dmsetup remove ceph--3f56b806--f169--40c7--879b--2529f8bd9908-osd--block--9625d2d1--2e4c--4bfd--9343--96db1f94c67c
root@ceph103:~# lsblk
NAME                      MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
loop0                       7:0    0  63.9M  1 loop /snap/core20/2318
loop1                       7:1    0    87M  1 loop /snap/lxd/29351
loop2                       7:2    0  38.8M  1 loop /snap/snapd/21759
loop3                       7:3    0  89.4M  1 loop /snap/lxd/31333
sda                         8:0    0   1.6T  0 disk
sdb                         8:16   0   1.6T  0 disk
sdc                         8:32   0   1.6T  0 disk
sdd                         8:48   0   3.5T  0 disk
sde                         8:64   0   3.5T  0 disk
sdf                         8:80   0   3.5T  0 disk
sdg                         8:96   0 893.8G  0 disk
├─sdg1                      8:97   0     1G  0 part /boot/efi
├─sdg2                      8:98   0     2G  0 part /boot
└─sdg3                      8:99   0 890.7G  0 part
  └─ubuntu--vg-ubuntu--lv 253:1    0 890.7G  0 lvm  /
root@ceph103:~# sgdisk --zap-all /dev/sdc
Creating new GPT entries in memory.
GPT data structures destroyed! You may now partition the disk using fdisk or
other utilities.
oot@ceph103:~# lsblk
NAME                      MAJ:MIN RM   SIZE RO TYPE MOUNTPOINTS
loop0                       7:0    0  63.9M  1 loop /snap/core20/2318
loop1                       7:1    0    87M  1 loop /snap/lxd/29351
loop2                       7:2    0  38.8M  1 loop /snap/snapd/21759
loop3                       7:3    0  89.4M  1 loop /snap/lxd/31333
sda                         8:0    0   1.6T  0 disk
sdb                         8:16   0   1.6T  0 disk
sdc                         8:32   0   1.6T  0 disk
sdd                         8:48   0   3.5T  0 disk
sde                         8:64   0   3.5T  0 disk
sdf                         8:80   0   3.5T  0 disk
sdg                         8:96   0 893.8G  0 disk
├─sdg1                      8:97   0     1G  0 part /boot/efi
├─sdg2                      8:98   0     2G  0 part /boot
└─sdg3                      8:99   0 890.7G  0 part
  └─ubuntu--vg-ubuntu--lv 253:1    0 890.7G  0 lvm  /
root@ceph103:~#
相关推荐
斯普信专业组9 小时前
k8s云原生rook-ceph pvc快照与恢复(下)
ceph·云原生·kubernetes
斯普信专业组15 小时前
k8s云原生rook-ceph pvc快照与恢复(上)
ceph·云原生·kubernetes
斯普信专业组20 小时前
Ceph、K8s、CSI、PVC、PV 深入详解
ceph·容器·kubernetes
mixboot13 天前
Ceph OSD.419 故障分析
ceph·osd
赵成ccc13 天前
离线部署三节点 Ceph 分布式存储
分布式·ceph
赵成ccc13 天前
三节点Ceph分布式存储搭建指南
分布式·ceph
免檒13 天前
windows11下基于docker单机部署ceph集群
ceph·后端·docker·容器
mixboot13 天前
Ceph集群OSD崩溃恢复
ceph·osd
羌俊恩18 天前
分布式存储之Ceph使用指南--部署篇(未完待续)
分布式·ceph·pg·osd·rados
大咖分享课23 天前
深度剖析:Ceph分布式存储系统架构
分布式·ceph·架构·分布式存储