cephクラスタから誤ったosdを削除する方法は?

cephクラスタから誤ったosdを削除する方法は?
[root@dev-master ceph-cluster]# ceph osd tree
ID WEIGHT  TYPE NAME     UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.01740 root default
-4 0.00580     host osd2
 0 0.00580         osd.0    down        0          1.00000
-5 0.00580     host osd3
 1 0.00580         osd.1    down        0          1.00000
-6 0.00580     host osd1
 2 0.00580         osd.2    down        0          1.00000
 5       0 osd.5              up        0          1.00000
[root@dev-master ceph-cluster]# ceph osd out 5
osd.5 is already out.
[root@dev-master ceph-cluster]# ceph osd crush remove osd.5
device 'osd.5' does not appear in the crush map
[root@dev-master ceph-cluster]# ceph auth del osd.5
entity osd.5 does not exist
[root@dev-master ceph-cluster]# ceph osd rm 5
Error EBUSY: osd.5 is still up; must be down before removal.

しかし、どのホストでもosd.5が見つかりません。

答え1

osdを手動で表示できます。 osdプロセスが実際にどこかで実行されている場合は、数秒後にそれ自体がバックアップとして表示されます。

ceph osd down osd.5; ceph osd rm "$_"

答え2

時にはceph osd purge [osd.daemon]動作します。

答え3

結局、そのノードのサービスなので、そのサービスを最初に停止することをお勧めします。

systemctl disable [email protected]

それから

ceph osd out osd.5
ceph osd safe-to-destroy osd.5
ceph osd destroy osd.5 --yes-i-really-mean-it
ceph osd crush remove osd.5
ceph osd rm osd.5

関連情報