[root@dev-master ceph-cluster]# ceph osd tree
ID WEIGHT TYPE NAME UP/DOWN REWEIGHT PRIMARY-AFFINITY
-1 0.01740 root default
-4 0.00580 host osd2
0 0.00580 osd.0 down 0 1.00000
-5 0.00580 host osd3
1 0.00580 osd.1 down 0 1.00000
-6 0.00580 host osd1
2 0.00580 osd.2 down 0 1.00000
5 0 osd.5 up 0 1.00000
[root@dev-master ceph-cluster]# ceph osd out 5
osd.5 is already out.
[root@dev-master ceph-cluster]# ceph osd crush remove osd.5
device 'osd.5' does not appear in the crush map
[root@dev-master ceph-cluster]# ceph auth del osd.5
entity osd.5 does not exist
[root@dev-master ceph-cluster]# ceph osd rm 5
Error EBUSY: osd.5 is still up; must be down before removal.
しかし、どのホストでもosd.5が見つかりません。
答え1
osdを手動で表示できます。 osdプロセスが実際にどこかで実行されている場合は、数秒後にそれ自体がバックアップとして表示されます。
ceph osd down osd.5; ceph osd rm "$_"
答え2
時にはceph osd purge [osd.daemon]
動作します。
答え3
結局、そのノードのサービスなので、そのサービスを最初に停止することをお勧めします。
systemctl disable [email protected]
それから
ceph osd out osd.5
ceph osd safe-to-destroy osd.5
ceph osd destroy osd.5 --yes-i-really-mean-it
ceph osd crush remove osd.5
ceph osd rm osd.5