質問
RAID 1 構成を作成し、名前を /dev/md1 に指定しましたが、再起動すると、名前は常に /dev/md127 に変更されます。
答え1
解決策
作成されたRAID 1構成でソリューションが見つかりません。このソリューションの場合、まずRAID 1を削除する必要があることを案内しますので、データをバックアップしてください。実際に使用したばかりのVMを削除して新しく作成しました。
したがって、これはDebian 10とクリーンなシステムで動作します。
新しいクリーンなraid1設定を作成します。
私の場合、3つの仮想ディスクがあり、次のコマンドを実行しました。 (最初に同じサイズのパーティションを作成し、Linux raid自動検出タイプを入力する必要があることに注意してください。)
sudo mdadm --create /dev/md1 --level=mirror --raid-devices=3 /dev/sdb1 /dev/sdc1 /dev/sdd1
mdadm.confの編集
ファイルに移動して/etc/mdadm/mdadm.conf
すべてのアイテムを削除し、次に置き換えます。
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
古いファイルの配列への参照を追加する
rootとしてログインして、次の操作を行います。
sudo mdadm --detail --scan >> /etc/mdadm/mdadm.conf
現在、このファイルの内容は次のとおりです。
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# instruct the monitoring daemon where to send mail alerts
MAILADDR root
# definitions of existing MD arrays
ARRAY /dev/md1 metadata=1.2 name=buster:1 UUID=1279dbd2:d0acbb4f:0b34e3e1:3de1b3af
ARRAY /dev/md1metadata=1.2 name=buster:1 UUID=1279dbd2:d0acbb4f:0b34e3e1:3de1b3af (アレイを参照する新しい行です)
コマンドがARRAY行の前に項目を追加する場合は、それを削除してください。
もしかして
走るsudo update-initramfs -u
RAIDのパーティションを永久にマウント
インストールはオプションですが、RAID1ストレージを使用する必要があるとします。
- パーティションのUUIDを取得します
sudo blkid
/etc/fstab
この新しいコード行で編集し、UUID=d367f4ed-2b37-4967-971a-13d9129fff4f /home/vagrant/raid1 ext3 defaults 0 2
UUIDをパーティションのUUIDに置き換え、ファイルシステムをパーティションのファイルシステムに置き換えます。
私の現在のコンテンツ/etc/fstab
は
# /etc/fstab: static file system information.
#
# Use 'blkid' to print the universally unique identifier for a
# device; this may be used with UUID= as a more robust way to name devices
# that works even if disks are added and removed. See fstab(5).
#
# <file system> <mount point> <type> <options> <dump> <pass>
# / was on /dev/vda1 during installation
UUID=b9ffc3d1-86b2-4a2c-a8be-f2b2f4aa4cb5 / ext4 errors=remount-ro 0 1
# swap was on /dev/vda5 during installation
UUID=f8f6d279-1b63-4310-a668-cb468c9091d8 none swap sw 0 0
/dev/sr0 /media/cdrom0 udf,iso9660 user,noauto 0 0
UUID=d367f4ed-2b37-4967-971a-13d9129fff4f /home/vagrant/raid1 ext3 defaults 0 2
UUID=d367f4ed-2b37-4967-971a-13d9129fff4f /home/vagrant/raid1 ext3 デフォルト 0 2 (ここで私が追加した行を明確に見ることができます)
これで再起動できます
今、名前は変わりません。
実行すると、sudo fdisk -l
以下が表示されます(関連情報のみを表示します)。
Disk /dev/md1: 1022 MiB, 1071644672 bytes, 2093056 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0x37b2765e
Device Boot Start End Sectors Size Id Type
/dev/md1p1 2048 2093055 2091008 1021M 83 Linux
走ればdf -Th
手に入る
Filesystem Type Size Used Avail Use% Mounted on
udev devtmpfs 227M 0 227M 0% /dev
tmpfs tmpfs 49M 3.4M 46M 7% /run
/dev/sda1 ext4 19G 4.1G 14G 24% /
tmpfs tmpfs 242M 0 242M 0% /dev/shm
tmpfs tmpfs 5.0M 0 5.0M 0% /run/lock
tmpfs tmpfs 242M 0 242M 0% /sys/fs/cgroup
/dev/md1p1 ext3 989M 1.3M 937M 1% /home/vagrant/raid1
tmpfs tmpfs 49M 0 49M 0% /run/user/1000
マウントになっているのが見られます。最後に を実行すると、次のようなcat /proc/mdstat
結果が得られます。
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md1 : active raid1 sdd1[2] sdc1[1] sdb1[0]
1046528 blocks super 1.2 [3/3] [UUU]
unused devices: <none>
raid1 は sdb1、sdc1、sdd1 で動作します。
もう終わりました!再開でき、チーム名は永遠に保たれます。
私に合ったソリューションを見つけるために使用したすべてのリソース
https://superuser.com/questions/287462/how-can-i-make-mdadm-auto-assemble-raid-after-each-boot
https://ubuntuforums.org/showthread.php?t=2265120
https://askubuntu.com/questions/63980/how-do-i-rename-an-mdadm-raid-array
https://serverfault.com/questions/267480/how-do-i-rename-an-mdadm-raid-array
https://bugzilla.redhat.com/show_bug.cgi?id=606481
一部は他のものよりもこのソリューションに適していますが、それらすべてこのソリューションを見つけるのに役立ちました。
うわー、たくさん読んでいますか?これで問題が解決したので安心してください。役に立つことを願っています。さようなら行ってください!
答え2
Debian 11 システムの場合は、次のことを行う必要があります。
mdadm --detail --scan /dev/md127 >> /etc/mdadm/mdadm.conf
vim /etc/mdadm/mdadm.conf
、次のように追加の行を編集します。ARRAY /dev/md0 メタデータ=1.2 UUID=XXXXXXXX:XXXXXXXX:XXXXXXXX:XXXXXXXX
つまり、そのname
部品を取り除いた後、デバイスを/dev/md0
。
update-initramfs -u
再起動
答え3
これは、mdadmが、配列が「ローカル」配列ではなく「外部」配列であることを検出した場合に発生します。外部アレイには、md127から始まり(下に下がる)デバイスノードが割り当てられます。ローカルアレイには、md0 から始まり、上にデバイスノードが割り当てられます。
mdadmが配列がローカルであるか外部であるかを確認する1つの方法は、配列に書き込まれた「ホームホスト」名を現在のホスト名と比較することです。 mdadmが実行されていたときに、起動時にホスト名が正しく設定されていないことはまれではないことがわかりました(initシステムがまだ/ etc / hostnameの内容に基づいてホスト名を設定するinitスクリプトに到達していないため) 。したがって、mdadmがホスト名を照会すると、「localhost」または「(none)」、またはカーネルにコンパイルされたデフォルトのホスト名が取得されます。このデフォルト名は配列に書き込まれた「homehost」と一致しないため、mdadmはそれを外部配列として扱います。
mdadm を実行してアレイをアセンブルする前に、システムのホスト名が設定されていることを確認すると、この問題を解決できます。
答え4
"/etc/mdadm/mdadm.conf"からアレイを削除し、次のコマンドを実行しました。
sudo update-initramfs -u
その後、システムを再起動します。配列を追加するより
sudo mdadm --detail --scan | sudo tee -a /etc/mdadm/mdadm.conf
開いて/etc/mdadm/mdadm.conf
次に変更します。
ARRAY /dev/md/0 metadata=1.2 name=raspberrypi-nas:0 UUID=86275e90:a19b3601:fc78b0d8:57f9c56a
ARRAY /dev/md/1 metadata=1.2 name=raspberrypi:1 UUID=e8f0c48c:448321f6:1db0f830:ea39bc42
私も好きなように走って
sudo update-initramfs -u
そしてシステムを再起動してください。今、すべてが側面に沿って行われます。