同じ問題を抱えている他の人を探しましたが、ここにあるすべての質問は、再起動後にRAID全体が消えることになり、問題のあるメンバードライブは1つしかありません。
これはビデオ制作機で、先週(CentOS 7からRocky 8にアップグレードした後)、ビデオの再生によってビデオに視覚的なアーティファクトが生成されることがわかりました。すべてのビデオは接続されたRAIDに保存されます。
RAID 60なので、それぞれ12個の1.2TBドライブを含む2つのRAID6があり、これら2つのRAID6が一緒に結合されてRAID0を形成します。これは私がここで働くずっと前に外部の会社によって設定されましたが、私の経験では常にしっかりしていました。
これらの視覚的アーティファクトを調査した結果、RAID6の1つのドライブの1つがmdadmに従って「削除済み」とマークされていることがわかりました。 RAIDはRAID6で期待されるように、このドライブなしで動作しますが、私たちが見たアーティファクトに関連していると思われます。 smartctlは問題のドライブに欠陥があることを示しているので、新しいドライブを注文しました。
今朝到着しましたが、そこから追跡しました。redhat.comの指示これまで。新しいドライブにRAIDを再構築するのに約3時間かかりましたが、正常に動作しているようで、RAIDが再び戻ってきたため、欠陥が見つかりませんでした。
しかし、私はマシンを再起動し、我々は再び原点に戻った。これは起動時とまったく同じで、1つのRAID 6からドライブが削除されたとマークされています。また、ディスクを見ると、問題のドライブ(/dev/sdc)のパーティションが失われたか、少なくとも「1.2TB Linux RAIDメンバー」の代わりに「1.2TB空き容量」と表示されていることがわかります。偶然かもしれないと思いました。そして今夜再びすべてのことを経験し、同じことが起こりました。 2番目に違うのは、/etc/mdadm.conf
suを使ってファイルを作成することでしたが、mdadm --examine --scan >> /etc/mdadm/mdadm.conf
あまり違いはありませんでした。今すぐ再起動するためにファイルを消去しました。
私の人生では何が起こっているのかわかりません。私はLinuxに精通していますが、今週以前はmdadmが存在するかさえ知らなかったので、すぐに学びようとしました。この生産機械は火曜日にバックアップされ実行されなければならないので反対です!一晩RAIDを再構築し、明日再起動します。以下はあなたに必要と思われるすべての出力です。提供できる他の項目がある場合はお知らせください。
出力cat /proc/mdstat
:
Personalities : [raid6] [raid5] [raid4] [raid0]
md103 : active raid0 md101[0] md102[1]
23439351808 blocks super 1.2 512k chunks
md102 : active raid6 sdu[6] sdz[11] sdx[9] sdw[8] sdy[10] sdq[2] sdt[5] sdr[3] sdv[7] sds[4] sdo[0] sdp[1]
11719808000 blocks super 1.2 level 6, 512k chunk, algorithm 2 [12/12] [UUUUUUUUUUUU]
bitmap: 0/9 pages [0KB], 65536KB chunk
md101 : active raid6 sdk[8] sdh[5] sdg[4] sdl[9] sdf[3] sdi[6] sdj[7] sde[2] sdd[1] sdm[10] sdn[11]
11719808000 blocks super 1.2 level 6, 512k chunk, algorithm 2 [12/11] [_UUUUUUUUUUU]
bitmap: 1/9 pages [4KB], 65536KB chunk
mdadm --detail
問題のRAID6出力:
/dev/md101:
Version : 1.2
Creation Time : Tue Jun 8 17:37:23 2021
Raid Level : raid6
Array Size : 11719808000 (10.91 TiB 12.00 TB)
Used Dev Size : 1171980800 (1117.69 GiB 1200.11 GB)
Raid Devices : 12
Total Devices : 11
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Fri Jan 12 19:20:16 2024
State : clean, degraded
Active Devices : 11
Working Devices : 11
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Consistency Policy : bitmap
Name : grade1:101
UUID : 56d9ee6d:3a9ef416:91d3b7ec:0da562b0
Events : 1036527
Number Major Minor RaidDevice State
- 0 0 0 removed
1 8 48 1 active sync /dev/sdd
2 8 64 2 active sync /dev/sde
3 8 80 3 active sync /dev/sdf
4 8 96 4 active sync /dev/sdg
5 8 112 5 active sync /dev/sdh
6 8 128 6 active sync /dev/sdi
7 8 144 7 active sync /dev/sdj
8 8 160 8 active sync /dev/sdk
9 8 176 9 active sync /dev/sdl
10 8 192 10 active sync /dev/sdm
11 8 208 11 active sync /dev/sdn
これは過剰になる可能性がありますが、fdisk -l
ドライバが多すぎるため、出力が長くなります。 sdaとsdbはOSドライブであり、読み取り準備のためにredhat.comの指示に従ってsgdiskを実行したため、問題のドライブ/ dev / sdcが異なるようです。
Disk /dev/sda: 894.3 GiB, 960197124096 bytes, 1875385008 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 18255C5C-FE0C-4ADB-9D13-52560809D652
Device Start End Sectors Size Type
/dev/sda1 2048 1230847 1228800 600M EFI System
/dev/sda2 1230848 3327999 2097152 1G Linux filesystem
/dev/sda3 3328000 1875384319 1872056320 892.7G Linux LVM
Disk /dev/sdb: 894.3 GiB, 960197124096 bytes, 1875385008 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: D2D8699C-C29B-4C34-B126-3667FA7B794A
Device Start End Sectors Size Type
/dev/sdb1 2048 1875384319 1875382272 894.3G Linux LVM
Disk /dev/mapper/rl-root: 70 GiB, 75161927680 bytes, 146800640 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/mapper/rl-swap: 4 GiB, 4294967296 bytes, 8388608 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdd: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdc: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: B9AB730B-09DD-44FF-BD9E-79502FB2CF5E
Disk /dev/sdh: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdg: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sde: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdl: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdi: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdm: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdo: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdp: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdk: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdq: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdf: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdn: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdr: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdj: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sds: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdt: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdu: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdv: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdw: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdx: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdy: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/sdz: 1.1 TiB, 1200243695616 bytes, 2344225968 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/mapper/rl-home: 1.7 TiB, 1839227469824 bytes, 3592241152 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/md101: 10.9 TiB, 12001083392000 bytes, 23439616000 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 5242880 bytes
Disk /dev/md102: 10.9 TiB, 12001083392000 bytes, 23439616000 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 5242880 bytes
Disk /dev/md103: 21.8 TiB, 24001896251392 bytes, 46878703616 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 524288 bytes / 5242880 bytes
答え1
mdadmメタデータが削除されています。ディスクの末尾にあるGPTバックアップヘッダーを確認し、ディスクの先頭に書き換えてプロセスからmdadmメタデータを削除することで、これを「修正」するのに役立ちます。
これは、RAID、LUKS、ファイルシステムなどのパーティションではなく、ドライブ全体を使用する場合に発生する一般的な問題です。多くのプログラムがドライブの分割を支援しようとするので、問題が発生するまでうまくいきます。これにより、アレイから1つのドライブだけでなく、すべてのドライブも削除されます。
次のコマンドを使用してパーティションテーブルGPTヘッダ(ディスクの先頭と終わり)を消去したwipefs
場合は、新しいパーティションテーブルを再作成しないことを願っています。
私はディスク全体の代わりにパーティションテーブルを持ち、パーティションを使用することを好みます(リンクされたチュートリアルで説明されている設定に似ています)。ほとんどのソフトウェアはパーティションを残していることを知っているので、これはより標準的であり、そのような事故が発生する可能性が低くなります。これは、「パーティション化されていない」ドライブでは不可能です。
しかし、あなたの場合は、設定全体を移行する必要があります。これはおそらくあなたが望むものではないかもしれません。
バックアップ、特にドライブのシリアル番号を含むメタデータ/ヘッダーバックアップを実行すると、後で割り当てる方法がわかります。これは、後で同様のパーティション表の事故が発生した場合に回復するのに役立ちます。