背景 私は最近、RAID 1冗長性を備えたSynology NASのLinux RAIDに3.0TBのチップを持っていました。最近、2台の8.0TBドライブを購入し、3.0TBドライブをバックアップしたいのですが、Synologyがランダムにシャットダウンし、高度な瞬間が発生します。この問題を解決するために、すべてのドライブをLinux Mint 18.x Liveを実行しているコンピュータに挿入しました。 3.0TB RAIDを8.0TB RAIDに再同期できるように、2つのRAIDをインストールしようとしています。
質問
どの攻撃ゾーンも再構築できないため、どのドライブにもアクセスできません。私のfidsk -l
結果は次のとおりです。
mint ~ # fdisk -l
Disk /dev/loop0: 1.5 GiB, 1618886656 bytes, 3161888 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk /dev/nvme0n1: 477 GiB, 512110190592 bytes, 1000215216 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: DB2D71AC-EF2C-4540-A8E5-03C5D8F72D01
Device Start End Sectors Size Type
/dev/nvme0n1p1 40 409639 409600 200M EFI System
/dev/nvme0n1p2 409640 552935535 552525896 263.5G Apple HFS/HFS+
/dev/nvme0n1p3 552935536 554205071 1269536 619.9M Apple boot
/dev/nvme0n1p4 554205184 554237951 32768 16M Microsoft reserved
/dev/nvme0n1p5 554237952 1000214527 445976576 212.7G Microsoft basic data
Disk /dev/sda: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 0A352E59-20D3-4471-AE03-F44E1C73E3EE
Device Start End Sectors Size Type
/dev/sda1 2048 4982527 4980480 2.4G Linux RAID
/dev/sda2 4982528 9176831 4194304 2G Linux RAID
/dev/sda5 9453280 15627846239 15618392960 7.3T Linux RAID
Disk /dev/sdb: 2.7 TiB, 3000592982016 bytes, 5860533168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: FDB68AFA-6AA2-4AFF-B950-A65803C3E831
Device Start End Sectors Size Type
/dev/sdb1 256 4980735 4980480 2.4G Linux RAID
/dev/sdb2 4980736 9175039 4194304 2G Linux RAID
/dev/sdb3 9437184 5860328351 5850891168 2.7T Linux RAID
Disk /dev/sdc: 7.3 TiB, 8001563222016 bytes, 15628053168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 655B6D2C-8FDB-40B2-8A57-4A4C6CEA81FA
Device Start End Sectors Size Type
/dev/sdc1 2048 4982527 4980480 2.4G Linux RAID
/dev/sdc2 4982528 9176831 4194304 2G Linux RAID
/dev/sdc5 9453280 15627846239 15618392960 7.3T Linux RAID
Disk /dev/sdd: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: AB7A0C0E-F0F0-4169-A6CC-AFD36D13706B
Device Start End Sectors Size Type
/dev/sdd1 40 409639 409600 200M EFI System
/dev/sdd2 409640 976510983 976101344 465.5G Apple HFS/HFS+
Disk /dev/sde: 14.9 GiB, 16008609792 bytes, 31266816 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: 112D01E3-9B10-4E53-831E-6122DE30212F
Device Start End Sectors Size Type
/dev/sde1 40 409639 409600 200M EFI System
/dev/sde2 409640 31004631 30594992 14.6G Apple HFS/HFS+
Disk /dev/sdf: 3.8 GiB, 4026531840 bytes, 7864320 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Disk identifier: C0FCDDB9-DB52-4F40-8615-EB3CE0E2D4F4
Device Start End Sectors Size Type
/dev/sdf1 2048 7864286 7862239 3.8G Microsoft basic data
重要な唯一のドライブは/dev/sda, /dev/sdb, /dev/sdc
私が試したこと
mdadm -Asf && vgchange -ay
Synology Webサイトに基づいて返された推奨事項
mdadm: Devices UUID-f2e5c234:6e894003:d490d253:6ab62f4d and UUID-f8782d0e:605a2e0e:4c50beb7:39f5970b have the same name: /dev/md/2
mdadm: Duplicate MD device names in conf file were found.
良いmdadm --assemble --scan
収益も同じです。
mdadm --stop /dev/sdb
私も読んでみました。ここ。まとめると、mdadmがドライブを所有していて正常にマウントできないというのですが、ドライブなので mdadm raidメタデータを破棄して正常にマウントすればいいです。このコードは次を返します。
mdadm --stop /dev/sdb
mdadm: /dev/sdb does not appear to be an md device
単一のドライブを独立してマウントしようとした後にmdadm -A /dev/sdb
返されました。
mdadm: /dev/sdb does not appear to be an md device
仕事が壊れなかったと思う理由 私は過去に死んだ兄弟も接続していた3.0TB /dev/sdbドライブを正常にマウントしました。そのような場合、mdadmは単に1つのドライブでアレイを構築したと言います。この8.0TBドライブは、RAID 1構成ではなくSynology Hybrid RAIDにありますが、Synologyサーバーから取り出したばかりであることがわかり、これがどのような違いがあるのかわかりません。
私が考える問題は何ですか
私は正直に言うと(私は非常に限られた経験に照らして)同じシステムに2つのRAIDアレイが同時にあるため、mdadmを混乱させるのに問題があると思います。私の考えでは、解決策は、/etc/mdadm.conf
どのRAIDがどのRAIDに属するかを指定し、アセンブリを再試行する編集に関連している可能性があると思います。しかし、アレイを再構築しようとする独立した試みは、ドライブがmdデバイスとして表示されないことを示しています。だから今は何をすべきかわかりません。