mdadmを使用して、2つのドライブ(両方とも2 TB、両方ともexFATフォーマット、両方とも独立した電源装置を含む)を持つRaspberryPiにRAID 1を設定していますが、エラーが発生します。
残念ながら、私はLinuxやコマンドの専門家ではありません。
私がしたことは次のとおりです。
- mdadmをインストールするには、apt-get install mdadmを使用してください。
- 2つのデバイスを見つける
sudo fdisk -l
(例:/dev/sdaと/dev/sdb) - RAID 1を/dev/md0に設定
sudo mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[ab]1
- /dev/md0形式
sudo mkfs /dev/md0 -t ext4
- /dev/md0 を /media/nas にマウントします。
sudo mount /dev/md0 /media/nas
- /etc/fstab 編集
/dev/md0 /media/nas ext4 4 0 0
- /etc/default/mdadmにAUTOSTART=trueを追加します。
- /etc/samba/smb.confでSambaを有効にします。
すべてがうまくいき、WinSCPを使用して/ media / nasにファイルをアップロードできます。
今私の問題は、翌日のエラーコード4(追加のエラーテキストなし)のためにアップロードに失敗しました。実行してみると、sudo fdisk -l
sdaとsdbという2つのデバイスを見つけます。 2000.3GBサイズの/dev/md0もありますが、2000.3GBサイズの/dev/md127もあります。
私が実行すると、sudo mdadm --detail /dev/md0
次のようになります。
/dev/md0: 버전: 1.2 생성됨: 2018년 1월 5일 금요일 12:23:50 Raid 수준: raid1 어레이 크기: 1953371712(1862.88 GiB 2000.25 GB) 사용된 개발 크기: 1953371712(1862.88 GiB 2000.25 GB) Raid 장치 :総ユニット2個:1耐久性:スーパーブロックは永続性です。
Update Time : Sun Jan 7 14:37:23 2018
State : clean, degraded
アクティブ装備:1作業装備:1不良装備:0待機装備:0
Name : raspberrypi:0 (local to host raspberrypi)
UUID : 926bc124:2945e335:1e79ab6c:06b12095
Events : 21
Number Major Minor RaidDevice State
0 0 0 0 removed
1 8 1 1 active sync /dev/sda1
出力はsudo mdadm --detail /dev/md127
次のとおりです
/dev/md127: バージョン: 1.2 作成: 2018 年 1 月 5 日金曜日 12:23:50 Raid レベル: raid1 アレイサイズ: 1953371712(1862.88 GiB 2000.25 GB) 使用された開発サイズ: 1953802デバイス:合計2つのデバイス:1永続性:スーパーブロックは永続性です。
Update Time : Sun Jan 7 14:38:47 2018
State : clean, degraded
アクティブ装備:1作業装備:1不良装備:0待機装備:0
Name : raspberrypi:0 (local to host raspberrypi)
UUID : 926bc124:2945e335:1e79ab6c:06b12095
Events : 27
Number Major Minor RaidDevice State
0 8 17 0 active sync /dev/sdb1
1 0 0 1 removed
sudo mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[ab]1
次のようにRAIDをリセットしようとすると
mdadm: super1.x cannot open /dev/sda1: Device or resource busy mdadm: failed container membership check mdadm: cannot open /dev/sda1: Device or resource busy
RAIDをリセットする方法、md127はどこから来て、このエラーの原因は何ですか?
(再起動しても効果はありません)
よろしくお願いします!
答え1
RAIDアレイがクラッシュする場合が発生します。あなたが提供した断片的な出力によると、一時的な/dev/sdb1
欠陥(PiのUSBシステムの欠陥である可能性が高い)が発生し、失敗とマークされていると思われます。再びオンラインになると、Linuxmd
サブシステムはそれを既知のアレイに属さない新しいRAIDボリュームとして扱い、に設定します/dev/md127
。
を実行すると、sudo mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[ab]1
幸運にも失敗します。mdadm --create
ただ走っているいいえRAIDの問題に対する解決策。データを破壊する可能性は、データを回復する可能性よりはるかに高いです。
この時点で最良の選択は、おそらく/dev/md127
アレイを破壊/dev/sdb1
します/dev/md0
。
/dev/md0
これが実際にデータのライブコピーであることを確認してください。出力をmount
確認してインストールされていることを確認し、/media/nas
実行してls /media/nas
データがあることを確認してください。/dev/sdb1
/dev/md127
:から削除しmdadm /dev/md127 --fail /dev/sdb1
ますmdadm /dev/md127 --remove /dev/sdb1
。/dev/sdb1
RAIDメンバーのように見えないでくださいwipefs -a /dev/sdb1
。- 再配置
/dev/md0
:mdadm /dev/md0 --add /dev/sdb1
。 - コンピュータに配列を書き換えてすべての内容をコピーさせます
/dev/sda1
。
これが発生しないようにするには、配列を説明する項目を設定します/etc/mdadm/mdadm.conf
。ドライブが一時的にアレイから除外された場合は、構成mdadm
ファイルでそのドライブを確認して(4)ステップが実行されるのを待ちます。
設定で一時的な欠陥が発生する習慣がある場合は、配列に書き込み専用ビットマップを追加することを検討してくださいmdadm --grow /dev/md0 --bitmap=internal
。ビットマップを更新する必要があるため、書き込みは少し遅くなりますが、変更をあるディスクから別のディスクにコピーするだけで、回復が大幅に高速になります。書き込み意図ビットマップを追加すると、--re-add
一時的に障害が発生したディスクをアレイに挿入する代わりに使用できます--add
。