RaspberryPi 2でmdadmを使用してRaid 1を設定中にエラーが発生しました。

RaspberryPi 2でmdadmを使用してRaid 1を設定中にエラーが発生しました。

mdadmを使用して、2つのドライブ(両方とも2 TB、両方ともexFATフォーマット、両方とも独立した電源装置を含む)を持つRaspberryPiにRAID 1を設定していますが、エラーが発生します。

残念ながら、私はLinuxやコマンドの専門家ではありません。

私がしたことは次のとおりです。

  • mdadmをインストールするには、apt-get install mdadmを使用してください。
  • 2つのデバイスを見つけるsudo fdisk -l(例:/dev/sdaと/dev/sdb)
  • RAID 1を/dev/md0に設定sudo mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[ab]1
  • /dev/md0形式sudo mkfs /dev/md0 -t ext4
  • /dev/md0 を /media/nas にマウントします。sudo mount /dev/md0 /media/nas
  • /etc/fstab 編集/dev/md0 /media/nas ext4 4 0 0
  • /etc/default/mdadmにAUTOSTART=trueを追加します。
  • /etc/samba/smb.confでSambaを有効にします。

すべてがうまくいき、WinSCPを使用して/ media / nasにファイルをアップロードできます。

今私の問題は、翌日のエラーコード4(追加のエラーテキストなし)のためにアップロードに失敗しました。実行してみると、sudo fdisk -lsdaとsdbという2つのデバイスを見つけます。 2000.3GBサイズの/dev/md0もありますが、2000.3GBサイズの/dev/md127もあります。

私が実行すると、sudo mdadm --detail /dev/md0次のようになります。

/dev/md0: 버전: 1.2 생성됨: 2018년 1월 5일 금요일 12:23:50 Raid 수준: raid1 어레이 크기: 1953371712(1862.88 GiB 2000.25 GB) 사용된 개발 크기: 1953371712(1862.88 GiB 2000.25 GB) Raid 장치 :総ユニット2個:1耐久性:スーパーブロックは永続性です。

Update Time : Sun Jan  7 14:37:23 2018
      State : clean, degraded

アクティブ装備:1作業装備:1不良装備:0待機装備:0

       Name : raspberrypi:0  (local to host raspberrypi)
       UUID : 926bc124:2945e335:1e79ab6c:06b12095
     Events : 21

Number   Major   Minor   RaidDevice State
   0       0        0        0      removed
   1       8        1        1      active sync   /dev/sda1

出力はsudo mdadm --detail /dev/md127次のとおりです

/dev/md127: バージョン: 1.2 作成: 2018 年 1 月 5 日金曜日 12:23:50 Raid レベル: raid1 アレイサイズ: 1953371712(1862.88 GiB 2000.25 GB) 使用された開発サイズ: 1953802デバイス:合計2つのデバイス:1永続性:スーパーブロックは永続性です。

Update Time : Sun Jan  7 14:38:47 2018
      State : clean, degraded

アクティブ装備:1作業装備:1不良装備:0待機装備:0

       Name : raspberrypi:0  (local to host raspberrypi)
       UUID : 926bc124:2945e335:1e79ab6c:06b12095
     Events : 27

Number   Major   Minor   RaidDevice State
   0       8       17        0      active sync   /dev/sdb1
   1       0        0        1      removed

sudo mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[ab]1次のようにRAIDをリセットしようとすると

mdadm: super1.x cannot open /dev/sda1: Device or resource busy mdadm: failed container membership check mdadm: cannot open /dev/sda1: Device or resource busy

RAIDをリセットする方法、md127はどこから来て、このエラーの原因は何ですか?

(再起動しても効果はありません)

よろしくお願いします!

答え1

RAIDアレイがクラッシュする場合が発生します。あなたが提供した断片的な出力によると、一時的な/dev/sdb1欠陥(PiのUSBシステムの欠陥である可能性が高い)が発生し、失敗とマークされていると思われます。再びオンラインになると、Linuxmdサブシステムはそれを既知のアレイに属さない新しいRAIDボリュームとして扱い、に設定します/dev/md127

を実行すると、sudo mdadm -Cv /dev/md0 -l1 -n2 /dev/sd[ab]1幸運にも失敗します。mdadm --createただ走っているいいえRAIDの問題に対する解決策。データを破壊する可能性は、データを回復する可能性よりはるかに高いです。

この時点で最良の選択は、おそらく/dev/md127アレイを破壊/dev/sdb1します/dev/md0

  1. /dev/md0これが実際にデータのライブコピーであることを確認してください。出力をmount確認してインストールされていることを確認し、/media/nas実行してls /media/nasデータがあることを確認してください。
  2. /dev/sdb1/dev/md127:から削除しmdadm /dev/md127 --fail /dev/sdb1ますmdadm /dev/md127 --remove /dev/sdb1
  3. /dev/sdb1RAIDメンバーのように見えないでくださいwipefs -a /dev/sdb1
  4. 再配置/dev/md0mdadm /dev/md0 --add /dev/sdb1
  5. コンピュータに配列を書き換えてすべての内容をコピーさせます/dev/sda1

これが発生しないようにするには、配列を説明する項目を設定します/etc/mdadm/mdadm.conf。ドライブが一時的にアレイから除外された場合は、構成mdadmファイルでそのドライブを確認して(4)ステップが実行されるのを待ちます。

設定で一時的な欠陥が発生する習慣がある場合は、配列に書き込み専用ビットマップを追加することを検討してくださいmdadm --grow /dev/md0 --bitmap=internal。ビットマップを更新する必要があるため、書き込みは少し遅くなりますが、変更をあるディスクから別のディスクにコピーするだけで、回復が大幅に高速になります。書き込み意図ビットマップを追加すると、--re-add一時的に障害が発生したディスクをアレイに挿入する代わりに使用できます--add

関連情報