停電後、RAID-1 / LVMサーバーは起動しません。

停電後、RAID-1 / LVMサーバーは起動しません。

奇妙な質問です。 UPSが正常に動作しないようにする長い停電(変圧器の爆発!)が原因で、Slackware 13を実行しているサーバーがクラッシュしました。このマシンは、2009年12月以来、問題なくマルチユーザー環境で会計ソフトウェアとファイル保存機能を静かに実行してきました!

マシンには2つの500GB SATAディスクがあり、以下を使用して設定されます。左心室容積ソフトウェアの上ディスクアレイ1(すべてSlackwareインストーラによって実行されます)。電源を入れるとinitrd image正常にロードされますが、ルートファイルシステムをマウントしても起動しません。

"Failed to mount /dev/Volume00/RootVol on /mnt.  No such device or directory." 

RootVol は、ボリュームグループ Volume00 の論理ボリュームです。このボリュームグループには、スワップだけでなく3つの異なるLVファイルシステムがあります。そのうちのどれもインストールでき、boot#_ promptすべて大丈夫に見えます。ただし、ルートファイルシステムであるRootVolはまったく表示されません。/dev/mapper/Volume004つの異なる項目がリストされていますが、RootVolはありません。

だからLinuxの回復CDを起動しました。 RAID1ボリュームが/dev/md0現れ、見て、それを見てマウントできました/dev/Volume00/RootVol

/proc/mdstatディスプレイは/dev/md0デバイスのみを使用してパフォーマンスが低下した方法で実行されます/dev/dm-1。これがディスクがオフになっていることを意味するかどうかはわかりません...私は/proc/mdstat.../dev/sda1、/dev/sda2などで実際のハードドライブを見るのに慣れています。 LVMではなくアレイ上。どのディスクにエラーが発生したかどうかを確認するには?/dev/dm-x機器は機器とどのような関係がありますか/dev/sdx?問題がないように見える残りのディスクからマシンを起動するにはどうすればよいですか?アレイに使用される2つのハードドライブは、ディスク全体である/ dev / sdaと/ dev / sdbです。

誰でも/dev/dm-xデバイスのチュートリアルを教えてもらえますか? LVMデバイスであることを確認しました。DMインストーラしかし、私がやっていることを正しく理解していないまま何も台無しにしたくありません。 RAIDが物理デバイス上に構築され、次のボリュームグループがRAIDデバイス上に構築されているようです... LVMデバイスがディスクアレイの要素として表示される理由を理解できませんが、クソの理由...または私の根本的な誤解。

以下はいくつかの情報です。

cat /dev/mdstat の出力は次のようになります。

root@sysresccd /mnt/rootvol/etc % cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4]         [raid10] 
md0 : active raid1 dm-1[0]
488287488 blocks [2/1] [U_]

unused devices: <none>

私が期待していたものとは異なります。私の2つのハードドライブは/dev/sdaと/dev/sdbで、/var/log/messagesにこれにエラーはありません。ただし、実行中のLive CDのバージョンでログレベルを調整することはできません。 /proc/mdstatに実際のデバイスが表示されないのはなぜですか? /dev/dm-# デバイスとは何ですか?

mdadm --detail /dev/md0 の出力は次のようになります。

root@sysresccd /mnt/rootvol/etc % dmadm -D /dev/md0
zsh: correct 'dmadm' to 'mdadm' [nyae]? y
/dev/md0:
Version : 0.90
Creation Time : Thu Dec 3 11:53:48 2009
Raid Level : raid1
Array Size : 488287488 (465.67 GiB 500.01 GB)
Used Dev Size : 488287488 (465.67 GiB 500.01 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0
Persistence : Superblock is persistent

Update Time : Sun Jul 10 12:00:57 2016
State : clean, degraded 
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0

UUID : a89cbdf5:f83cf3f7:dcc86dce:213c81b2
Events : 0.38

Number Major Minor RaidDevice State
0 253 1 0 active sync /dev/dm-1
2 0 0 2 removed

a) 私のディスクにエラーがあるか、 b) /dev/md0 配列が同期していないようです。おそらくディスクにエラーがあると思いますか?

それにもかかわらず、マシンは間違いなくこの状態で起動しないでしょう、そして私のハードドライブのどれかが問題になっているかどうか、この問題を解決する方法がわかりません。これはフルバックアップが可能な本番サーバーです...再構築することはできますが、非常に退屈なプロセスなのであまりしたくありません...データに問題はなく、両方のディスクに問題がないと思います。

mdadm.confいいえ

fdisk -lどちらのディスクもLinux Raidの自動検出としてマークされ、すべてが正常に見えました。

出力はdmsetup次のとおりです(???は私が挿入したものです)。

root@sysresccd /mnt/rootvol/etc % dmsetup ls 
isw_bfdbfijegh_Volume01 (253:1)
isw_bfdbfijegh_Volume0  (253:0)
Volume00-MediaVol   (253:9)
Volume00-RootSnap-cow   (253:4) <-- ??? --- "cow" --- ???
Volume00-XplrVol    (253:7)
Volume00-RootSnap   (253:5)
Volume00-SwapVol    (253:8)
Volume00-RootVol    (253:3)
Volume00-RootVol-real   (253:2) <--- ??? --- "real" --- ???
Volume00-HomeVol    (253:6)

これに応じて次の情報を投稿しましたが、元の投稿を編集して、次のようにここに追加するようにアドバイスを受けました。

以下はdmsetupテーブルです。

root@sysresccd /mnt/usbhdd1/server_backup/oldroot % dmsetup table
isw_bfdbfijegh_Volume01: 0 976575222 linear 253:0 63
isw_bfdbfijegh_Volume0: 0 976767240 mirror core 2 131072 nosync 2 8:0 0    8:16 0 1 handle_errors
Volume00-MediaVol: 0 209715200 linear 9:127 134218112
Volume00-RootSnap-cow: 0 2097152 linear 9:127 385876352
Volume00-XplrVol: 0 41943040 linear 9:127 83886464
Volume00-RootSnap: 0 20971520 snapshot 253:2 253:4 P 8
Volume00-SwapVol: 0 8388608 linear 9:127 125829504
Volume00-RootVol: 0 20971520 snapshot-origin 253:2
Volume00-RootVol-real: 0 20971520 linear 9:127 384
Volume00-HomeVol: 0 62914560 linear 9:127 20971904
Volume00-HomeVol: 62914560 41943040 linear 9:127 343933312

mdadm -E各ハードドライブに関する情報です。

root@sysresccd /mnt/usbhdd1/server_backup/oldroot % mdadm -E /dev/sda
mdmon: /dev/sda is not attached to Intel(R) RAID controller.
mdmon: /dev/sda is not attached to Intel(R) RAID controller.
/dev/sda:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.1.00
    Orig Family : 5b4a335b
         Family : 5b4a335b
     Generation : 0000000a
     Attributes : All supported
           UUID : 15980595:45ac18ac:22467c90:56138fde
       Checksum : c51f833a correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk00 Serial : WD-WCASY8349657
          State : active
             Id : 00000000
    Usable Size : 976767240 (465.76 GiB 500.10 GB)

[Volume0]:
           UUID : 4b19b799:c2a34a28:0bcca120:36d318a0
     RAID Level : 1
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 0
     Array Size : 976766976 (465.76 GiB 500.10 GB)
   Per Dev Size : 976767240 (465.76 GiB 500.10 GB)
  Sector Offset : 0
    Num Stripes : 3815496
     Chunk Size : 64 KiB
       Reserved : 0
  Migrate State : idle
      Map State : uninitialized
    Dirty State : clean

  Disk01 Serial : WD-WCASY8288673
          State : active
             Id : 00010000
    Usable Size : 976767240 (465.76 GiB 500.10 GB)


root@sysresccd /mnt/usbhdd1/server_backup/oldroot % mdadm -E /dev/sdb
mdmon: /dev/sdb is not attached to Intel(R) RAID controller.
mdmon: /dev/sdb is not attached to Intel(R) RAID controller.
/dev/sdb:
          Magic : Intel Raid ISM Cfg Sig.
        Version : 1.1.00
    Orig Family : 5b4a335b
         Family : 5b4a335b
     Generation : 0000000a
     Attributes : All supported
           UUID : 15980595:45ac18ac:22467c90:56138fde
       Checksum : c51f833a correct
    MPB Sectors : 1
          Disks : 2
   RAID Devices : 1

  Disk01 Serial : WD-WCASY8288673
          State : active
             Id : 00010000
    Usable Size : 976767240 (465.76 GiB 500.10 GB)

[Volume0]:
           UUID : 4b19b799:c2a34a28:0bcca120:36d318a0
     RAID Level : 1
        Members : 2
          Slots : [UU]
    Failed disk : none
      This Slot : 1
     Array Size : 976766976 (465.76 GiB 500.10 GB)
   Per Dev Size : 976767240 (465.76 GiB 500.10 GB)
  Sector Offset : 0
    Num Stripes : 3815496
     Chunk Size : 64 KiB
       Reserved : 0
  Migrate State : idle
      Map State : uninitialized
    Dirty State : clean

  Disk00 Serial : WD-WCASY8349657
          State : active
             Id : 00000000
    Usable Size : 976767240 (465.76 GiB 500.10 GB)

すでに--assembleを持っていませんかinitrd?ルートボリュームをマウントできませんが、アレイが起動します...同じRAID1アレイの同じVGにある3つの異なるボリュームをマウントできます.../dev/Volume00/RootVol回復CDで起動中にマウントできるのはなぜですか? 。ディスクから起動しますか?

関連情報