奇妙な質問です。 UPSが正常に動作しないようにする長い停電(変圧器の爆発!)が原因で、Slackware 13を実行しているサーバーがクラッシュしました。このマシンは、2009年12月以来、問題なくマルチユーザー環境で会計ソフトウェアとファイル保存機能を静かに実行してきました!
マシンには2つの500GB SATAディスクがあり、以下を使用して設定されます。左心室容積ソフトウェアの上ディスクアレイ1(すべてSlackwareインストーラによって実行されます)。電源を入れるとinitrd image
正常にロードされますが、ルートファイルシステムをマウントしても起動しません。
"Failed to mount /dev/Volume00/RootVol on /mnt. No such device or directory."
RootVol は、ボリュームグループ Volume00 の論理ボリュームです。このボリュームグループには、スワップだけでなく3つの異なるLVファイルシステムがあります。そのうちのどれもインストールでき、boot#_ prompt
すべて大丈夫に見えます。ただし、ルートファイルシステムであるRootVolはまったく表示されません。/dev/mapper/Volume00
4つの異なる項目がリストされていますが、RootVolはありません。
だからLinuxの回復CDを起動しました。 RAID1ボリュームが/dev/md0
現れ、見て、それを見てマウントできました/dev/Volume00/RootVol
。
/proc/mdstat
ディスプレイは/dev/md0
デバイスのみを使用してパフォーマンスが低下した方法で実行されます/dev/dm-1
。これがディスクがオフになっていることを意味するかどうかはわかりません...私は/proc/mdstat.../dev/sda1、/dev/sda2などで実際のハードドライブを見るのに慣れています。 LVMではなくアレイ上。どのディスクにエラーが発生したかどうかを確認するには?/dev/dm-x
機器は機器とどのような関係がありますか/dev/sdx
?問題がないように見える残りのディスクからマシンを起動するにはどうすればよいですか?アレイに使用される2つのハードドライブは、ディスク全体である/ dev / sdaと/ dev / sdbです。
誰でも/dev/dm-xデバイスのチュートリアルを教えてもらえますか? LVMデバイスであることを確認しました。DMインストーラしかし、私がやっていることを正しく理解していないまま何も台無しにしたくありません。 RAIDが物理デバイス上に構築され、次のボリュームグループがRAIDデバイス上に構築されているようです... LVMデバイスがディスクアレイの要素として表示される理由を理解できませんが、クソの理由...または私の根本的な誤解。
以下はいくつかの情報です。
cat /dev/mdstat の出力は次のようになります。
root@sysresccd /mnt/rootvol/etc % cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md0 : active raid1 dm-1[0]
488287488 blocks [2/1] [U_]
unused devices: <none>
私が期待していたものとは異なります。私の2つのハードドライブは/dev/sdaと/dev/sdbで、/var/log/messagesにこれにエラーはありません。ただし、実行中のLive CDのバージョンでログレベルを調整することはできません。 /proc/mdstatに実際のデバイスが表示されないのはなぜですか? /dev/dm-# デバイスとは何ですか?
mdadm --detail /dev/md0 の出力は次のようになります。
root@sysresccd /mnt/rootvol/etc % dmadm -D /dev/md0
zsh: correct 'dmadm' to 'mdadm' [nyae]? y
/dev/md0:
Version : 0.90
Creation Time : Thu Dec 3 11:53:48 2009
Raid Level : raid1
Array Size : 488287488 (465.67 GiB 500.01 GB)
Used Dev Size : 488287488 (465.67 GiB 500.01 GB)
Raid Devices : 2
Total Devices : 1
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Sun Jul 10 12:00:57 2016
State : clean, degraded
Active Devices : 1
Working Devices : 1
Failed Devices : 0
Spare Devices : 0
UUID : a89cbdf5:f83cf3f7:dcc86dce:213c81b2
Events : 0.38
Number Major Minor RaidDevice State
0 253 1 0 active sync /dev/dm-1
2 0 0 2 removed
a) 私のディスクにエラーがあるか、 b) /dev/md0 配列が同期していないようです。おそらくディスクにエラーがあると思いますか?
それにもかかわらず、マシンは間違いなくこの状態で起動しないでしょう、そして私のハードドライブのどれかが問題になっているかどうか、この問題を解決する方法がわかりません。これはフルバックアップが可能な本番サーバーです...再構築することはできますが、非常に退屈なプロセスなのであまりしたくありません...データに問題はなく、両方のディスクに問題がないと思います。
mdadm.conf
いいえ
fdisk -l
どちらのディスクもLinux Raidの自動検出としてマークされ、すべてが正常に見えました。
出力はdmsetup
次のとおりです(???は私が挿入したものです)。
root@sysresccd /mnt/rootvol/etc % dmsetup ls
isw_bfdbfijegh_Volume01 (253:1)
isw_bfdbfijegh_Volume0 (253:0)
Volume00-MediaVol (253:9)
Volume00-RootSnap-cow (253:4) <-- ??? --- "cow" --- ???
Volume00-XplrVol (253:7)
Volume00-RootSnap (253:5)
Volume00-SwapVol (253:8)
Volume00-RootVol (253:3)
Volume00-RootVol-real (253:2) <--- ??? --- "real" --- ???
Volume00-HomeVol (253:6)
これに応じて次の情報を投稿しましたが、元の投稿を編集して、次のようにここに追加するようにアドバイスを受けました。
以下はdmsetup
テーブルです。
root@sysresccd /mnt/usbhdd1/server_backup/oldroot % dmsetup table
isw_bfdbfijegh_Volume01: 0 976575222 linear 253:0 63
isw_bfdbfijegh_Volume0: 0 976767240 mirror core 2 131072 nosync 2 8:0 0 8:16 0 1 handle_errors
Volume00-MediaVol: 0 209715200 linear 9:127 134218112
Volume00-RootSnap-cow: 0 2097152 linear 9:127 385876352
Volume00-XplrVol: 0 41943040 linear 9:127 83886464
Volume00-RootSnap: 0 20971520 snapshot 253:2 253:4 P 8
Volume00-SwapVol: 0 8388608 linear 9:127 125829504
Volume00-RootVol: 0 20971520 snapshot-origin 253:2
Volume00-RootVol-real: 0 20971520 linear 9:127 384
Volume00-HomeVol: 0 62914560 linear 9:127 20971904
Volume00-HomeVol: 62914560 41943040 linear 9:127 343933312
mdadm -E
各ハードドライブに関する情報です。
root@sysresccd /mnt/usbhdd1/server_backup/oldroot % mdadm -E /dev/sda
mdmon: /dev/sda is not attached to Intel(R) RAID controller.
mdmon: /dev/sda is not attached to Intel(R) RAID controller.
/dev/sda:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.1.00
Orig Family : 5b4a335b
Family : 5b4a335b
Generation : 0000000a
Attributes : All supported
UUID : 15980595:45ac18ac:22467c90:56138fde
Checksum : c51f833a correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk00 Serial : WD-WCASY8349657
State : active
Id : 00000000
Usable Size : 976767240 (465.76 GiB 500.10 GB)
[Volume0]:
UUID : 4b19b799:c2a34a28:0bcca120:36d318a0
RAID Level : 1
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 0
Array Size : 976766976 (465.76 GiB 500.10 GB)
Per Dev Size : 976767240 (465.76 GiB 500.10 GB)
Sector Offset : 0
Num Stripes : 3815496
Chunk Size : 64 KiB
Reserved : 0
Migrate State : idle
Map State : uninitialized
Dirty State : clean
Disk01 Serial : WD-WCASY8288673
State : active
Id : 00010000
Usable Size : 976767240 (465.76 GiB 500.10 GB)
root@sysresccd /mnt/usbhdd1/server_backup/oldroot % mdadm -E /dev/sdb
mdmon: /dev/sdb is not attached to Intel(R) RAID controller.
mdmon: /dev/sdb is not attached to Intel(R) RAID controller.
/dev/sdb:
Magic : Intel Raid ISM Cfg Sig.
Version : 1.1.00
Orig Family : 5b4a335b
Family : 5b4a335b
Generation : 0000000a
Attributes : All supported
UUID : 15980595:45ac18ac:22467c90:56138fde
Checksum : c51f833a correct
MPB Sectors : 1
Disks : 2
RAID Devices : 1
Disk01 Serial : WD-WCASY8288673
State : active
Id : 00010000
Usable Size : 976767240 (465.76 GiB 500.10 GB)
[Volume0]:
UUID : 4b19b799:c2a34a28:0bcca120:36d318a0
RAID Level : 1
Members : 2
Slots : [UU]
Failed disk : none
This Slot : 1
Array Size : 976766976 (465.76 GiB 500.10 GB)
Per Dev Size : 976767240 (465.76 GiB 500.10 GB)
Sector Offset : 0
Num Stripes : 3815496
Chunk Size : 64 KiB
Reserved : 0
Migrate State : idle
Map State : uninitialized
Dirty State : clean
Disk00 Serial : WD-WCASY8349657
State : active
Id : 00000000
Usable Size : 976767240 (465.76 GiB 500.10 GB)
すでに--assembleを持っていませんかinitrd
?ルートボリュームをマウントできませんが、アレイが起動します...同じRAID1アレイの同じVGにある3つの異なるボリュームをマウントできます.../dev/Volume00/RootVol
回復CDで起動中にマウントできるのはなぜですか? 。ディスクから起動しますか?