Debian Liveを使用してRAID1(暗号化なし)からLVMを復元しようとしています。
明らかにRAID1は問題なく組み立てられましたが、LVMが破損しています。 LVMセクションにスキップできます。緊急事態に備えてRAID部分を予約してください。
RAID
# aptitude install mdadm
# mdadm --assemble --scan
情報:
[ 617.036709] md: md0 stopped.
[ 617.038099] md: bind<sdc1>
[ 617.038302] md: bind<sda1>
[ 617.214903] md: raid1 personality registered for level 1
[ 617.215534] md/raid1:md0: active with 2 out of 2 mirrors
[ 617.215694] created bitmap (8 pages) for device md0
[ 617.215956] md0: bitmap initialized from disk: read 1 pages, set 0 of
14903 bits
[ 617.682354] md0: detected capacity change from 0 to 1000068874240
[ 617.693821] md0:
これはRAIDです:
# ls -l /dev/md0
brw-rw---- 1 root disk 9, 0 Jan 21 19:34 /dev/md0
# mdadm --examine /dev/md0
/dev/md0:
MBR Magic : aa55
# file -s /dev/{md0,sda,sdc}
/dev/md0: DOS/MBR boot sector
/dev/sda: DOS/MBR boot sector
/dev/sdc: DOS/MBR boot sector
DOS/MBR boot sector
それが問題だと思います。これについては後で詳しく説明します。
場合に備えて追加情報
これは関係ないかもしれません。
# mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Jun 21 18:04:33 2015
Raid Level : raid1
Array Size : 976629760 (931.39 GiB 1000.07 GB)
Used Dev Size : 976629760 (931.39 GiB 1000.07 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Wed Jan 20 22:28:23 2016
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : bouzin:0
UUID : 102b07b8:703e4597:574b2ecf:880a1aee
Events : 4349
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 33 1 active sync /dev/sdc1
# fdisk -l /dev/md0
Disk /dev/md0: 931.4 GiB, 1000068874240 bytes, 1953259520 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x9c0ff432
# sfdisk -l /dev/md0
Disk /dev/md0: 244157440 cylinders, 2 heads, 4 sectors/track
Units: cylinders of 4096 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/md0p1 0 - 0 0 0 Empty
/dev/md0p2 0 - 0 0 0 Empty
/dev/md0p3 0 - 0 0 0 Empty
/dev/md0p4 0 - 0 0 0 Empty
# sfdisk -l /dev/sda
Disk /dev/sda: 121601 cylinders, 255 heads, 63 sectors/track
Units: cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/sda1 0+ 121601- 121602- 976760832 fd Linux raid
autodetect
/dev/sda2 0 - 0 0 0 Empty
/dev/sda3 0 - 0 0 0 Empty
/dev/sda4 0 - 0 0 0 Empty
# sfdisk -l /dev/sdc
Disk /dev/sdc: 121601 cylinders, 255 heads, 63 sectors/track
Units: cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/sdc1 0+ 121601- 121602- 976760832 fd Linux raid
autodetect
/dev/sdc2 0 - 0 0 0 Empty
/dev/sdc3 0 - 0 0 0 Empty
/dev/sdc4 0 - 0 0 0 Empty
# cat /proc/mdstat
Personalities : [raid1]
md0 : active (auto-read-only) raid1 sda1[0] sdc1[1]
976629760 blocks super 1.2 [2/2] [UU]
bitmap: 0/8 pages [0KB], 65536KB chunk
編集8:RAIDは自動読み取り専用でインストールされます。もともとここに書いたものとは異なり、読み書きに設定する必要はなく、説明したように必要に応じて自動的に行われます。ここ。
LVM
# aptitude install lvm2
# pvscan
No matching physical volumes found
# lvscan
No volume groups found
構成ファイルの復元
lvm構成ファイルのバックアップがありません(必要なのかわかりません)。
次のようなKnoppix Linux LiveCDを使用してRAID1 LVMパーティションからデータを回復する。
アイデアは、LVM構成ファイルを見つけるためにLVMパーティションの先頭を読み取ることです。
# dd if=/dev/md0 bs=512 count=4096 skip=1 of=/tmp/md0-raw-start
# vi /tmp/md0-raw-start
そこから設定ファイルを探します。バイナリと以前の設定バージョンを削除します。
これが私が得たものです(vg、lv ...は実際にLVMを設定するときに使用した名前です)。
# Generated by LVM2 version 2.02.111(2) (2014-09-01): Sun Jun 21 18:12:39 2015
contents = "Text Format Volume Group"
version = 1
description = ""
creation_host = "bouzin" # Linux bouzin 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1 (2015-05-24) x86_64
creation_time = 1434910359 # Sun Jun 21 18:12:39 2015
vg {
id = "Yxknle-OEes-hihh-tWCt-QBxC-JtP9-bl360E"
seqno = 8
format = "lvm2"
status = ["RESIZEABLE", "READ", "WRITE"]
flags = []
extent_size = 8192
max_lv = 0
max_pv = 0
metadata_copies = 0
physical_volumes {
pv0 {
id = "gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm"
device = "/dev/md0"
status = ["ALLOCATABLE"]
flags = []
dev_size = 1953259520
pe_start = 2048
pe_count = 238434
}
}
logical_volumes {
lv0 {
id = "AwliYc-HczW-LZ1x-czpO-YZOJ-sr7k-T13HUf"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "bouzin"
creation_time = 1434910352
segment_count = 1
segment1 {
start_extent = 0
extent_count = 953
type = "striped"
stripe_count = 1
stripes = [
"pv0", 0
]
}
}
lv1 {
id = "Ec1tN2-WKaf-v2if-lAu2-MfiI-1hkE-XyKFGI"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "bouzin"
creation_time = 1434910359
segment_count = 1
segment1 {
start_extent = 0
extent_count = 7152
type = "striped"
stripe_count = 1
stripes = [
"pv0", 953
]
}
}
lv2 {
id = "gFWdEh-7HUJ-zwX1-nqEU-DomC-tdfW-ZGChNw"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "bouzin"
creation_time = 1434910366
segment_count = 1
segment1 {
start_extent = 0
extent_count = 230329
type = "striped"
stripe_count = 1
stripes = [
"pv0", 8105
]
}
}
}
}
これにより、パーティションが次の順序で設定されていることが確認されます。
swap
/
/home
編集2:重要な注意
私がリンクしたページに表示されているものとは異なり、vg {
特に前の数行を見逃さないでくださいcontents = ...
。それ以外の場合は、次のメッセージが表示されます。
`Can't process text format file - missing contents field.`
使用中にエラーが発生しましたvgcfgrestore
。
復元された構成ファイルの使用
lvm構成ディレクトリに復元された構成ファイルをインストールし、lvmを起動します。
# mkdir /etc/lvm/backup
# cp /tmp/md0-raw-start /etc/lvm/backup/vg
# systemctl start lvm2
# systemctl status lvm2
● lvm2-activation.service - Activation of LVM2 logical volumes
Loaded: loaded (/lib/systemd/system/lvm2-activation.service; enabled)
Active: inactive (dead) since Thu 2016-01-21 20:37:42 UTC; 4s ago
Docs: man:lvm(8)
man:vgchange(8)
Process: 22212 ExecStart=/sbin/lvm vgchange -aay --sysinit
(code=exited, status=0/SUCCESS)
Main PID: 22212 (code=exited, status=0/SUCCESS)
Jan 21 20:37:42 debian lvm[22212]: No volume groups found
それが問題だ。No volume groups found
。
# vgscan
Reading all physical volumes. This may take a while...
No volume groups found
いいえ。
# vgcfgrestore vg
Couldn't find device with uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm.
Cannot restore Volume Group vg with 1 PVs marked as missing.
Restore failed.
このエラーメッセージは、復元されたlvm設定ファイル内の行がないことを識別して修正したため、よりvgcfgrestore
明確になりました(上記の編集2を参照)。
しかし、どこに行くべきですか?
パーティションテーブルが削除されましたか?
アレイの説明に戻ります。
# file -s /dev/{md0,sda,sdc}
/dev/md0: DOS/MBR boot sector
/dev/sda: DOS/MBR boot sector
/dev/sdc: DOS/MBR boot sector
~からここに別の投稿があります、私は次のように期待しています:
$ file -s /dev/{sde1,md2}
/dev/sde1: LVM2 (Linux Logical Volume Manager) , UUID:
ZK8IfBzUHPH5befvm5CZ81oIXHm11TG
/dev/md2: LVM2 (Linux Logical Volume Manager) , UUID:
ZK8IfBzUHPH5befvm5CZ81oIXHm11TG
この問題が発生する前に最後に起動したときにインストールしたものUSBスティックを使用したLinux Mint別のコンピュータでそのコンピュータを使用して起動可能なドライブを作成します。 GPartedを使用して「ハイブリッド」.isoをスティックにコピーしてから、dd
FAT32でフォーマットし直すのに問題がありました。何度も試してfdisk
から結局あきらめたようです。
fdisk
考えてみると、私が間違った方法でシステムを台無しにした可能性があります/dev
。私が何をしたのかはよくわかりませんが、手がかりかもしれません。私は他のことを考えることはできません。システムはDebian Jessieで、無人アップグレード機能がありますが、自動更新はそうすることはできないようです。
パーティションはスワップで始まるので、先頭をクリアすることは重要なファイルから始めるのと同じくらい重要ではないかもしれません。
DOS/MBR boot sector
これが問題であり、USBスティックの間違ったパーティションが原因である可能性があることを誰でも確認できますか?
最も重要なのは、この問題を解決する方法についてのアイデアがありますか?
(私は毎日ドライブ上の重要なファイルをバックアップしています。理解を助けるために、そしてバックアップできなかったファイルを確認したいので、この問題を解決したいと思います。)
指示するここ適用されるかもしれませんが、少し不明確で、続行する前にもう少し詳細を知りたいです。
編集1:テストディスクオプション
誰かが提案したパーティション表の回復を放棄し、Testdiskを使用してデータを回復します。私はおそらく英雄的な仕事をしようとする前に、この方法で既存のデータをバックアップしてみますpvcreate
。
FWIW、これはTestdiskの出力です。
分析する
Disk /dev/md0 - 1000 GB / 931 GiB - CHS 244157440 2 4
Current partition structure:
Partition Start End Size in sectors
No partition is bootable
クイック検索
Disk /dev/md0 - 1000 GB / 931 GiB - CHS 244157440 2 4
Partition Start End Size in sectors
* Linux Swap 255 0 1 256 1 4 16
P Linux 976128 0 1 8299775 1 4 58589184
P Linux 8299776 0 1 244156671 1 4 1886855168
SWAP2 version 0, pagesize=8192, 8192 B
ext4 blocksize=4096 Large file Sparse superblock, 29 GB / 27 GiB
ext4 blocksize=4096 Large file Sparse superblock, 966 GB / 899 GiB
編集2:pvcreateオプション
ここにエラーメッセージが再表示されます。
# vgcfgrestore vg
Couldn't find device with uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm.
今フォローしてくださいこの提案、これしてみようか?
dd if=/dev/zero count=1 of=/dev/md0
pvcreate --uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm --norestorefile
vcfgrestore
私はそれが確実だと確信していますが、確認したいと思います。
編集3:症状
起動時に受け取ったエラーメッセージに言及するのを忘れました。
初めて再起動したときに次のエラーが発生しました。
error: disk `lvmid/Yxknle-OEes-...` not found.
Entering rescue mode...
grub rescue> ls
(hd0) (hdO,msdos1), (hd1) (hd1,msdos1) (hd2) (hd2,msdos2) (md/0)
その後、ディスクを削除しようとしました。お金を守ってください。その後、他のエラーが変更され、この新しいエラーが引き続き発生します。
error: file `/boot/grub/i386-pc/normal.mod` not found.
編集 4: strace pvscan
# strace -e trace=open pvscan 2>&1 | grep /dev/md
open("/dev/md0", O_RDONLY|O_DIRECT|O_NOATIME) = 3
open("/dev/md0", O_RDONLY) = 5
open("/dev/md0", O_RDONLY) = 3
open("/dev/md0", O_RDONLY|O_DIRECT|O_NOATIME) = 3
open("/dev/md0", O_RDONLY|O_DIRECT|O_NOATIME) = 3
編集5:lvmバックアップファイルの回復
Testdiskを使用して/etc/lvm/backup/vg
。
# Generated by LVM2 version 2.02.111(2) (2014-09-01): Sun Jun 21 20:19:54 2015
contents = "Text Format Volume Group"
version = 1
description = "Created *after* executing 'vgcfgbackup'"
creation_host = "bouzin" # Linux bouzin 3.16.0-4-amd64 #1 SMP Debian 3.16.7-ckt11-1 (2015-05-24) x86_64
creation_time = 1434910794 # Sun Jun 21 20:19:54 2015
vg {
id = "Yxknle-OEes-hihh-tWCt-QBxC-JtP9-bl360E"
seqno = 8
format = "lvm2" # informational
status = ["RESIZEABLE", "READ", "WRITE"]
flags = []
extent_size = 8192 # 4 Megabytes
max_lv = 0
max_pv = 0
metadata_copies = 0
physical_volumes {
pv0 {
id = "gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm"
device = "/dev/md0" # Hint only
status = ["ALLOCATABLE"]
flags = []
dev_size = 1953259520 # 931,387 Gigabytes
pe_start = 2048
pe_count = 238434 # 931,383 Gigabytes
}
}
logical_volumes {
lv0 {
id = "AwliYc-HczW-LZ1x-czpO-YZOJ-sr7k-T13HUf"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "bouzin"
creation_time = 1434910352 # 2015-06-21 20:12:32 +0200
segment_count = 1
segment1 {
start_extent = 0
extent_count = 953 # 3,72266 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv0", 0
]
}
}
lv1 {
id = "Ec1tN2-WKaf-v2if-lAu2-MfiI-1hkE-XyKFGI"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "bouzin"
creation_time = 1434910359 # 2015-06-21 20:12:39 +0200
segment_count = 1
segment1 {
start_extent = 0
extent_count = 7152 # 27,9375 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv0", 953
]
}
}
lv2 {
id = "gFWdEh-7HUJ-zwX1-nqEU-DomC-tdfW-ZGChNw"
status = ["READ", "WRITE", "VISIBLE"]
flags = []
creation_host = "bouzin"
creation_time = 1434910366 # 2015-06-21 20:12:46 +0200
segment_count = 1
segment1 {
start_extent = 0
extent_count = 230329 # 899,723 Gigabytes
type = "striped"
stripe_count = 1 # linear
stripes = [
"pv0", 8105
]
}
}
}
}
コメントがあるという点だけを除けば、私が復元した内容と内容が同じです。
編集6:物理ボリュームを作成しようとしました。
上に示すように、/dev/md0
サイズは976629760kBです。
# dd if=/dev/md0 of=/media/user/bak/copy_lvm/start bs=1M count=1
# dd if=/dev/md0 of=/media/user/bak/copy_lvm/end bs=1M count=1 skip=953739
(正しく使ってほしいですdd
。)
使用方法がわからないpvcreate
:
# pvcreate --uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm --norestorefile
Can only set uuid on one volume at once
Run `pvcreate --help' for more information.
# pvcreate --uuid gUyTdb-rc7j-rJh0-B2EZ-ebb7-mf77-KBgNWm --norestorefile /dev/md0
Can't open /dev/md0 exclusively. Mounted filesystem?
読み書きできるように配列を設定してみました。
# mdadm --readwrite /dev/md0
mdadm: failed to set writable for /dev/md0: Device or resource busy
なぜこんなに忙しいのかわかりません。lsof
何も生産されません。
# lsof /dev/md0
編集7:ディスクを再テストしてください。
Testdiskのおかげで、自動的にバックアップされなかったファイルを正常にバックアップできました。今安全だと思います。これは、最初から再インストールしないようにシステムを保存するためのものです。 (/ etcもコピーしました)
Testdiskはパーティション検出とパーティションテーブルの回復も実行できます。私のパーティション(上記を参照)を検出しましたが、スワップ領域が起動可能であると言います。システムを保有しているものに変更しました。おそらく背後でTestdiskの不正行為が行われている可能性があります。とにかく「書き込み」を押して再起動しました。
再起動しても同じエラーが発生します。
error: file `/boot/grub/i386-pc/normal.mod` not found.
しかし、良いニュースがあります。 Debian Live から起動すると、アレイが自動的に組み立てられ、LVM が認識されます。パーティションをナビゲートできます。
/boot/grub/i386-pc/normal.mod
どこにあるべきかを確認できます。 (バイナリなので内容を確認できません。)
ああ、ルートのbashレコードも確認しましたが、このような混乱を引き起こすコマンドが見つかりませんでした。でfdiskを使用していますが、fdiskを誤って使用したり使用して/dev/sdh
いるわけではありません。ただし、GPartedで使用できます。/dev/sda
/dev/sdc
編集8:RAIDとLVMの状態
状況が変わったので、このコマンドをもう一度試してみると思いました。
# mdadm --examine /dev/md0
/dev/md0:
MBR Magic : aa55
Partition[0] : 16 sectors at 2040 (type 82)
Partition[1] : 58589184 sectors at 7809024 (type 83)
Partition[2] : 1886855168 sectors at 66398208 (type 83)
# file -s /dev/{md0,sda,sdc}
/dev/md0: DOS/MBR boot sector; partition 1 : ID=0x82, start-CHS (0xff,0,1), end-CHS (0x10,1,4), startsector 2040, 16 sectors; partition 2 : ID=0x83, active, start-CHS (0x3ff,1,4), end-CHS (0x3ff,1,4), startsector 7809024, 58589184 sectors; partition 3 : ID=0x83, start-CHS (0x3ff,1,4), end-CHS (0x3ff,1,4), startsector 66398208, 1886855168 sectors
/dev/sda: DOS/MBR boot sector
/dev/sdc: DOS/MBR boot sector
# mdadm --detail /dev/md0
/dev/md0:
Version : 1.2
Creation Time : Sun Jun 21 18:04:33 2015
Raid Level : raid1
Array Size : 976629760 (931.39 GiB 1000.07 GB)
Used Dev Size : 976629760 (931.39 GiB 1000.07 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sat Jan 23 21:43:23 2016
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Name : bouzin:0
UUID : 102b07b8:703e4597:574b2ecf:880a1aee
Events : 4355
Number Major Minor RaidDevice State
0 8 1 0 active sync /dev/sda1
1 8 33 1 active sync /dev/sdc1
# fdisk -l /dev/md0
Disk /dev/md0: 931.4 GiB, 1000068874240 bytes, 1953259520 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x9c0ff432
Device Boot Start End Sectors Size Id Type
/dev/md0p1 2040 2055 16 8K 82 Linux swap / Solaris
/dev/md0p2 * 7809024 66398207 58589184 28G 83 Linux
/dev/md0p3 66398208 1953253375 1886855168 899.7G 83 Linux
# sfdisk -l /dev/md0
Disk /dev/md0: 244157440 cylinders, 2 heads, 4 sectors/track
Units: cylinders of 4096 bytes, blocks of 1024 bytes, counting from 0
Device Boot Start End #cyls #blocks Id System
/dev/md0p1 255 256 2 8 82 Linux swap / Solaris
/dev/md0p2 * 976128 8299775 7323648 29294592 83 Linux
/dev/md0p3 8299776 244156671 235856896 943427584 83 Linux
/dev/md0p4 0 - 0 0 0 Empty
# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sda1[0] sdc1[1]
976629760 blocks super 1.2 [2/2] [UU]
bitmap: 0/8 pages [0KB], 65536KB chunk
unused devices: <none>
# vgscan
Reading all physical volumes. This may take a while...
No volume groups found
私はあなたの懸念を理解し始めたと思います。 RAID()がLVMなしで分割されているようです/dev/md0
。しかし、これは驚くべきことです。私はLVMを作成したことを覚えていて、私が見つけた設定ファイルがそれを確認するからです。
TestdiskはLVMを無視してパーティションテーブルに直接書き込み、LVMをオフロードできますか/dev/md0
(該当する場合)。
編集9:私のLVMはどこにありますか?
FWIW、再起動しましたが、まだDebian Liveにmdadmをインストールした後、lvm2がインストールされる前にもRAIDが自動的に組み立てられました(liblvm2app2.2のみ)。これは、LVMが「消えた」という意味ですか?
# dmsetup ls
No devices found
# pvscan
No matching physical volumes found
# vgscan
Reading all physical volumes. This may take a while...
No volume groups found
編集10:グラップ修正
ファイルシステム/LVMが正常に動作し、Grubエラーに焦点を当てているとします。
オンラインアドバイスに従ってこれを試しました。grub-install
# mount /dev/md0p2 /mnt
# grub-install --root-directory=/mnt /dev/md0
The file /mnt/boot/grub/stage1 not read correctly.
パーティションはLinuxとして認識されます。
# fdisk -l /dev/md0
Disk /dev/md0: 931.4 GiB, 1000068874240 bytes, 1953259520 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x9c0ff432
Device Boot Start End Sectors Size Id Type
/dev/md0p1 2040 2055 16 8K 82 Linux swap / Solaris
/dev/md0p2 * 7809024 66398207 58589184 28G 83 Linux
/dev/md0p3 66398208 1953253375 1886855168 899.7G 83 Linux
誰かが提案したgrub は inode サイズ 128 でのみ動作します。
# tune2fs -l /dev/md0p2 | grep -i 'inode size'
Inode size: 256
inodeのサイズが変わる理由がないので気にするかどうかわかりません。
ついています。
パーティションテーブルに奇妙なスワップサイズが表示されます。おそらく私はこのパーティションをめちゃくちゃにして、Testdiskがそれを誤って検出し、ここに示されている誤ったテーブルに書き込んでいた可能性があります。とにかく悪くない。必要ならいつでも変えることができると思います。
gparted は以下を表示します。
Partition File System Mount Point Size Flags
/dev/md0p1 8 KiB
unallocated unallocated 3.72 GiB
/dev/md0p2 ext4 /mnt 27.94 GiB boot
/dev/md0p3 ext4 899.72 GiB
unallocated unallocated 3.72 GiB
私の/homeパーティション(/dev/md0p3)の終わりは何とか切り捨てられたようです。
LVMへの言及はありません。
近くに割り当てられていないスペースを追加する代わりに/ dev / md0p1を再生成する必要があります(そして失われた最後の4GBを忘れてください)、またはここでgpartedを使用すると状況が悪化しますか?
この場合、LVMを使用することはそれほど重要ではありません。 1TBディスクを使用すると、システムに30 GBの空き容量を確保できますが、5 GBのみが使用されます。最終設定が損なわれない限り、プロセスでLVMを失っても問題ありません。
編集11:データ保存、ファイルシステムの破棄
/home
この時点では、他のディスクにインストールして権限とすべてをetc
維持することができたrsync
ため、最初から再インストールすることは実際には問題になりませんでした。
何が起きているのか理解できれば幸いですが、LVMの修正に時間を費やして完全に理解できず、信頼できない設定で終わるのは良い措置ではないため、最初から再インストールすることにしました。
Debian インストーラを使用してアレイに再インストールできますが、起動時に同じエラーが発生します。アレイを破壊して再生成するためにインストーラと戦わなければならず、最終的にすべてが解決されました。
別の教訓。これからさらにバックアップを行います。バックアップ用に別のディスクに入れました/home
。リストをrsync
保存し/etc
て整理するために、職場では次のようにします。
etckeeper
バージョンを使用して/etc
別のドライブに複製します。apt-clone
インストールされているパッケージのリストを保存するために使用します。
#!/bin/sh
#
# Script to clone installation
#
DEST_DIR=/mnt/backup_drive
# Apt clone
apt-clone clone $DEST_DIR/apt-clone/apt-clone-$(lsb_release -si)-$(lsb_release -sc)-$(lsb_release -sr)-$(date +%F).tar.gz
# Git clone /etc
cd $DEST_DIR/etc; git pull --quiet
答え1
あなたの情報は矛盾しています。/dev/md0
PVとパーティションテーブルを同時にすることはできません。file
PVが認められます。md0
LVMボリュームが/dev/md0p1
または等しいように分割されているようです/dev/md0p2
。
たぶん何らかの理由でpvscan
/vgscan
無視されたかもしれません/dev/md0
/ /dev/md0p1
(だからLVMはUUIDを見つけることができません)。pvscan
次のコマンドを実行して、strace
スキャンされたブロックデバイスを確認できます。
strace -e trace=open pvscan 2>&1 | grep /dev/md