Linuxブートの問題

Linuxブートの問題

Dell OptiPlex 7040そしてNVME M.2音量を上げます。動作したら急いでください。最近再起動しましたが表示されません。更新しましたバイオス、ログによると、これが悪いと思われるからです。

# BAD BIOS from `Journalctl -xb`
Jul 06 18:30:24 server_f.project33.ca kernel: MAR: [Firnuare Bug]: No firnuare reserved region can cover this RMRR [0x00000000dd800000-0x00000000dfffffffl, contact By
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR: [Firmware Bug]: Your BIOS is broken: bad RuRR (0x0000000OdaB00000-0x0000000OdfffffffI
                                        BIOS vendor: Dell Inc.: Ver: 1.4.9: Product Version:
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: IOAPIC id 2 under DRHD base Oxfed91000 IOMMU 1
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: HET id 0 under DRHD base Oxfed91000
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: Queued invalidation will be enabled to support »Zapic and Intr-remapping.
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: Enabled IRQ remapping in xZapic mode
Jul 06 18:30:24 server_f.project33.ca kernel: x86/cpu: SGX disabled bu BIOS.
Jul 06 18:30:25 server_f.project33.ca kernel: sd 0:0:0:0: Lsdb] Mo Caching mode page found
Jul 06 18:30:25 server_f.project33.ca kernel: sd 0:0:0:0: Lsdb] Assuming drive cache: write through
Jul 06 18:30:26 server_f.project33.ca systemdl11: Failed to mount /boot.
Jul 06 18:30:26 server_f.project33.ca systemd1]: Failed to start Crash recovery kernel arming.
Jul 06 18:30:26 server_f. project33.ca kernel: device-mapper: core: Cannot calculate initial queue limits
Jul 06 18:30:26 server_f.project33.ca systemdl1l: Failed to start LUM event activation on device 8:2

新しいファームウェアですが、同じエラーが発生します。に関連付けられているLUM event activation on device 8:2

## New BIOS OptiPlex_7040_1.23.0.exe
## Startup:

...
DSI mode with an ungated DDI clock, gate it
[ 2.8781271 1915 0000:00:02.0: [drm] [ENCODER:124:DDI E/PHY E] is disabled/in
DSI mode with an ungated DDI clock, gate it
[FAILED] Failed to start LUM event activation on device 8:2.
See "systemctl status lum2-puscan08:2.service" for details.
[ 2.879550] 1915 0000:00:02.0: [drml Finished loading MC firmware 1915/skl_d
mc_ver1_27 .bin (v1.27)
[ 2.885725] [drm] Initialized i915 1.6.0 20201103 for 0000:00:02.8 on minor B
You are in emergency mode.  After logging in, type "journalctl -xb" to view
system logs, "systemctl reboot" to reboot, "exit"
to boot into default mode.
[ 2.887900] ACPI: Video Device (GFX0] (multi-head: yes rom: no post: no)
[ 2.8882081 input: Video Bus as /devices/LNXSYSTM:00/LNXSYBUS:00/PMPDABB:BB/L
NXVIDED:00/input/input16
[ 2.8883351 snd hda_intel aBB0:00:1f .3: bound 0000:00:02.0 (ops i915_audio_co
mponent _bind_ops [i9151)
Give root password for maintenance
(or press Control-D to continue) :
2.899201] intel_rapl_common: Found RAPL oma in vackage
2.8992191 intel_rapl_common: Found RAPL domain core
2.8992211 intel rapl _common: Found RAPL domain uncore
2.899222] intel_rapl_common: Found RAPL domain dram
...
^d
[root@server_f ~]# systemctl status lum2-puscan@@:2.service
Unit lum2-puscan@8:2.service could not be found.
[root@server_f ~]#  

この問題を解決する方法がわかりません。scriptsポートスニッフィングのためにユーザーや重要な項目を変更したことはありません。

この問題をどのように解決できますか?

新製品OSで、うまく機能します。 BIOS部分とOSローディング以外のフィードバックを見ると、OSの問題に近いと思いますAlmaLinux 8.6

更新:更新された結果ですBIOS。リリース後、出力で赤で強調表示されますPOST

Jul 07 16:11:54 server_f.local kernel: x86/epu: SGX disabled by BIOS.
Jul 07 16:11:56 server_f.project33.ca systemd1l: Failed to mount /boot.
Jul 07 16:11:56 server_f.project33.ca systemdl1l: Failed to start Crash recovery kernel arming.
Jul 07 16:11:56 server_f project33.ca kernel: device-mapper: core: Cannot calculate initial queue limits
Jul 07 16:11:56 server_f .project33.ca systemdl1l: Failed to start LUM event activation on device B:2.
Jul 07 16:12:06 server_f.project33.ca systemdI11: Failed to mount /boot.
Jul 07 16:12:06 server_f.project33.ca systemdl1l: Failed to start Crash recovery kernel arming.

開始メッセージ:

FAILED] Failed to start LVM event activation on device 8:2.
See "systemctl status lvm2-puscan@B:2.service' for details.
[ OK  ] Mounted /home

[rootlserver_f ~]# systemctl status lvm2-puscan@8:2.service
• lvm2-puscan8:2. service - LUM event activation on device 8:2
Loaded: loaded (/usr/lib/systemd/system/[email protected]; static: vendor preset: disabled)
Active: Palled (Result: exit-code) since Thu 2022-07-07 16:27:46 EDT: 57s ago
Docs: man: puscan(8)
Main PID: 889 (code=exited, status=5)

Jul 07 16:27:46 server_f.project33.ca lvm[889]:  puscan8891 UG rl not using quick activation.
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  WARNING: Device /dev/sda2 has size of 486297600 sectors which is smaller than corresponding PU size of 998115328 sectors. Was device resized?
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  WARMING: One or more devices used as PUs in UG rl have changed sizes.
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  device-mapper: reload loctl on (253:4) failed: Invalid argument  
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  device-mapper: reload ioctl on (253:4) failed: Invalid argument
Jul 07 16:27:46 server_f.project33.ca lvm[8891:  1 logical volume(s) in volume group "rl" now active
Jul 07 16:27:46 server_f.project33.ca lvm[889]:  puscan[8891 rl: autoactivation failed.
Jul 07 16:27:46 server_f .project33.ca systemd1]:  lumZ-puscan08:2.service: Main process exited, code=exited, status-5/NOTINSTALLED
Jul 07 16:27:46 server_f .project33.ca systemd[11: lum2-puscan@8:2.service: Failed with result *exit-cade"
Jul 07 16:27:46 server_f .project33.ca systemdl11: Failed to start LUM event activation on device 8:2.

[root&server_f ~] lsblk
NAME                      MAJ:MIN  RM    SIZE       RO  TYPE  MOUNTPOINT
sda                         8:0     0     447G      0   disk
|-sda1                      8:1     0       1G      0   part
|-sda2                      8:2     0     231.9G    0   part
  |-r1-swap               253:3     0      15.7G    0   lvm
nvmeOn1                   251:0     0     232.9G    0   disk
|-nume0n1p1               259:1     0       1G      0   part
|-nume0n102               259:2     0     231.9G    0   part
  |-almalinux server_f-root.   253:0     0       70G     0   lvm   /
  |-almalinux server_f-swap   253:1     0      15.7G    0   lvm   [SWAP]
  |-almalinux server_f-home   253:2     0     146.2G    0   lvm   /home

何か間違っているようですsda2。だから取り出して別のボックスでフォーマットしました。同じ問題です。Failed to mount /boot. ボックスからドライブを取り出し、ブートnvmeボリュームだけを残しました。同じ問題です。/boot何らかの理由でインストールされていません。

[rootlfuf ~]# dmesg | grep -i mount
[0.019538] Mount-cache hash table entries: 65536 (order: 7, 524288 bytes, vmalloc)
[0.019726] Moumtpoint-cache hash table entries: 65536 (order: 7, 524288 bytes, umalloc)
[1.825407] XPS (dm-@): Mounting V5 Filesystem
[1.834948] XFS (dm-8): Ending clean mount
[2.322309] XTS (numeßn1p1): Mounting V5 Filesystem
[2.343868] XFS (numeßn1p1): Corruption warning: Metadata has LSN (1:3869) ahead of current LSM (1:3835). Please unmount and run x's repair (>= V4.3) to resolve.
[2.344044] XFS (numeßn1p1): log mount/recovery failed: error -22
[2.344227] XTS (numeln1p1) : log mount failed
[2.679073] XFS (dm-2) : Mounting VS Filesystem
[2.698961] XPS (dm-2): Ending clean mount
[6.938996] XFS (nume0n1p1): Mounting V5 Filesystem
[6.960104] XFS (nume0n1p1): Corruption warning: Metadata has LSN (1:3869) ahead of current LSN (1:3835). Please unmount and run x's repair (>= V4.3) to resove.
[6.960142] XFS (nume0n1p1) :log mount/recovery failed: error -22
[6.960346] XTS (nume@n1p1): log mount failed

金曜日の朝には起動可能で、新しいストレージがインストールされていますSSD

/dev/mapper/almalinux_server_f-root /                       xfs     defaults        0 1
# UUID=83cfc468-ecce-4188-aef4-e53cea90655a /boot                   xfs     defaults        0 0
/dev/mapper/almalinux_server_f-home /home                   xfs     defaults        0 0
/dev/mapper/almalinux_server_f-swap none                    swap    defaults        0 0

# A backup drive since added
UUID=f6db13da-ef71-4252-aab4-4f51f90ce6f7   /mnt/backups    ext4    defaults    0   2

/bootインストールされていません:

 lsblk
NAME                   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                      8:0    0   477G  0 disk
└─sda1                   8:1    0   477G  0 part /mnt/backups
nvme0n1                259:0    0 232.9G  0 disk
├─nvme0n1p1            259:1    0     1G  0 part
└─nvme0n1p2            259:2    0 231.9G  0 part
  ├─almalinux_fuf-root 253:0    0    70G  0 lvm  /
  ├─almalinux_fuf-swap 253:1    0  15.7G  0 lvm  [SWAP]
  └─almalinux_fuf-home 253:2    0 146.2G  0 lvm  /home

故障したようですので、log修正して修理する必要があります。

[2022_Jul_8 06:25:18 rich@fuf ~] sudo xfs_repair -L /dev/nvme0n1p1
Phase 1 - find and verify superblock...
Phase 2 - using internal log
        - zero log...
ALERT: The filesystem has valuable metadata changes in a log which is being
destroyed because the -L option was used.
        - scan filesystem freespace and inode maps...
        - found root inode chunk
Phase 3 - for each AG...
        - scan and clear agi unlinked lists...
        - process known inodes and perform inode discovery...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
        - process newly discovered inodes...
Phase 4 - check for duplicate blocks...
        - setting up duplicate extent list...
        - check for inodes claiming duplicate blocks...
        - agno = 0
        - agno = 1
        - agno = 2
        - agno = 3
Phase 5 - rebuild AG headers and trees...
        - reset superblock...
Phase 6 - check inode connectivity...
        - resetting contents of realtime bitmap and summary inodes
        - traversing filesystem ...
        - traversal finished ...
        - moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
Maximum metadata LSN (1:3869) is ahead of log (1:2).
Format log to cycle 4.
done
[2022_Jul_8 06:25:27 rich@fuf ~] sudo mount -a
[2022_Jul_8 06:25:43 rich@fuf ~] lsblk
NAME                   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                      8:0    0   477G  0 disk
└─sda1                   8:1    0   477G  0 part /mnt/backups
nvme0n1                259:0    0 232.9G  0 disk
├─nvme0n1p1            259:1    0     1G  0 part /boot
└─nvme0n1p2            259:2    0 231.9G  0 part
  ├─almalinux_fuf-root 253:0    0    70G  0 lvm  /
  ├─almalinux_fuf-swap 253:1    0  15.7G  0 lvm  [SWAP]
  └─almalinux_fuf-home 253:2    0 146.2G  0 lvm  /home

/dev/nvme0n1: PTUUID="df549f07" PTTYPE="dos"
/dev/nvme0n1p1: UUID="83cfc468-ecce-4188-aef4-e53cea90655a" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="df549f07-01"
/dev/nvme0n1p2: UUID="i75kzm-ywmo-kblc-qVub-OAXc-oKPN-hmMtne" TYPE="LVM2_member" PARTUUID="df549f07-02"
/dev/sda1: UUID="f6db13da-ef71-4252-aab4-4f51f90ce6f7" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="cb238e81-b4d2-ba41-8a4c-19f01ea2cfd5"
/dev/mapper/almalinux_fuf-root: UUID="d0aab1dc-6d0a-4a36-b6ff-65853f73490f" BLOCK_SIZE="512" TYPE="xfs"
/dev/mapper/almalinux_fuf-swap: UUID="fb98b19f-a542-416b-8708-a397f2e5ca3b" TYPE="swap"
/dev/mapper/almalinux_fuf-home: UUID="f74e1ac0-2e82-430a-a588-169d4f487cf5" BLOCK_SIZE="512" TYPE="xfs"

答え1

これらの[Firmware Bug]メッセージは通常、カーネル開発者がシステムファームウェア開発者に送信する公開手紙に似ています。 「仕様に従ってください。そうすれば、汚れた解決策を考案する必要はありません。」問題がBIOSアップデートの直後に発生しない限り、これらのメッセージは発生しない可能性があります。問題の根本原因。

ただし、これは次のようになります。

Jul 06 18:30:26 server_f.project33.ca systemdl11: Failed to mount /boot.

/boot通常のシステム起動プロセスを妨げるファイルシステムに問題があるようです。これはブートローダとカーネルの更新にのみ必要なので、/boot一時的にコメントアウトして/bootシステム/etc/fstabを正常な状態にすることができるかどうかを確認できます。成功すると、トラブルシューティングが/boot簡単になります。

NVMe システムディスクが若干破損しているか死に始めることがあります。残念ながら、SSDデバイスでエラーが発生し始めると、何が起こるのかを既存のHDDほど予測できません。 SSDにエラーが発生すると、実際の警告信号なしで完全に消えることがあります。

あなたのNVMe SSDがまだ機能しているという事実は感動的に見えるかもしれませんが、あなたの立場では本物他のメディアにバックアップされていないデータについて心配してください。システムに非常に重要なものが含まれている場合は、そのNVMe SSDを別のシステムに2番目のディスクとして接続し、まだアクセス可能なすべてをバックアップする方法を見つけることをお勧めします。できるだけ早く別のことをする前に。

NVMe SSDの状態を評価するには、smartctl -x /dev/nvme0rootとして実行してヘッダーの後に表示される内容を確認してください=== START OF SMART DATA SECTION ===

コマンドが使用できない場合は、nvme smart-log /dev/nvme0基本的に同じデータを提供し、nvme error-log /dev/nvme0最近検出された多くのエラー(存在する場合)に関する追加の詳細を提供する必要があります。


だから一時的に注釈処理をすることでシステムが登場するようになった/bootようです。/etc/fstab/etc/fstab今存在している自分を見ることが役に立つかもしれません。推測の必要性を最小限に抑えるでしょう。)

このメッセージは、Failed to start LVM event activation on device 8:2メジャー番号が8番、マイナー番号が2番のブロックデバイスを示します/dev/sda2。これは別の問題であるように見え、システムからディスクを削除したため、メッセージは表示されなくなります。

エラーメッセージを参照してください。 XFS (nvme0n1p1): Corruption warning: Metadata has LSN (1:3869) ahead of current LSN (1:3835). Please unmount and run xfs_repair (>= V4.3) to resolve.

/etc/fstabこれは、/bootあなたがパーティションに直接存在することを示しているようです/dev/nvme0n1p1いいえLVM論理ボリュームとして。

nvme0n1p1あなたのシステムがあると仮定し、/bootシステムを実行して削除したので、/bootこのメッセージが提案したとおりに実行できます。最初に実行して、xfs_repair -V修復ツールのバージョンが4.3.0以上であることを確認し、その場合は実行してくださいxfs_repair /dev/nvme0n1p1

次の内容が表示されることがあります。

ERROR: The filesystem has valuable metadata changes in a log which needs to be replayed. 
Mount the filesystem to replay the log, and unmount it before re-running xfs_repair. 
If you are unable to mount the filesystem, then use the -L option to destroy the log and attempt a repair.
Note that destroying the log may cause corruption — please attempt a mount of the filesystem before doing this.

その場合は、このメッセージを印刷する前に問題が解決した/boot場合に備えてインストールしてみてください。xfs_repairファイルシステムをマウントできない場合(以前の試みが間違いなく成功しなかったため)、メッセージに従って実行してくださいxfs_repair -L /dev/nvme0n1p1

出力はblkidLVMTYPE="LVM2_member物理ボリューム(単にPV)を表します。ファイルシステムではないため、マウントできませんが、1つ以上のファイルシステムまたはその一部であるコンテナーにすることができます。パーティションにはルートファイルシステム、スワップ領域、およびファイルシステムが含まれているよう/dev/nvme0n1p2に見えますが、実際にはそうではありません。TYPE="LVM2_member"/home/boot

ファイルシステムUUID自体は変更されません。これを変更するには、mkfsパーティションまたはLVM論理ボリュームを再フォーマットするか(実際にはその中の既存のすべてのデータが失われる)、ファイルシステム固有のツールを使用してファイルシステムに新しいUUIDを割り当てる必要があります。したがって/boot、inのUUIDは、UUID自体が破損している場合、または以前にファイルシステムについて知らされていなかった操作を実行した/etc/fstab場合を除き、変更する必要はありません。/etc/fstab/boot


もし /dev/nvme0n1p1も表示されると、TYPE="LVM2_member"これは/bootそのコマンドでファイルシステムを上書きしたことを意味しますpvcreate /dev/nvme0n1p1。もしそうなら、それは確かに腐敗を説明します。

それにもかかわらず、上記のxfs_repairプロセスを介してファイルシステムをマウントできるように回復できなかった場合、最後の手段は/bootファイルシステムを最初から再構築することです。

このプロセスは正常に完了するまでシステムを起動できないため、途中で再起動しないでください。まず、を使用して破損したファイルシステムを再フォーマットし(誤ってはいけません。破壊的です)を/boot使用して新しいUUIDを確認し、エントリを再度有効にし、そのUUIDを新しいエントリに変更します。mkfs.xfs /dev/nvme0n1p1lsblk -o +UUID /dev/nvme0n1p1/boot/etc/fstabmount /boot

その後、パッケージマネージャを使用します。再インストール現在インストールされているすべてのカーネルパッケージ:パッケージ管理ツールは、不足しているファイルを置き換えている可能性があるファイルを上書きするために、「はい、データベースにすでにこのパッケージがインストールされているとマークされていますが、とにかくファイルを再構築します」と効果的に通知します。には特定のオプションが必要です。破損しています。」

完了したら、grub2-install /dev/nvme0n1以下を使用してブートローダを再インストールします。存在することを確認し、インストールされている/boot/grub2/grub.cfgカーネルのバージョンを含めます。grub2-mkconfig > /boot/grub2/grub.cfg必要に応じて構成を再構築します。この時点でシステムを再起動できる必要があります。

関連情報