私Dell OptiPlex 7040そしてNVME M.2音量を上げます。動作したら急いでください。最近再起動しましたが表示されません。更新しましたバイオス、ログによると、これが悪いと思われるからです。
# BAD BIOS from `Journalctl -xb`
Jul 06 18:30:24 server_f.project33.ca kernel: MAR: [Firnuare Bug]: No firnuare reserved region can cover this RMRR [0x00000000dd800000-0x00000000dfffffffl, contact By
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR: [Firmware Bug]: Your BIOS is broken: bad RuRR (0x0000000OdaB00000-0x0000000OdfffffffI
BIOS vendor: Dell Inc.: Ver: 1.4.9: Product Version:
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: IOAPIC id 2 under DRHD base Oxfed91000 IOMMU 1
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: HET id 0 under DRHD base Oxfed91000
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: Queued invalidation will be enabled to support »Zapic and Intr-remapping.
Jul 06 18:30:24 server_f.project33.ca kernel: DMAR-IR: Enabled IRQ remapping in xZapic mode
Jul 06 18:30:24 server_f.project33.ca kernel: x86/cpu: SGX disabled bu BIOS.
Jul 06 18:30:25 server_f.project33.ca kernel: sd 0:0:0:0: Lsdb] Mo Caching mode page found
Jul 06 18:30:25 server_f.project33.ca kernel: sd 0:0:0:0: Lsdb] Assuming drive cache: write through
Jul 06 18:30:26 server_f.project33.ca systemdl11: Failed to mount /boot.
Jul 06 18:30:26 server_f.project33.ca systemd1]: Failed to start Crash recovery kernel arming.
Jul 06 18:30:26 server_f. project33.ca kernel: device-mapper: core: Cannot calculate initial queue limits
Jul 06 18:30:26 server_f.project33.ca systemdl1l: Failed to start LUM event activation on device 8:2
新しいファームウェアですが、同じエラーが発生します。に関連付けられているLUM event activation on device 8:2
:
## New BIOS OptiPlex_7040_1.23.0.exe
## Startup:
...
DSI mode with an ungated DDI clock, gate it
[ 2.8781271 1915 0000:00:02.0: [drm] [ENCODER:124:DDI E/PHY E] is disabled/in
DSI mode with an ungated DDI clock, gate it
[FAILED] Failed to start LUM event activation on device 8:2.
See "systemctl status lum2-puscan08:2.service" for details.
[ 2.879550] 1915 0000:00:02.0: [drml Finished loading MC firmware 1915/skl_d
mc_ver1_27 .bin (v1.27)
[ 2.885725] [drm] Initialized i915 1.6.0 20201103 for 0000:00:02.8 on minor B
You are in emergency mode. After logging in, type "journalctl -xb" to view
system logs, "systemctl reboot" to reboot, "exit"
to boot into default mode.
[ 2.887900] ACPI: Video Device (GFX0] (multi-head: yes rom: no post: no)
[ 2.8882081 input: Video Bus as /devices/LNXSYSTM:00/LNXSYBUS:00/PMPDABB:BB/L
NXVIDED:00/input/input16
[ 2.8883351 snd hda_intel aBB0:00:1f .3: bound 0000:00:02.0 (ops i915_audio_co
mponent _bind_ops [i9151)
Give root password for maintenance
(or press Control-D to continue) :
2.899201] intel_rapl_common: Found RAPL oma in vackage
2.8992191 intel_rapl_common: Found RAPL domain core
2.8992211 intel rapl _common: Found RAPL domain uncore
2.899222] intel_rapl_common: Found RAPL domain dram
...
^d
[root@server_f ~]# systemctl status lum2-puscan@@:2.service
Unit lum2-puscan@8:2.service could not be found.
[root@server_f ~]#
この問題を解決する方法がわかりません。scripts
ポートスニッフィングのためにユーザーや重要な項目を変更したことはありません。
この問題をどのように解決できますか?
新製品OS
で、うまく機能します。 BIOS部分とOSローディング以外のフィードバックを見ると、OSの問題に近いと思いますAlmaLinux 8.6
。
更新:更新された結果ですBIOS
。リリース後、出力で赤で強調表示されますPOST
。
Jul 07 16:11:54 server_f.local kernel: x86/epu: SGX disabled by BIOS.
Jul 07 16:11:56 server_f.project33.ca systemd1l: Failed to mount /boot.
Jul 07 16:11:56 server_f.project33.ca systemdl1l: Failed to start Crash recovery kernel arming.
Jul 07 16:11:56 server_f project33.ca kernel: device-mapper: core: Cannot calculate initial queue limits
Jul 07 16:11:56 server_f .project33.ca systemdl1l: Failed to start LUM event activation on device B:2.
Jul 07 16:12:06 server_f.project33.ca systemdI11: Failed to mount /boot.
Jul 07 16:12:06 server_f.project33.ca systemdl1l: Failed to start Crash recovery kernel arming.
開始メッセージ:
FAILED] Failed to start LVM event activation on device 8:2.
See "systemctl status lvm2-puscan@B:2.service' for details.
[ OK ] Mounted /home
[rootlserver_f ~]# systemctl status lvm2-puscan@8:2.service
• lvm2-puscan8:2. service - LUM event activation on device 8:2
Loaded: loaded (/usr/lib/systemd/system/[email protected]; static: vendor preset: disabled)
Active: Palled (Result: exit-code) since Thu 2022-07-07 16:27:46 EDT: 57s ago
Docs: man: puscan(8)
Main PID: 889 (code=exited, status=5)
Jul 07 16:27:46 server_f.project33.ca lvm[889]: puscan8891 UG rl not using quick activation.
Jul 07 16:27:46 server_f.project33.ca lvm[8891: WARNING: Device /dev/sda2 has size of 486297600 sectors which is smaller than corresponding PU size of 998115328 sectors. Was device resized?
Jul 07 16:27:46 server_f.project33.ca lvm[8891: WARMING: One or more devices used as PUs in UG rl have changed sizes.
Jul 07 16:27:46 server_f.project33.ca lvm[8891: device-mapper: reload loctl on (253:4) failed: Invalid argument
Jul 07 16:27:46 server_f.project33.ca lvm[8891: device-mapper: reload ioctl on (253:4) failed: Invalid argument
Jul 07 16:27:46 server_f.project33.ca lvm[8891: 1 logical volume(s) in volume group "rl" now active
Jul 07 16:27:46 server_f.project33.ca lvm[889]: puscan[8891 rl: autoactivation failed.
Jul 07 16:27:46 server_f .project33.ca systemd1]: lumZ-puscan08:2.service: Main process exited, code=exited, status-5/NOTINSTALLED
Jul 07 16:27:46 server_f .project33.ca systemd[11: lum2-puscan@8:2.service: Failed with result *exit-cade"
Jul 07 16:27:46 server_f .project33.ca systemdl11: Failed to start LUM event activation on device 8:2.
[root&server_f ~] lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 447G 0 disk
|-sda1 8:1 0 1G 0 part
|-sda2 8:2 0 231.9G 0 part
|-r1-swap 253:3 0 15.7G 0 lvm
nvmeOn1 251:0 0 232.9G 0 disk
|-nume0n1p1 259:1 0 1G 0 part
|-nume0n102 259:2 0 231.9G 0 part
|-almalinux server_f-root. 253:0 0 70G 0 lvm /
|-almalinux server_f-swap 253:1 0 15.7G 0 lvm [SWAP]
|-almalinux server_f-home 253:2 0 146.2G 0 lvm /home
何か間違っているようですsda2
。だから取り出して別のボックスでフォーマットしました。同じ問題です。Failed to mount /boot.
ボックスからドライブを取り出し、ブートnvme
ボリュームだけを残しました。同じ問題です。/boot
何らかの理由でインストールされていません。
[rootlfuf ~]# dmesg | grep -i mount
[0.019538] Mount-cache hash table entries: 65536 (order: 7, 524288 bytes, vmalloc)
[0.019726] Moumtpoint-cache hash table entries: 65536 (order: 7, 524288 bytes, umalloc)
[1.825407] XPS (dm-@): Mounting V5 Filesystem
[1.834948] XFS (dm-8): Ending clean mount
[2.322309] XTS (numeßn1p1): Mounting V5 Filesystem
[2.343868] XFS (numeßn1p1): Corruption warning: Metadata has LSN (1:3869) ahead of current LSM (1:3835). Please unmount and run x's repair (>= V4.3) to resolve.
[2.344044] XFS (numeßn1p1): log mount/recovery failed: error -22
[2.344227] XTS (numeln1p1) : log mount failed
[2.679073] XFS (dm-2) : Mounting VS Filesystem
[2.698961] XPS (dm-2): Ending clean mount
[6.938996] XFS (nume0n1p1): Mounting V5 Filesystem
[6.960104] XFS (nume0n1p1): Corruption warning: Metadata has LSN (1:3869) ahead of current LSN (1:3835). Please unmount and run x's repair (>= V4.3) to resove.
[6.960142] XFS (nume0n1p1) :log mount/recovery failed: error -22
[6.960346] XTS (nume@n1p1): log mount failed
金曜日の朝には起動可能で、新しいストレージがインストールされていますSSD
。
/dev/mapper/almalinux_server_f-root / xfs defaults 0 1
# UUID=83cfc468-ecce-4188-aef4-e53cea90655a /boot xfs defaults 0 0
/dev/mapper/almalinux_server_f-home /home xfs defaults 0 0
/dev/mapper/almalinux_server_f-swap none swap defaults 0 0
# A backup drive since added
UUID=f6db13da-ef71-4252-aab4-4f51f90ce6f7 /mnt/backups ext4 defaults 0 2
/boot
インストールされていません:
lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 477G 0 disk
└─sda1 8:1 0 477G 0 part /mnt/backups
nvme0n1 259:0 0 232.9G 0 disk
├─nvme0n1p1 259:1 0 1G 0 part
└─nvme0n1p2 259:2 0 231.9G 0 part
├─almalinux_fuf-root 253:0 0 70G 0 lvm /
├─almalinux_fuf-swap 253:1 0 15.7G 0 lvm [SWAP]
└─almalinux_fuf-home 253:2 0 146.2G 0 lvm /home
故障したようですので、log
修正して修理する必要があります。
[2022_Jul_8 06:25:18 rich@fuf ~] sudo xfs_repair -L /dev/nvme0n1p1
Phase 1 - find and verify superblock...
Phase 2 - using internal log
- zero log...
ALERT: The filesystem has valuable metadata changes in a log which is being
destroyed because the -L option was used.
- scan filesystem freespace and inode maps...
- found root inode chunk
Phase 3 - for each AG...
- scan and clear agi unlinked lists...
- process known inodes and perform inode discovery...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
- process newly discovered inodes...
Phase 4 - check for duplicate blocks...
- setting up duplicate extent list...
- check for inodes claiming duplicate blocks...
- agno = 0
- agno = 1
- agno = 2
- agno = 3
Phase 5 - rebuild AG headers and trees...
- reset superblock...
Phase 6 - check inode connectivity...
- resetting contents of realtime bitmap and summary inodes
- traversing filesystem ...
- traversal finished ...
- moving disconnected inodes to lost+found ...
Phase 7 - verify and correct link counts...
Maximum metadata LSN (1:3869) is ahead of log (1:2).
Format log to cycle 4.
done
[2022_Jul_8 06:25:27 rich@fuf ~] sudo mount -a
[2022_Jul_8 06:25:43 rich@fuf ~] lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 477G 0 disk
└─sda1 8:1 0 477G 0 part /mnt/backups
nvme0n1 259:0 0 232.9G 0 disk
├─nvme0n1p1 259:1 0 1G 0 part /boot
└─nvme0n1p2 259:2 0 231.9G 0 part
├─almalinux_fuf-root 253:0 0 70G 0 lvm /
├─almalinux_fuf-swap 253:1 0 15.7G 0 lvm [SWAP]
└─almalinux_fuf-home 253:2 0 146.2G 0 lvm /home
/dev/nvme0n1: PTUUID="df549f07" PTTYPE="dos"
/dev/nvme0n1p1: UUID="83cfc468-ecce-4188-aef4-e53cea90655a" BLOCK_SIZE="512" TYPE="xfs" PARTUUID="df549f07-01"
/dev/nvme0n1p2: UUID="i75kzm-ywmo-kblc-qVub-OAXc-oKPN-hmMtne" TYPE="LVM2_member" PARTUUID="df549f07-02"
/dev/sda1: UUID="f6db13da-ef71-4252-aab4-4f51f90ce6f7" BLOCK_SIZE="4096" TYPE="ext4" PARTUUID="cb238e81-b4d2-ba41-8a4c-19f01ea2cfd5"
/dev/mapper/almalinux_fuf-root: UUID="d0aab1dc-6d0a-4a36-b6ff-65853f73490f" BLOCK_SIZE="512" TYPE="xfs"
/dev/mapper/almalinux_fuf-swap: UUID="fb98b19f-a542-416b-8708-a397f2e5ca3b" TYPE="swap"
/dev/mapper/almalinux_fuf-home: UUID="f74e1ac0-2e82-430a-a588-169d4f487cf5" BLOCK_SIZE="512" TYPE="xfs"
答え1
これらの[Firmware Bug]
メッセージは通常、カーネル開発者がシステムファームウェア開発者に送信する公開手紙に似ています。 「仕様に従ってください。そうすれば、汚れた解決策を考案する必要はありません。」問題がBIOSアップデートの直後に発生しない限り、これらのメッセージは発生しない可能性があります。問題の根本原因。
ただし、これは次のようになります。
Jul 06 18:30:26 server_f.project33.ca systemdl11: Failed to mount /boot.
/boot
通常のシステム起動プロセスを妨げるファイルシステムに問題があるようです。これはブートローダとカーネルの更新にのみ必要なので、/boot
一時的にコメントアウトして/boot
システム/etc/fstab
を正常な状態にすることができるかどうかを確認できます。成功すると、トラブルシューティングが/boot
簡単になります。
NVMe システムディスクが若干破損しているか死に始めることがあります。残念ながら、SSDデバイスでエラーが発生し始めると、何が起こるのかを既存のHDDほど予測できません。 SSDにエラーが発生すると、実際の警告信号なしで完全に消えることがあります。
あなたのNVMe SSDがまだ機能しているという事実は感動的に見えるかもしれませんが、あなたの立場では本物他のメディアにバックアップされていないデータについて心配してください。システムに非常に重要なものが含まれている場合は、そのNVMe SSDを別のシステムに2番目のディスクとして接続し、まだアクセス可能なすべてをバックアップする方法を見つけることをお勧めします。できるだけ早く別のことをする前に。
NVMe SSDの状態を評価するには、smartctl -x /dev/nvme0
rootとして実行してヘッダーの後に表示される内容を確認してください=== START OF SMART DATA SECTION ===
。
コマンドが使用できない場合は、nvme smart-log /dev/nvme0
基本的に同じデータを提供し、nvme error-log /dev/nvme0
最近検出された多くのエラー(存在する場合)に関する追加の詳細を提供する必要があります。
だから一時的に注釈処理をすることでシステムが登場するようになった/boot
ようです。/etc/fstab
(/etc/fstab
今存在している自分を見ることが役に立つかもしれません。推測の必要性を最小限に抑えるでしょう。)
このメッセージは、Failed to start LVM event activation on device 8:2
メジャー番号が8番、マイナー番号が2番のブロックデバイスを示します/dev/sda2
。これは別の問題であるように見え、システムからディスクを削除したため、メッセージは表示されなくなります。
エラーメッセージを参照してください。
XFS (nvme0n1p1): Corruption warning: Metadata has LSN (1:3869) ahead of current LSN (1:3835). Please unmount and run xfs_repair (>= V4.3) to resolve.
/etc/fstab
これは、/boot
あなたがパーティションに直接存在することを示しているようです/dev/nvme0n1p1
。いいえLVM論理ボリュームとして。
nvme0n1p1
あなたのシステムがあると仮定し、/boot
システムを実行して削除したので、/boot
このメッセージが提案したとおりに実行できます。最初に実行して、xfs_repair -V
修復ツールのバージョンが4.3.0以上であることを確認し、その場合は実行してくださいxfs_repair /dev/nvme0n1p1
。
次の内容が表示されることがあります。
ERROR: The filesystem has valuable metadata changes in a log which needs to be replayed.
Mount the filesystem to replay the log, and unmount it before re-running xfs_repair.
If you are unable to mount the filesystem, then use the -L option to destroy the log and attempt a repair.
Note that destroying the log may cause corruption — please attempt a mount of the filesystem before doing this.
その場合は、このメッセージを印刷する前に問題が解決した/boot
場合に備えてインストールしてみてください。xfs_repair
ファイルシステムをマウントできない場合(以前の試みが間違いなく成功しなかったため)、メッセージに従って実行してくださいxfs_repair -L /dev/nvme0n1p1
。
出力はblkid
LVMTYPE="LVM2_member
物理ボリューム(単にPV)を表します。ファイルシステムではないため、マウントできませんが、1つ以上のファイルシステムまたはその一部であるコンテナーにすることができます。パーティションにはルートファイルシステム、スワップ領域、およびファイルシステムが含まれているよう/dev/nvme0n1p2
に見えますが、実際にはそうではありません。TYPE="LVM2_member"
/home
/boot
ファイルシステムUUID自体は変更されません。これを変更するには、mkfs
パーティションまたはLVM論理ボリュームを再フォーマットするか(実際にはその中の既存のすべてのデータが失われる)、ファイルシステム固有のツールを使用してファイルシステムに新しいUUIDを割り当てる必要があります。したがって/boot
、inのUUIDは、UUID自体が破損している場合、または以前にファイルシステムについて知らされていなかった操作を実行した/etc/fstab
場合を除き、変更する必要はありません。/etc/fstab
/boot
もし /dev/nvme0n1p1
も表示されると、TYPE="LVM2_member"
これは/boot
そのコマンドでファイルシステムを上書きしたことを意味しますpvcreate /dev/nvme0n1p1
。もしそうなら、それは確かに腐敗を説明します。
それにもかかわらず、上記のxfs_repair
プロセスを介してファイルシステムをマウントできるように回復できなかった場合、最後の手段は/boot
ファイルシステムを最初から再構築することです。
このプロセスは正常に完了するまでシステムを起動できないため、途中で再起動しないでください。まず、を使用して破損したファイルシステムを再フォーマットし(誤ってはいけません。破壊的です)を/boot
使用して新しいUUIDを確認し、エントリを再度有効にし、そのUUIDを新しいエントリに変更します。mkfs.xfs /dev/nvme0n1p1
lsblk -o +UUID /dev/nvme0n1p1
/boot
/etc/fstab
mount /boot
その後、パッケージマネージャを使用します。再インストール現在インストールされているすべてのカーネルパッケージ:パッケージ管理ツールは、不足しているファイルを置き換えている可能性があるファイルを上書きするために、「はい、データベースにすでにこのパッケージがインストールされているとマークされていますが、とにかくファイルを再構築します」と効果的に通知します。には特定のオプションが必要です。破損しています。」
完了したら、grub2-install /dev/nvme0n1
以下を使用してブートローダを再インストールします。存在することを確認し、インストールされている/boot/grub2/grub.cfg
カーネルのバージョンを含めます。grub2-mkconfig > /boot/grub2/grub.cfg
必要に応じて構成を再構築します。この時点でシステムを再起動できる必要があります。