drbd

分散ストレージのレプリケーションパフォーマンスについて
drbd

分散ストレージのレプリケーションパフォーマンスについて

分散ストレージソリューション(私の場合はLinstor / DRBD)でレプリケーションを使用するときのパフォーマンスを理解するのが困難です。 それぞれ10個のNVMeを持つ3つのストレージノードがあります。各 NVMe の書き込みパフォーマンスは 200,000 IOPS であるため、1 つのストレージノードの合計 IOPS は 2M です。レプリケーション 1x を使用する場合、総書き込みパフォーマンスは予想どおり各ストレージノードで約 1M8 です。ただし、レプリケーション3xを使用すると、各ノードの書き込みパフォーマンスが800kで停止し、物理NVM...

Admin

Hot Standby アーキテクチャのためのデータ複製方法
drbd

Hot Standby アーキテクチャのためのデータ複製方法

私はストレージとファイルシステムの世界に比較的慣れていません(正しい言語を使用していない場合はご了承ください)、現在の常時スタンバイ構成(ファイル使用可能な設定など)を実装する方法を研究しています。 2つの異なるマシンを同時に使用して、フェイルオーバー時にスタンバイホストが引き継がれるようにします(この質問はデータ複製に関するものです)。いいえフェイルオーバーオーケストレーション)。しかし、さまざまなアプローチの長所と短所については少し混乱しています。 これまで私が行った研究によると、2つの異なるアプローチを取ることができるようです。 DRBD +一部の共...

Admin

Pacemakerで特定ノードのアップグレードを防止
drbd

Pacemakerで特定ノードのアップグレードを防止

3つのノードを持つdrbd + pacemakerクラスタがあり、そのうちの1つは定足数デバイス専用です。アップグレード可能なdrbd-resourceは3つのデバイスすべてで実行する必要がありますが、アービトレーションデバイスでは絶対にアップグレードされないようにペースメーカーリソースを設定しようとしています。リソースに位置制限を設定しようとしましたが、これにより、Pacemakerが定足数デバイスでリソースをまったく起動できなくなり、drbdがフェイルオーバー中に定足数を維持できなくなりました。 希望の状態は次のとおりです。 drbd リソースは、3 ...

Admin

Cephの上にあるDRBD
drbd

Cephの上にあるDRBD

CephプールからDRBDを直接実行できますか? ファイルがディスクに直接保存されるバックアップシステムがあります。 Cephは、オフサイトバックアップシステムのすべてのディスクにインストールおよび構成されています。 オフサイトのバックアップシステムにバックアップデータの2番目のコピーをしたいのですが、DRBDとCephが実行されている「レイヤ」については少し混乱しています。オフサイトバックアップシステムでRBDプールを作成し、ここに直接DRBDを設定できますか?それとも、Cephを使用してVMを実行し、VMでDRBDを抽象化層として構成する必要がありますか...

Admin

DRBDサービスとdrbdadm
drbd

DRBDサービスとdrbdadm

DRBD v9.17(カーネル v9.1.4) drbdサービスとして実行するときとツールを手動で使用するときの一般的な役割を理解しようとしていますdrbdadm。これは、オンラインで見たいくつかの練習よりも新しいようです。 このサービスとツールはいつ使用する必要があり、drbdadmフェイルオーバー制御pacemakerに関してどこに適していますか?drbd リソースを手動で作成して起動しdrbdadmたところ、UPToDatestatusコマンドを使用して両方のノードに表示されます。フェールオーバーのために、ペースメーカーでその機能を実装する方法を知る必...

Admin

以前は、ホストが正常に動作していても、ホストに突然pingを送信することはできず、その逆も同様です。
drbd

以前は、ホストが正常に動作していても、ホストに突然pingを送信することはできず、その逆も同様です。

以前は機能していましたが、特定のホストから$B特定のホストにpingを送信することはできません。$A [A] ping $B--> ターゲットホストにアクセスできません。 [B]ping $A有効です。 [C]はping $B有効です。 [1]traceroute $B結果: 1. $B 3005.339 ms !H 3005.277 ms !H 3005.250 ms !H ホスト$Bには2つのイーサネットインターフェイス(eth0デフォルトではeth1- for drbd、DEFROUTE=nofor eth1)があり、マスターノードとして...

Admin

フェイスメーカー+ Corosync + DRBD + Samba + NFS
drbd

フェイスメーカー+ Corosync + DRBD + Samba + NFS

皆さん、こんにちは、 共有リソースClusterIP、ClusterSamba、ClusterNFS、DRBD(複製リソース)、およびDRBDFSを使用して2つのPCクラスタを設定しようとしています。プロジェクトはから始まりました。クラスタを最初から起動する。このガイドのすべてが完了したら、問題なく動作します。したがって、このガイドのいくつかのチャンクを使用して、プロジェクト内のノードに自動的に割り当てられる共有IP(ClusterIP)を設定し、そのノード(開始位置:/)に/dev/drbd1デバイスを/ exportsにマウントしようとしています。 、...

Admin

DRBD: フェイルオーバーまたはノードの再始動時に「デバイス [/dev/drbd0] を /mydata としてマウントできません。」
drbd

DRBD: フェイルオーバーまたはノードの再始動時に「デバイス [/dev/drbd0] を /mydata としてマウントできません。」

CentOS 7サーバーはそれぞれ、2つのESXiホストを使用してクラスター化システムを作成しています。 ファイルシステムを作成しnode1、 。 スタンバイまたは再起動を実行すると、フェールオーバーがnode01正しく機能しますnode02。ただし、node02連続して実行すると、node01ファイルシステムをマウントできないというリソースエラーが返されます。/mbdata 私は次のメッセージを受け取りました: Failed Resource Actions: * mb-drbdFS_start_0 on node01 'unknown error...

Admin

PCを使用したフェイルオーバーにより、ソースサーバーでDRBDディスクが使用できなくなります。 「該当リソースなし」
drbd

PCを使用したフェイルオーバーにより、ソースサーバーでDRBDディスクが使用できなくなります。 「該当リソースなし」

私はDRBD、PCSを使用して2ノードクラスタを実行しています。 virtual_IP と DRBD を設定すると、ディスクは最初のノードで正常に動作します。その後、プライマリノードで「pcsクラスタの停止」を使用してフェイルオーバーをテストし、ディスクと仮想IPを2番目のノードに正しく移行しました。 ただし、最初のノードではディスクが使用できなくなります。 drbdadm status Error: cluster is not currently running on this node opt_disk: No such resource Comm...

Admin

Pacemakerクラスタサービスは正常に起動できず、ファイルシステムをマウントできません。
drbd

Pacemakerクラスタサービスは正常に起動できず、ファイルシステムをマウントできません。

DRBDとPacemakerを含むRHEL 7.5には3ノードMySQLクラスタがあります。クラスタの起動後、次のエラーが発生します。どうすればこの問題を克服できますか? [root@db1 ~]# pcs status Cluster name: mysql_cluster Stack: corosync Current DC: db2 (version 1.1.18-11.el7-2b07d5c5a9) - partition with quorum Last updated: Sun May 19 01:41:05 2019 Last change:...

Admin

再起動後、DRBDはConnected Diskless / Disklessと一緒に表示されます。
drbd

再起動後、DRBDはConnected Diskless / Disklessと一緒に表示されます。

停電後に大きな問題が発生し、毎回再起動データベースRB提案するディスクレス/ディスクレス接続状態。 主な問題: dump-md応答:「汚れた」メタデータが見つかりました。 apply-al コマンドは、open(/dev/nvme0n1p1) failed: Device or Resource is busy メッセージとともに終了コード 20 で終了します。 drbd リソース構成は単独で開くことはできません。 環境について: この drbd リソースは通常 lvm のブロックストレージとして使用され、proxmo...

Admin

crm-fence-peerスクリプトを使用した分割ブレインの回復
drbd

crm-fence-peerスクリプトを使用した分割ブレインの回復

スクリプトを使用して、両方のノードにcrm-fence-peer.9.shDRBDリソースレベルの保護を実装しました。crm-unfence-peer.9.sh これで、ラップノードで次の動作が発生します。 どちらのノードもオンラインotrs1です。otrs2 リソースが実行中です。otrs1 drbdadm status otrs1主な役割を果たすこととotrs2小さな役割を果たすことによって 再起動すると、次のメッセージが表示されますotrs1。otrs2 リソースが次に移動したことを確認できますotrs2。 生成された位置...

Admin

編集する
drbd

編集する

CentOS 7カーネルバージョン3.10.0-957.el7.x86_64 drbd 9.0.16-1 リソースを設定します。 drbdサービスが起動時に起動するようにアクティブになっていません。両方のノードを再起動しました。私が実行してsystemctl start drbd得た最初のノード 「DRBDの起動スクリプトは、ピアが表示されるのを待ちます。 今実行すると、systemctl start drbd次のようになります。 drbdデータ:debugfs dentryを作成できません。 編集する drbdadm up resource_nam...

Admin

DRBD 9内部メタデータとmakef
drbd

DRBD 9内部メタデータとmakef

以下は、2ノードDRBD 9設定を作成するために実行した手順です。 LVMの作成 各ノードに内部メタデータを作成するdrbdadm create-md 'resourcename' 各ノードでリソースを呼び出すdrbdadm up 'resourcename' そのうちの1つをdrbdadm primary --force 'resourcename'マスターノードにプロンプ​​トします。 また二次にしてくださいdrbdadm secondary 'resourcename' フォーマット済みmakefs.ext4 /dev/drbd1 私の質問は、...

Admin

DRBDノードの基本的な役割は何ですか
drbd

DRBDノードの基本的な役割は何ですか

次のように、2ノードDRBDクラスタで1つのノードをアップグレードしました。 Debian の再インストール apt-get install drbd-utils systemctl start drbd /etc/drbd.d/my_resource.resバックアップからインポート diskDRBDリソースのブロックデバイス()とIPアドレスの設定 systemctl reload drbd この時点でDRBDは再同期を開始し、クラスタは再び動作します。 私の質問は、現在のノードがDRBDプライマリノードまたはセカンダリノードとして機能するかど...

Admin