複製されたGlusterボリュームを持つ2つのノードがあります。次に、3 番目のノードは、/etc/fstab で次のマウント文字列を使用してボリュームをマウントします。
node1,node2:/gv0 /glustermount glusterfs defaults 0 0
また、次のように、1つまたは2つのサーバーをバックアップvolfileサーバーとして追加しようとしました。
node1,node2:/gv0 /glustershare glusterfs defaults,backup-volfile-servers=node2:/gv0:node1:/gv0 0 0
ボリュームが正しくマウントされ、ノード3の内容を一覧表示できます。私の期待は、ノード1またはノード2を再起動できることです。一度に 1 つずつ再起動し、完全に起動し、完全に使用するのに十分な時間を与えれば、ノード 3 へのアクセス権を失うことはありません。
node1を再起動すると、問題なくリストを作成できます。 node1が完全に再起動して使用可能になったら(長い時間待って「glusterボリュームステータス」応答にオンラインでリストされていることを確認しました)、node2を再起動します。私はすぐに乗ることを失った。どんなに待っても戻りません。ただし、現在または後で「mount /glustermount」を使用して再マウントすることができ、ノード1のみが使用可能な状態に正常に再マウントされます(ノード2がダウンしているか再起動中)。
私の設定に問題がありますか?それとも予想される動作ではありませんか? NFSと比較してサーキットブレーカクライアントを使用する最大の利点は、一部のパフォーマンスを犠牲にして自動フェイルオーバーを実行できることです。
ノード 1 を再起動すると、ノード 3 の Gluster ログに次の見積もりが表示されます。
failed to connect with remote-host: node1 (No data available)
connecting to next volfile server node2
したがって、後でnode2を再起動すると、同様の逆エントリが表示されると予想されますが、代わりに表示される内容は次のとおりです。
Exhuasted all volfile servers
Unmounting '/glustermount'
では、なぜnode1を使用可能なvolfileサーバーとして表示しませんが、mountコマンドを再実行すると正しくマウントされ、node1のみを使用できますか?