Linuxでのロードバランシングソリューション

Linuxでのロードバランシングソリューション

この問題に対する正しいソリューションを実装するには、提案が必要です。

上の図に示すように、インターネットを介して外部のサードパーティプロバイダと通信する必要がある2つのアプリケーションサーバーがあります。現在の設定は非常に簡単で、ファイアウォールにはリモートプロバイダを持つptp VPNサーバーがあり、アプリケーションは一時的なファイアウォールルールを使用してリモートホストを直接呼び出すことによってptp VPNを介してリモートホストと通信できます。

図1

実際のリモートホストには、世界中の2つの異なるパブリックIPがあるため、この構成には冗長性はありません。問題は、リモートホストIP 1がダウンしてもすべては機能しませんが、ファイアウォールはリアルタイムで別のIPに切り替えて、一種のNATを提供するほど「スマート」ではないということです。だから私の考えは、これらのすべてのロジックを別のホストにインストールされているレイヤー4/7ロードバランサーにインストールされているソフトウェアに移動することです。したがって、2つのアプリケーションサーバーはローカルネットワークの仮想IPを呼び出す必要があり、ロードバランサーは次の場合に自動的に切り替えられます。アプリケーションに対して完全に透過的な方法で、ノード1からノード2へのエラーを防ぎます(下記の図を参照)。

図2

とにかく私の質問は:私の要件に合わせてロードバランサーにどのソフトウェアを使用する必要がありますか? IPLVS+Keepalived などを検討しています。誰でも良い提案があれば大変感謝します。システムはRed Hat 5に基づいており、アプリケーションサーバーはJboss 5であり、Cisco ASAをファイアウォールとして使用します。 :)

(PSこの設定は1週間以内に完了する必要があります。)

答え1

まあ、それは実際にあなたが達成したいものに依存します。

2つのWebサーバー(複数のアクティブスキーマ)間にロード(およびクライアント要求)を分散しますか?それとも、Webサーバーエラーが発生した場合は「完全」冗長性のみが必要ですか?

冗長性の面だけが必要で、負荷分散が心配されない場合は、以下を使用することをお勧めします。脈拍調整装置これを達成するために。

デフォルトでは、実行する必要があるjbossおよび他のサービスのリソースグループを定義する必要があります。要因これはアクティブWebサーバーの冗長エントリポイントとして機能します。

関連情報