ネットワーク転送速度とハードウェア制限テスト

ネットワーク転送速度とハードウェア制限テスト

これはややコンピュータエンジニアリングとネットワークエンジニアリングの質問ですが、Linuxベースです。なし主にLinuxオペレーティングシステムを介して使用されます。私のハードウェアでLinuxオペレーティングシステムを使用するときに発生する速度制限を理解したいと思います。

無制限のブロードバンド(mellanox) QDR、FRD、EDR、HDRなど、さまざまなデータレートがリリースされました.

HDRは現在100 Gbpsまたは200 Gbpsで動作しています(2021年ベースのMellanox広告を参照)。

以下でiperf使用rhel 7.9IPoIBiperfが報告した最大転送速度は24.0Gbpsです(TCPを介して考えられます)。 100Gbpsネットワークでは速度が24%であるのに対し、1Gbpsネットワークでは報告された速度が942Mbpsで94%でした。

私の質問は:infinbandがHDRから将来のNDRとXDRに発展するにつれて、GBPSが何であれ、ボトルネックポイントがどこであるかを報告または計算できますか?たとえば、SSHscpテストを実行しましたが、SSHパスワードの選択により、転送速度は1.600hbpsから最大5.6gbps(200MB / sまたは700MB / s)でした。これは、CPU処理と選択した暗号化方式を実行する処理能力。

100Gbps inifibandネットワーク速度に関連するCPU/DDR4 RAM/チップセット/PCIeレーン制限値は何ですか?

現在、IntelまたはAMD [LGA1200またはLGA3647およびPCIe 3.0を使用しているチップセット? ] Mellanox Infinebandカードにビットを接続する速度はどのくらいですか?

Linux [RHEL 7.9]でこの種のものをテストするにはどうすればよいですか? iperfは最高どのように?

答え1

InfiniBand(少なくともMellanoxハードウェア)は、CPUオフロードを使用して、過度のCPU負荷なしで非常に高いスループットを達成します。 InfiniBand Verb Performance Testを使用すると、生の速度をうまくテストできます。完全なテストパッケージ(例:ib_write_bw測定データレートは通常、指定された接続速度の95%を超えます。

iperfツールはデフォルトで単一のTCP接続を使用します。これはここで主なボトルネックです。 TCP接続はCPU集約型であり、単一のTCP接続は高速InfiniBand接続を飽和させることはできません。複数のTCP接続を並列に使用(-Pオプションiperf)すると、マルチコアコンピュータはInfiniBandネットワークデータレートに近づくことができます。ただし、通常、TCP接続はオーバーヘッドが高いため、高速ネットワークには適していません。

関連情報