私のプロジェクトには、非常に低速のCDMAセルラーモデムを介してインターネットを介して通信するリモートLinuxノードがあります。これらのモデムの帯域幅は約2kbyte /秒で、サーバーに戻るRTTは約800msです。
これらの制限に基づいてこのパフォーマンスに合わせてLinux TCPスタックを調整すると、どのような利点がありますか?たとえば、私は最近プラグイン輻輳制御アルゴリズムを発見し、よりうまく動作するデフォルト以外のアルゴリズムがあるかどうか疑問に思いました。時々私はこのモデムでダウンロード速度が800バイト/秒まで上がることを発見しました。いくつかのUDPテストを実行しましたが、パケット損失率は約25%でした。
Linuxは、ARMHFのDebian Wheezyを使用する2.6.35.3です。
答え1
「このモデムでダウンロード速度が800バイト/秒まで上がっているのを見ました。」
損失測定を提供していないため、輻輳が発生しているのか、仕様のチャネル容量より少ないのかを知る方法はありません。
TCPは、デバイスよりもはるかに遅く、エラー率が高いハードウェアで設計されていることは注目に値します。遅い接続の場合、TCPは利用可能な容量を効果的に利用できます。
さまざまな輻輳制御メカニズムを試してみることができますが、今より良いスループットを得ることができれば驚きます。実際のネットワークで実際のチャネル容量を測定することは、見えるものよりも複雑です。