何千ものファイル(それぞれ約2〜12 MB)をダウンロードする必要があります。現在、次のコマンドを使用しています。
wget --reject "index.html*" -A *.gz -N -r -l1 -nd --no-check-certificate --user USERNAME --password PASSWORD -np http://website.org/subfolder/
ただし、各接続は100Kb / sに制限されているようです。このコンテンツをどのようにすばやくダウンロードできますか?可能であれば、50以上のアクティブ接続(ファイルあたり1つ)