ウェブサイトから最新のタイムスタンプを含むファイルをダウンロードする[閉じる]
閉鎖。この質問には詳細または明確性。現時点では回答は許可されていません。 ...
自動などの依存関係オプションから選択するdnf repoquery --requires --resolveオプションはありますか?dnf install 質問 sudo権限がなく、同じ既存のパッケージがインストールされていないシステムを使用して、オフラインインストールのためにRPMとすべての循環依存関係をダウンロードする必要があります。dnf install --downloadonly --destdirこれは、権限が必要で、現在のシステムに存在しない依存関係のみをダウンロードするため、単に使用できないことを意味しますsudo(私のターゲットシステムに...
たくさんのファイル(>数千万個)をダウンロードしたいです。各ファイルのURLがあります。私のファイルにURLのリストがありますURLs.txt。 http://mydomain.com/0wd.pdf http://mydomain.com/asz.pdf http://mydomain.com/axz.pdf http://mydomain.com/b00.pdf http://mydomain.com/bb0.pdf etc. を介してダウンロードできますが、wget -i URLs.txt1時間以上かかります。最高フォルダに入れることができるフ...
Flatpak Chromiumダウンロード履歴で「フォルダに表示」をクリックすると時々/run/user/<user-id>/doc/<dir-id>/。 基本的なGoogle検索を実行したところ、このディレクトリがFlatpakアプリケーションで使用されていることがわかりました。また、さまざまな元の保存場所にも存在する実際のファイルへのハードリンクなどの内容が含まれていることも見ました。 ただし、/run/...すべてのダウンロードでこの機能を使用するわけではありません。マウントされたNTFSに保存するときや、NTFSに保存すると...
私はすでに使用している次の2つの要素を組み合わせたいと思います。 yt-dlpコピーされたリンクからダウンロードするには、Konsole端末でコマンドを実行します(例konsole -e yt-dlp 8 %u:)。 konsole --workdir %f特定の場所でKonsoleのドルフィンサービスメニュー()を開くときに使用されます。 特定の場所でKonsoleを開き、コマンドを実行するDolphinサービスメニューが必要ですyt-dlp。 手動で場所をコピーしたり、ダウンロード後にファイルをコピーすることなく、USBスティックやその他のリム...
こんにちは。正確には、279個のファイルを一度にダウンロードしようとしています。それぞれはBAMサイズです(〜90GB)。私が作業しているクラスタには複数のノードがあり、幸いにも一度に複数のインスタンスを割り当てることができます。 このような状況では、wgetバッチファイル(バラより以下の例)独立した実行のために各ダウンロードを別々のノードに割り当てます。 バッチファイル.txt <https_link_1> -O DNK07.bam <https_link_2> -O mixe0007.bam <https_link_3>...
RHEL8.8/4.18を使用しているお客様がいますが、そのシステムにインターネットがありません。会社をインストールする必要があります。ソフトウェアは、システムへのすべての依存関係とともにrpmを介してパッケージ化されます。簡単そうですが、本当に良い一日でした! 最終的に、すべてのパッケージと依存関係をプロキシホストにダウンロードしたら、そのパッケージをクライアントにインポートして依存関係とソフトウェアをローカルにインストールできる必要があります。 yum --pluggin-downloadonlyを試しましたが、インストールされていません!不明なプラグイ...
プログラムで新しいコンピュータにすべてのアプリケーションをインストールしたいと思います。 私が走るとき curl -o ~/Downloads/musescore.AppImage https://musescore.org/en/download/musescore-x86_64.AppImage 25kbのゴミをダウンロードしてください。 Webサイトには、ブラウザからリダイレクトされた実際のファイルがあります。https://cdn.jsdelivr.net/musescore/v4.1.1/MuseScore-4.1.1.232071203-x86...
私はを使用wgetして定期的にファイルをダウンロードします(httpsまたはssh経由)。旅行中に遭遇した問題の1つは、ある地域ではアクセス速度の速いサーバーが他の地域では遅くなったり、到達できないことです。現在の戦略は、ミラーを使用して各地域のローカルミラーに切り替えることです。rsynccurl 複数のミラーからファイルをソースにダウンロードできるUnixコマンドラインツールがあるかどうか疑問に思います。ミラーを並列に使用する必要はありません。バックアップとして使用され、接続が切断されると、最速の接続が使用されます。 コマンドラインは次のようになります。...
wget -cオプションを使用してダウンロードしたデータは、切断して再試行すると破損します。私の問題を解決する方法はありますか? ...
YouTubeストリームでビデオを見ることができ、インターネット接続の問題なくTeamsで数時間の会議に出席することもできます。ただし、Chromeや他のブラウザでは、1分後にダウンロードとアップロードが失敗します。 Dropboxに何でもアップロードすることは不可能で、YouTubeに動画をアップロードすることは実際には可能ですが、短いクリップをアップロードするには時間がかかります。メッセージは通常、「ダウンロード/アップロードに失敗しました。インターネット接続を確認してください」です。 aria2cを使用すると問題なくダウンロードされます。問題が発生した...
リソースが限られており、遅延に非常に敏感な環境(CPU 1、コア2、128 MB RAMを持つVM)からできるだけ早くファイルをダウンロードして解凍する必要があります。 もちろん、ダウンロード中に解凍できるという仮定のもと、ダウンロードプロセスを解凍プロセスにリンクしてみました。最も遅いプロセスによってパイプが詰まったことがわかります。この問題を克服するために、ダウンロードと解凍プロセスの間にバッファを使用しました。 私のシェルスクリプトは次のとおりです。 curl -s $CACHE_URL | buffer -S 100M | lz4 -d > /...
再帰的にダウンロードする必要がある大きな項目があります。 予想サイズ > 150GB(おおよそのサイズと聞きました) 今収納スペースはありません。 したがって、全体のサイズがどれだけ大きいかを把握し、より多くのストレージ容量を確保するための措置を講じる必要があります。 追加のストレージ容量を確保する前に、全体のサイズを把握する必要があります。 ターゲットURLは、一種のhttpファイルサーバーでホストされているファイルディレクトリです。 wget --recursiveまず、すべてのファイルをダウンロードせずにフルサイズを取得するにはどうすればよい...
他の解決策の答えはうまくいきませんでした。 一般的に共有されているGoogleドライブフォルダには、何百もの画像といくつかのサブフォルダがあります。 みんなダウンロードしたいです。 どうすればいいですか? ありがとうございます。 ...