![ブラウザを使用してウェブサイト全体をミラーリング/ダウンロードする方法は? [閉鎖]](https://linux33.com/image/12189/%E3%83%96%E3%83%A9%E3%82%A6%E3%82%B6%E3%82%92%E4%BD%BF%E7%94%A8%E3%81%97%E3%81%A6%E3%82%A6%E3%82%A7%E3%83%96%E3%82%B5%E3%82%A4%E3%83%88%E5%85%A8%E4%BD%93%E3%82%92%E3%83%9F%E3%83%A9%E3%83%BC%E3%83%AA%E3%83%B3%E3%82%B0%2F%E3%83%80%E3%82%A6%E3%83%B3%E3%83%AD%E3%83%BC%E3%83%89%E3%81%99%E3%82%8B%E6%96%B9%E6%B3%95%E3%81%AF%EF%BC%9F%20%5B%E9%96%89%E9%8E%96%5D.png)
wgetを使用すると、次のコマンドを使用してWebサイト全体をミラーリングできます。wget --mirror --convert-links --adjust-extension --page-demands website
FirefoxやChromiumなどのブラウザを使用してWebサイト全体(一部のスクリプトを含む)をダウンロードする同等の方法はありますか?プレビューだけでなく、すべての画像が保存されるのだろうか。したがって、オフライン版で画像をクリックすると、その画像の大きなバージョンが表示されます。または、リンクをクリックすると、そのリンクのローカルバージョンにリダイレクトされます。
答え1
いいえ、できません。もっと:これを実行できるFireFoxアドインがありましたが、最新バージョンのFFと互換性がありません。
さらに:wget
多くのオプションがあり、プラグインですべてのオプションを実装することはほとんど使用しない人には時間がかかるため、専門家のように開発努力に投資する価値はありません。wget
またはcurl
それでも…