すみません、私の英語は良くありません....
ダウンロードしようとしています。これeBookでさまざまなアプローチを試しました。得ると
wget --domains --no-parent https://www.oreilly.de/german/freebooks/linag3ger
そして
wget --domains --no-parent https://www.oreilly.de/german/freebooks/linag3ger/418_LinuxIVZ.html
このウェブサイトのリンクのみをダウンロードしてください。
そして、
wget -r https://www.oreilly.de/german/freebooks/linag3ger/418_LinuxIVZ.html
したがって、再帰を通じてすべてのWebページを1 GBまでダウンロードします。
私はそれをダウンロードし、後で次のようにPDFに変換します。ここ説明する。
誰か私を助けてください。ありがとうございます!
答え1
あなたがしなければならないことは次のとおりです。
wget -np -r -l 2 'https://www.oreilly.de/german/freebooks/linag3ger/'
合計49個のファイル(合計3.7MB)がダウンロードされます。
デフォルトでは、wgetにリンクを再帰的にダウンロードするように指示する必要があります-r
。次に-l 2
wgetに2レベルより深く入らないように指示します。
答え2
wget
ダウンロードするアイテム(このフォルダの下のアイテム)とダウンロードしないアイテム(Wileyサイトの残りのすべてのアイテム)を標準に通知する必要があります。
GUIが利用可能な場合は、「HTTrack Website Copier」などのツールを使用して作業を簡素化できます。