ウェブサイトのコンテンツをダウンロードできません。

ウェブサイトのコンテンツをダウンロードできません。

Ubuntu 13.04を使用しています。私は開いたこのウェブサイト私のブラウザで。ウェブサイトから書籍のダウンロードを開始し、同じページに書籍のプレビューを表示します。

ページに表示された本を自分のシステムのハードドライブにダウンロードしたいと思います。を使用すると、書籍ではなくwgetページのみがダウンロードされます。これが私が試しているコマンドです。ブラウザでURLを開き、を使用して明確さを確認しますwget

$ wget http://www.amazon.com/gp/reader/0072520426/ref=sib_dp_ptu#reader-link

Web ブラウザで書籍を開くと、書籍のダウンロードが開始され、ページに表示されます。この本を自分のハードドライブにどのようにダウンロードしますか?ページにもダウンロードオプションはありません。

答え1

この本は、[開発者]タブ(または開発者ツール、ソースページ、何と呼ばれるもの)に表示される一連の画像です。すべての画像をダウンロードするには、再帰的な方法を使用する必要があります(サーバーで許可されている場合)。 )。

答え2

普通に使うhttrackサイトからWebコンテンツをダウンロード/ミラーリングするために使用されます。

$ httrack http://2011.example.com -K -w -O . -%v --robots=0 -c1 %e0

実行したら、ローカルおよびナビゲーション可能なディレクトリ構造を取得します。たとえば、

$ ls -l
total 304
-rw-r--r--  1 saml saml   4243 Aug 17 10:20 backblue.gif
-rw-r--r--  1 saml saml    828 Aug 17 10:20 fade.gif
drwx------  3 saml saml   4096 Aug 17 10:20 hts-cache
-rw-rw-r--  1 saml saml    233 Aug 17 10:20 hts-in_progress.lock
-rw-rw-r--  1 saml saml   1517 Aug 17 10:20 hts-log.txt
-rw-------  1 saml saml 271920 Aug 17 10:22 hts-nohup.out
-rw-r--r--  1 saml saml   5141 Aug 17 10:20 index.html
drwxr-xr-x 10 saml saml   4096 Aug 17 10:21 2011.example.com

ダウンロードすると、次の種類の出力が表示されます。

Bytes saved:    21,89KiB           Links scanned:   12/45 (+4)
Time:   2s                         Files written:   4
Transfer rate:  2,65KiB/s (2,65KiB/s)  Files updated:   1
Active connections:     1          Errors:  7

Current job: parsing HTML file (57%)
 request -  2011.example.com/cgi-bin/hostnames.pl   0B /    8,00KiB

バックグラウンドで実行または一時停止した後に再起動できます。これはその能力の氷山の一角に過ぎません。ダウンロードを設定し、ダウンロードの進行状況を監視するためのGUIもあります。

についてたくさんありますhttrackウェブサイトそしてグーグルした。

関連情報