次のwgetコマンドの使用に問題があります。
wget -nd -r -l 10 http://web.archive.org/web/20110726051510/http://feedparser.org/docs/
元のネットワークに接続されているすべての文書を再帰的にダウンロードする必要がありますが、2つのファイル(index.html
およびrobots.txt
)のみをダウンロードしてください。
再帰ダウンロードを実装する方法これネットワーク?
答え1
wget
基本的に尊重robots.txt 標準検索エンジンのようにページをクロールします。 archive.orgの場合は、/web/サブディレクトリ全体を無効にします。オーバーライドするには-e robots=off
、
wget -nd -r -l 10 -e robots=off http://web.archive.org/web/20110726051510/http://feedparser.org/docs/
答え2
$ wget --random-wait -r -p -e robots=off -U Mozilla \
http://web.archive.org/web/20110726051510/http://feedparser.org/docs/
URLの内容を再帰的にダウンロードします。
--random-wait - wait between 0.5 to 1.5 seconds between requests.
-r - turn on recursive retrieving.
-e robots=off - ignore robots.txt.
-U Mozilla - set the "User-Agent" header to "Mozilla". Though a better choice is a real User-Agent like "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729)".
その他の便利なオプションは次のとおりです。
--limit-rate=20k - limits download speed to 20kbps.
-o logfile.txt - log the downloads.
-l 0 - remove recursion depth (which is 5 by default).
--wait=1h - be sneaky, download one file every hour.