我建立了Nutch并为它提供了一个可以抓取的URL的种子列表。我对它进行了配置,以便它不会抓取我的种子列表之外的任何内容。种子名单包含150万个URL。我跟着引导和拉开序幕Nutch的,像这样:获取Nutch爬行状态?
bin/nutch inject crawl/crawldb urls
bin/nutch generate crawl/crawldb crawl/segments
s1=`ls -d crawl/segments/2* | tail -1`
bin/nutch fetch $s1
bin/nutch parse $s1
bin/nutch invertlinks crawl/linkdb -dir crawl/segments
bin/nutch solrindex http://127.0.0.1:8983/solr/ crawl/crawldb -linkdb crawl/linkdb $s1 -addBinaryContent -base64
题外话:我真希望我能知道如何抓取,并在同一时间指数 (例如,抓取网页 - >指标吧,爬行未来页面), ,因为我目前必须等待整个抓取才能完成 ,然后再根本没有任何索引。
无论如何,从检查hadoop.log,我相信我已经在48小时内抓取了大约40k链接。不过,我想确保它能正确抓取所有内容。我还想看看哪些链接已被抓取,以及哪些链接已被删除。我已经阅读了所有的文档,我似乎无法弄清楚如何获得Nutch爬行的状态,除非它是作为一项工作开始的。
我使用Solr 4.10运行Nutch 1.10。
>如何在同一时间 抓取和索引看一看[https://github.com/DigitalPebble/storm-crawler。 Nutch是批量驱动的,它可以一步一步完成任务。 [http://digitalpebble.blogspot.co.uk/2015/09/index-web-with-aws-cloudsearch.html]包含Nutch和SC之间的比较,您可能会觉得有用。 +1 Sujen建议关于nutch readdb命令。您可以指定给定的URL来获取其状态,但正如他指出的那样,这只会在爬行迭代结束时更新 –