2013-10-03 24 views
7

我正在使用scrapy CrawlSpider并定义了一个双绞线来控制我的爬行程序。在测试期间,我爬过一个收集超过几GB数据的新闻网站。大多数情况下,我对最新的故事感兴趣,所以我正在寻找一种方法来限制请求的页数,字节或秒。Scrapy:限制请求或请求字节数

是否有明确的

  • request_bytes
  • request_counts
  • 运行时间(秒)极限的常用方法?

回答