2015-12-09 133 views
1

我试图抓取使用scrapy的以下页面:http://www.t13.cl/home/d_ultimas/10。我用刮简单页面:scrapy不返回所有链接

class T13(CrawlSpider): 
    name = 't13' 
    allowed_domains = ["http://www.t13.cl"] 
    start_urls = ['http://www.t13.cl/home/d_ultimas/10'] 

    rules = (
     Rule(LinkExtractor(allow=(r'.')), 
      callback='parse_item'), 
    ) 

    def parse_item(self, response): 
     pass 

但它只返回一个链接(第一个)。为什么它不遵循该页面中的所有链接? (如果我使用外壳,它会返回所有选择器)

+0

可以共享日志吗? – eLRuLL

回答

1

看起来您的请求正在被allowed_domains过滤。将其更改为:

allowed_domains = ["t13.cl"]