1
我试图抓取使用scrapy的以下页面:http://www.t13.cl/home/d_ultimas/10。我用刮简单页面:scrapy不返回所有链接
class T13(CrawlSpider):
name = 't13'
allowed_domains = ["http://www.t13.cl"]
start_urls = ['http://www.t13.cl/home/d_ultimas/10']
rules = (
Rule(LinkExtractor(allow=(r'.')),
callback='parse_item'),
)
def parse_item(self, response):
pass
但它只返回一个链接(第一个)。为什么它不遵循该页面中的所有链接? (如果我使用外壳,它会返回所有选择器)
可以共享日志吗? – eLRuLL