2016-05-31 92 views
1

我有一长串需要刮取和提取数据的URL,我想用scrapy。用scrapy刮一页

说我有一个扭曲的反应器装置和我创造蜘蛛

runner = CrawlerRunner(scrapy_settings) 
d = runner.crawl(spider_cls) 

有没有一种方法可以让我发送URL蜘蛛所以它会处理它们?

回答

1

crawl() method可以采取额外的参数:

d = runner.crawl(spider_cls, start_urls=["url"]) 
+0

有没有办法重用蜘蛛?为了避免在获取新网址时再次创建它? – AlexV

+0

@AlexV这是一个有趣的问题!你能否创建一个单独的问题提供所有必要的细节?谢谢! – alecxe