1
我有一长串需要刮取和提取数据的URL,我想用scrapy。用scrapy刮一页
说我有一个扭曲的反应器装置和我创造蜘蛛
runner = CrawlerRunner(scrapy_settings)
d = runner.crawl(spider_cls)
有没有一种方法可以让我发送URL蜘蛛所以它会处理它们?
我有一长串需要刮取和提取数据的URL,我想用scrapy。用scrapy刮一页
说我有一个扭曲的反应器装置和我创造蜘蛛
runner = CrawlerRunner(scrapy_settings)
d = runner.crawl(spider_cls)
有没有一种方法可以让我发送URL蜘蛛所以它会处理它们?
的crawl()
method可以采取额外的参数:
d = runner.crawl(spider_cls, start_urls=["url"])
有没有办法重用蜘蛛?为了避免在获取新网址时再次创建它? – AlexV
@AlexV这是一个有趣的问题!你能否创建一个单独的问题提供所有必要的细节?谢谢! – alecxe