所以我有一个自定义管道,扩展了Scrapy的当前FilesPipeline。但是,我在设置FILES_STORE变量时遇到了问题。我现在的文件结构是: my_scraper.py
files/
#this is where I want the files to download to
所以,我设置FILES_STORE=/files/和运行蜘蛛。但是当我这样做时,我得到以下错误:
我一直在试图让Scrapy的Linkextractor工作,但无济于事。 我希望它找到任何链接,然后调用不同的方法,只是打印出来显示它的工作。 这是我的蜘蛛: from scrapy.spiders import Rule, CrawlSpider
from scrapy.linkextractors import LinkExtractor
class TestSpider(CrawlS