2016-02-08 54 views
1

我从命令行创建了一个scrapy项目,并添加了两个蜘蛛,myspider1和myspider2。每当我跑“scrapy爬行myspider1”或“” scrapy爬行myspider2" 当我运行‘scrapy名单’也开始myspider1我的项目目录中的“scrapy list”命令启动蜘蛛

我在python vertualenv下运行这一点,开始‘myspider1’。

但我不明白为什么它这样做,似乎每当我运行scrapy命令它总是在执行我的蜘蛛文件夹中的第一只蜘蛛。

上为什么发生这种情况的任何想法?

+1

你可以分享你看到的控制台日志吗?你能分享你的蜘蛛代码吗?你的目录结构是什么? –

回答

0

的代码是打印一些打印语句,使它延迟了我认为它正在爬行的响应。