我在scrapy中写了一个蜘蛛&我成功地通过python脚本运行它。 的问题,同时通过scrapy提示符下运行蜘蛛我们提供像 “-o ScrapedData.json -t JSON” agruments我想运行 “scrapy爬myspider -o ScrapedData.json -t JSON” 通过Python脚本。 任何帮助是高度赞赏。提前致谢!从scrapy参数的脚本中运行Scrapy蜘蛛
0
A
回答
0
-o ScrapedData.json
覆盖FEED_URI
设置- 和
-t json
覆盖FEED_FORMAT
设置
(见https://github.com/scrapy/scrapy/blob/master/scrapy/commands/crawl.py#L24)
所以,从脚本运行的蜘蛛时,你应该看看覆盖这些2个设置。
0
您的意思是?
from scrapy import cmdline
cmdline.execute("scrapy crawl myspider -o ScrapedData.json -t json".split())
相关问题
- 1. 从scrapy脚本运行多个蜘蛛
- 2. Scrapy与Scrapy蜘蛛
- 3. Scrapy - 运行蜘蛛多次
- 4. Scrapy - 调用蜘蛛从其他脚本
- 5. scrapy:蜘蛛中的小蜘蛛?
- 6. Scrapy从主蜘蛛运行多个蜘蛛?
- 7. Scrapy DOMAIN_NAME的蜘蛛
- 8. Python的scrapy蜘蛛
- 9. 在scrapy中运行多个蜘蛛
- 10. Scrapy蜘蛛不爬行
- 11. scrapy中的连环蜘蛛
- 12. 如何将多个参数传递给Scrapy蜘蛛(不再支持多个蜘蛛运行'scrapy爬行'错误)?
- 13. 运行scrapy蜘蛛与蟒蛇
- 14. 更新Scrapy后,蜘蛛无法运行
- 15. 传递参数给一个Python脚本内scrapy蜘蛛
- 16. Scrapy蜘蛛Xpath的选择
- 17. 本地运行Scrapy中的所有蜘蛛
- 18. scrapy蜘蛛码校验
- 19. Scrapy蜘蛛不工作
- 20. Scrapy雅虎集团蜘蛛
- 21. Scrapy找不到蜘蛛
- 22. Scrapy蜘蛛过早关闭
- 23. scrapy蜘蛛没有发现
- 24. Scrapy CrawlSpider没有蜘蛛
- 25. Scrapy蜘蛛登录问题
- 26. Scrapy管理动态蜘蛛
- 27. Scrapy蜘蛛错误处理
- 28. (Python,Scrapy)将txt文件中的数据转换为Scrapy蜘蛛
- 29. 从脚本调用Scrapy蜘蛛 - 无法关闭反应堆?
- 30. Scrapy,没有错误,蜘蛛爬行
不知道如果我的问题是正确的,但你可能想看看python的'subprocess'模块。 – Michael