2012-12-28 124 views
8

我是新的python和scrapy。我打算遵循Scrapy教程,但我不明白storage step的逻辑。Scrapy:存储数据

scrapy crawl spidername -o items.json -t json 

scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv 

我不明白的意义:

  • -o
  • -t
  • --set

谢谢您的帮助

回答

22

你可以通过输入来查看可用命令的列表从您的项目目录中。

scrapy crawl spidername -o items.json -t json 
  • -o指定倾倒物品(items.json)输出文件名
  • -t指定倾倒物品(JSON)

scrapy crawl spidername --set FEED_URI=output.csv --set FEED_FORMAT=csv

  • --set是格式用于设置/覆盖设置
  • FEED_URI用于设置项目转储的存储后端。在这种情况下它被设置为“output.csv”这是使用本地文件系统,即一个简单的输出文件(例如电流 - output.csv)。
  • FEED_FORMAT用于设置串行化格式的(输出)进料即(对于当前的例子CSV)

参考文献(Scrapy文档):

  1. Available tool commands (for the command line)
  2. Feed exports
+0

所以这两行是等价的,如果第一个,我把'item.json'换成'output.csv'和'json'换成'csv'? – Stephen

+2

这是正确的。或者,您可以将FEED_URI和FEED_FORMAT添加到settings.py文件,然后只需键入'scrapy crawl spidername'而不使用其他参数。 – Talvalin

+1

如果问题覆盖了问题,请接受此答案,或者告诉我是否有任何可以改进答案的方法。 :) – Talvalin