1
我正在使用scrapy进行一些网络扫描,并且遇到了问题。我已经想通了,我可以使用下面的命令行救我scrapy结果到CSV文件:无法读取文件,然后用scrapy将结果写入文件(python)
scrapy crawl spider --set FEED_URI=output.csv --set FEED_FORMAT=csv
我也知道,我可以通过使用一个起始URL读取文本文件刮以下命令行输入:
scrapy crawl dmoz -a filename=text.txt
而我在我的蜘蛛的代码是:当我试图同时做这两
class DmozSpider(BaseSpider):
name = "dmoz"
allowed_domains = ["ebay.com"]
def __init__(self, filename=None):
if filename:
with open(filename, 'r') as f:
self.start_urls = f.readlines()
print self.start_urls
我的问题就出现了。我想让我的蜘蛛抓取文本文件中指定的URL,然后将输出写入一个csv文件。下面的命令行不会出于某种原因,该URL被读入(我知道的一个事实),但csv文件不被写入:
scrapy crawl dmoz -a filename=text.txt --set FEED_URI=output.csv --set FEED_FORMAT=csv
如果有人看到我在做什么错误或有一个解决方法,它将不胜感激。谢谢!