我在登录scrapy时遇到了问题,而且我能找到的大部分内容都已过时。登录Scrapy
我在settings.py
文件中设置LOG_FILE="log.txt"
并从文档,这应该工作:
Scrapy提供了每个蜘蛛实例中的记录器,可以访问和使用这样的:
import scrapy
class MySpider(scrapy.Spider):
name = 'myspider'
start_urls = ['http://scrapinghub.com']
def parse(self, response):
self.logger.info('Parse function called on %s', response.url)
但是当我做:
class MySpider(CrawlSpider):
#other code
def parse_page(self,response):
self.logger.info("foobar")
我什么也没得到。如果我设置
logger = logging.basicConfig(filename="log.txt",level=logging.INFO)
在我的文件的顶部,我进口后,它会创建一个日志文件,默认的输出被记录得很好,但
class MySpider(CrawlSpider):
#other code
def parse_page(self,response):
logger.info("foobar")
未能露面。我也曾尝试把它在类__init__
,因为这样的:
def __init__(self, *a, **kw):
super(FanfictionSpider, self).__init__(*a, **kw)
logging.basicConfig(filename="log.txt",level=logging.INFO)
我再次得到任何输出到文件,只需到控制台,并foobar
没有显示出来。有人可以指导我如何正确登录Scrapy吗?
你有没有检查过[有关日志的官方文档?](http://doc.scrapy.org/en/latest/topics/logging.html#logging-settings)你应该在'settings.py'文件中设置日志文件名和其他细节。 – Granitosaurus
@Granitosaurus是的,我在问题开始时就这么说,并且在整个文档中引用了文档 –