2013-12-10 63 views
1

我打算从一个更大的框架调用基于Scrapy的抓取工具。抓取期间 Scrapy记录所有事件。爬行scrapy应该停止记录后,调用框架应该接管记录任务并重新打印到标准。如何停止日志记录的scrapy?

如何停止Scrapy支配所有日志并将其传递回我的框架?

如何在Python中管理多个记录器?

更新:我将crawler.spider.settings.overrides['LOG_ENABLED'] = False加入我的收藏列表。 Scrapy不断阻止我打印出标准。

回答

0

更改LOG_ENABLED设置为False

+0

我加了这行代码:'crawler.spider.settings.overrides ['LOG_ENABLED'] = False'。正如我从一个失败的断言中知道的那样,它继续执行。但是,它不打印到标准输出。 – Jon