1
我打算从一个更大的框架调用基于Scrapy
的抓取工具。抓取期间 Scrapy
记录所有事件。爬行scrapy应该停止记录后,调用框架应该接管记录任务并重新打印到标准。如何停止日志记录的scrapy?
如何停止Scrapy
支配所有日志并将其传递回我的框架?
如何在Python中管理多个记录器?
更新:我将crawler.spider.settings.overrides['LOG_ENABLED'] = False
加入我的收藏列表。 Scrapy不断阻止我打印出标准。
我加了这行代码:'crawler.spider.settings.overrides ['LOG_ENABLED'] = False'。正如我从一个失败的断言中知道的那样,它继续执行。但是,它不打印到标准输出。 – Jon