2017-06-19 36 views
2

我有一个scrapy蜘蛛,使用XMLFeedSpider。除了为parse_node()中的每个节点返回的数据外,我还需要额外请求获取更多数据。唯一的问题是,如果我得到来自parse_node()没有额外的请求被退回所有:Scrapy - 无法提出额外的请求在XMLFeedSpider

class MySpidersSpider(XMLFeedSpider): 
    name = "myspiders" 
    namespaces = [('g', 'http://base.google.com/ns/1.0')] 
    allowed_domains = {"www.myspiders.com"} 
    start_urls = [ 
     "https://www.myspiders.com/productMap.xml" 
     ] 
    iterator = 'iternodes' 
    itertag = 'item' 

    def parse_node(self, response, node): 
     if(self.settings['CLOSESPIDER_ITEMCOUNT'] and int(self.settings['CLOSESPIDER_ITEMCOUNT']) == self.item_count): 
      raise CloseSpider('CLOSESPIDER_ITEMCOUNT limit reached - ' + str(self.settings['CLOSESPIDER_ITEMCOUNT'])) 
     else: 
      self.item_count += 1 
     id = node.xpath('id/text()').extract() 
     title = node.xpath('title/text()').extract() 
     link = node.xpath('link/text()').extract() 
     image_link = node.xpath('g:image_link/text()').extract() 
     gtin = node.xpath('g:gtin/text()').extract() 
     product_type = node.xpath('g:product_type/text()').extract() 
     price = node.xpath('g:price/text()').extract() 
     sale_price = node.xpath('g:sale_price/text()').extract() 
     availability = node.xpath('g:availability/text()').extract() 

     item = MySpidersItem() 
     item['id'] = id[0] 
     item['title'] = title[0] 
     item['link'] = link[0] 
     item['image_link'] = image_link[0] 
     item['gtin'] = gtin[0] 
     item['product_type'] = product_type[0] 
     item['price'] = price[0] 
     item['sale_price'] = '' if len(sale_price) == 0 else sale_price[0] 
     item['availability'] = availability[0] 

     yield Request(item['link'], callback=self.parse_details, meta={'item': item}) 

    def parse_details(self, response): 
     item = response.meta['item'] 
     item['price_per'] = 'test' 
     return item 

如果我改变的parse_node()return item正常工作的最后一行(不包括在项目设置price_per,自然)。

任何想法我做错了什么?

回答

1

我发现了这个问题 - 我限制了在parse_node()函数中处理的项目数。但是,由于这个限制,我的蜘蛛在提出请求之前就终止了。移动代码限制处理,我parse_details()功能的项目解决了问题:

def parse_details(self, response): 
     if(self.settings['CLOSESPIDER_ITEMCOUNT'] and int(self.settings['CLOSESPIDER_ITEMCOUNT']) == self.item_count): 
      raise CloseSpider('CLOSESPIDER_ITEMCOUNT limit reached - ' + str(self.settings['CLOSESPIDER_ITEMCOUNT'])) 
     else: 
      self.item_count += 1 
     item = response.meta['item'] 
     item['price_per'] = 'test' 
     return item 
1

您是否尝试过检查item['link']的内容?如果它是相对链接(例如:/products?id=5),则URL不会返回任何内容,并且请求将失败。您需要确保它是可解析的链接(例如:https://www.myspiders.com/products?id=5)。

+0

是的,网址是解析 - 如果我调试,我可以通过浏览器访问该链接的URL罚款。我也刚刚改变了链接,像“http:// httpbin.org /'这样的任意东西,而且我的回调没有被击中(或者我的物品返回)。 – BrynJ