zoukankan      html  css  js  c++  java
  • 13.scrapy 框架之递归解析(手动发送请求),

    递归爬取解析多页页面数据

      - 需求:将糗事百科所有页码的作者和段子内容数据进行爬取切持久化存储(这里储存到文件当中)

      - 需求分析:每一个页面对应一个url,则scrapy工程需要对每一个页码对应的url依次发起请求,然后通过对应的解析方法进行作者和段子内容的解析。

      实现方案:

              1.将每一个页码对应的url存放到爬虫文件的起始url列表(start_urls)中。(不推荐)

            2.使用Request方法手动发起请求。(推荐)

    代码展示:

    爬虫文件:

    # -*- coding: utf-8 -*-
    import scrapy
    from choutiDemo.items import ChoutidemoItem
    
    
    class ChoutiSpider(scrapy.Spider):
        name = 'chouti'
        # allowed_domains = ['www.xxxx.html']
        start_urls = ['https://dig.chouti.com/r/scoff/hot/1']
      # 定义url # 通用的url封装(每页的url) url
    = "https://dig.chouti.com/r/scoff/hot/%d" begin_url = 1 # 起始页码为1
    def parse(self, response): div_list
    = response.xpath('//div[@class="content-list"]/div') for div in div_list: # 1.获取解析到数据值,并封装到item对象中 title = div.xpath('./div[3]/div[1]/a/text()').extract_first() author = div.xpath('./div[3]/div[2]/a[4]/b/text()').extract_first() # 2.实例化一个item类型的对象,并将解析到数据封装到item对象当中 item = ChoutidemoItem() item["title"] = title item["author"] = author # 3.使用yield将item对象交给管道进行持久化储存 yield item # 爬取所有页码的数据 if self.begin_url<=3: # 页码的一个范围 # 封装成一个新的页面的url self.begin_url +=1 new_url = format(self.url%self.begin_url) # 手动发送请求,递归爬取数据:callback参数的值为回调函数(callback指定解析方法) # (将url请求后,得到的相应数据继续进行parse解析),递归调用parse函数 yield scrapy.Request(url=new_url,callback=self.parse)

    item.py文件 (定义属性)

    import scrapy
    
    class ChoutidemoItem(scrapy.Item):
        # define the fields for your item here like:
        # name = scrapy.Field()
        title = scrapy.Field()
        author = scrapy.Field()

    pipelines.py 文件(管道文件,进行持久化存储)

    # 将提交过来的item数据,存储到文件中
    class ChoutidemoPipeline(object):
        fp = None
    
        # 1.open_spider方法只会在开始爬虫的时候执行一次(只执行一次!!!
        def open_spider(self,spider):
            self.fp = open("./duanzi.txt","w",encoding="utf-8")
            print("开始爬虫!!!")
    
        # 2.因为process_item方法会被执行调用多次,所以文件的开启和关闭操作写在了另外两个只会各自执行一次的方法中
        # 爬虫文件每提交一次item,该方法会被调用一次
        # 方法里面的item就是爬虫文件给我提交的item
        def process_item(self, item, spider):
            self.fp.write(item['title']+":" + item["author"]+ "
    ")
            return item
    
        # 3.结束爬虫的时候执行一次
        def close_spider(self,spider):
            self.fp.close()
            print("结束爬虫!!!")

    setting.py (配置文件,开启管道)

    ITEM_PIPELINES = {
       'choutiDemo.pipelines.ChoutidemoPipeline': 300,
    }

    注意:

      在scrapy 框架中yield的使用场景
    1. yield item : 向管道提交item请求,进行持久化储存
    2. yield scrapy.Request(): 进行手动请求发送
  • 相关阅读:
    Windows如何自定义U盘盘符、文件夹图标、文件夹背景
    BIN文件如何打开
    Windows COM Surrogate 已停止工作怎么办
    EasyBoot使用方法
    SRS Audio Sandbox没有声音怎么办
    [Compose] 20. Principled type conversions with Natural Transformations
    [Compose] 19. Leapfrogging types with Traversable
    [Compose] 17. List comprehensions with Applicative Functors
    [Compose] 15. Applicative Functors for multiple arguments
    [Algorithm] Coding Interview Question and Answer: Longest Consecutive Characters
  • 原文地址:https://www.cnblogs.com/mwhylj/p/10266503.html
Copyright © 2011-2022 走看看