zoukankan      html  css  js  c++  java
  • Scrapy Pipeline

    Scrapy 中的 Pipeline 为我们提供了处理数据的功能,在实际开发中我们经常使用它来清洗/验证数据、去重和数据保存。在一个项目中会存在多种 Pipeline ,每个 Pipeline 都是一个 class ,其中包含了一些处理的 Item 的方法。 Item 会在这些 Pipeline 中按顺序依次传递,如果其中一个 Pipeline 丢弃了 Item ,那么后面未执行到的 Pipeline 将不会收到这个 Item 。

    零、自定义 Pipeline

    自定义 Pipeline 其实很简单,只需要实现指定的方法即可。

    1. process_item (self,item,spider)
    • 解释:该方法必须实现,处理数据的工作都在这个方法中进行,方法返回 dict 、Item 、 Twisted Deferred 或者是 DropItem 异常。
    • 参数:
      • item : 被爬取的 Item ;
      • spider : 爬取 Item 时所使用的 Spider 。

    Tip : 如果在 process_item 方法中丢弃了 Item ,那么这个 Item 将不会向后续 Pipeline 传递这个 Item 。

    1. open_spider(self,spider)
    • 解释:爬虫开始运行时,将会在这个方法中执行一些初始化工作,例如打开数据库、打开文件等。
    • 参数:
      • spider : 当前正在使用的 Spider
    1. close_spider(self,spider)
    • 解释:爬虫关闭时,将会在这个方法中执行一些后续工作,例如关闭数据库、关闭文件等。
    • 参数:
      • spider : 当前正在使用的 Spider
    1. from_crawl(self,crawler)
    • 解释:方法为类方法,通过初始化 crawler 对象返回 Pipeline 实例。我们可以通过 crawler 返回所有 Scrapy 核心组件。

    一、特殊的 Pipeline

    在一些项目中我们不仅要爬取网页的数据,还需要爬取文件或图片,并保存在本地。这时我们就需要用到 Scrapy 中特殊的 Pipeline :FilesPipeline 和 ImagesPipeline ,它们具有一些相同的方法和结构与,我们称这种 Pipeline 为 MediaPipeline 。FilesPipeline 和 ImagesPipeline 都包含如下特性:

    • 避免重复下载数据
    • 指定存储位置

    ImagesPipeline 又包含如下特性:

    • 图片转换为 JPG 格式或者 RGB 格式
    • 生成缩略图
    • 限制图片下载的最大/最小宽高

    Tip:Scrapy Pipeline 避免重复下载的方法是将要下载的文件的 URL 放入一个队列中,并且和 Response 关联,从而避免了重复下载。

    1. FilesPipeline

    FilesPipeline 下载文件的工作流程非常简单,一共有四个步骤:

    • 爬虫把获取到的 Item 和希望下载的文件的 URL 保存到 file_urls 中;
    • 爬虫返回的 Item 进入到 Pipeline 内部;
    • Item 按照顺序传递到 FilesPipeline 时,file_urls 中的 URL 会被内置的调度器和下载器下载。在这个时候 Item 是被锁定的,直到需要下载的文件下载完成或者报错,Item 才解除锁定;
    • 下载完成后,结果将被保存在 files 中,files 是一个列表,每条数据是 dict 类型。
    1. ImagesPipeline

    ImagesPipeline 是继承自 FilesPipeline ,也就是说它的大部分步骤和 FilesPipeline 一样。 唯一不同的是 ImagesPipeline 将需要下载的图片 URL 保存到了 image_urls 中,下载完成的结果保存到 images 中。

    Tip:Pipeline 中不仅仅包含了这两个特殊的 Pipeline ,因为 FilesPipeline 和 ImagesPipeline 是比较常用的,因此我在这里进行了讲解。更多的内置 Pipeline 大家可以去 Scrapy 官网查看具体的文档。

    我们在编写完 Pipeline 后需要在 settings.py 文件中进行注册,将我们编写的 Pipeline 注入到 Scrapy 中。

    ITEM_PIPELINS= {
      '自定义Pipeline 路径':'优先级'
    }
    

    二、总结

    本篇文章主要讲解了 Pipeline 的理论知识,虽然很短,但是这些知识是 Pipeline 的核心知识。下一节我将通过代码的形式来展现 Pipeline 的使用。

  • 相关阅读:
    Netty源码分析之ByteBuf引用计数
    GitHub git push大文件失败(write error: Broken pipe)完美解决
    Windows10 Docker安装详细教程
    全面的Docker快速入门教程
    十本你不容错过的Docker入门到精通书籍推荐
    CentOS 8.4安装Docker
    postgres之一条sql查询总数及部分数据
    neo4j相关操作
    git上传大文件
    分布式文件系统fastdfs安装以及python调用
  • 原文地址:https://www.cnblogs.com/gangzhucoll/p/12778099.html
Copyright © 2011-2022 走看看