zoukankan      html  css  js  c++  java
  • 分布式爬虫

    一.分布式爬虫简介

      1.介绍:

        分布式爬虫就是多台计算机上都安装爬虫程序,重点是联合采集。比如爬虫A,B,C分别在三台服务器上,需要一个状态管理器集中分配,去重这三个爬虫的url,状态管理器也是一个服务,需要部署在某一个服务器上。

      2.优点:

        (1)充分利用多机器的带宽加速爬取;

        (2)充分利用多机器的ip加速爬取速度

      3.分布式需要解决的问题:

        (1)request队列集中处理

        (2)去重集中处理

    二.Redis的简单使用

      1.Redis的数据类型:

        1.1(String)字符串:

          

    键值对应

        1.2(Hash)哈希:

    设置多个键值对每个 hash 可以存储 232 -1 键值对(40多亿)

        1.3(List)列表:

    左边添加,右边添加,左边取前四个数据

        1.4(Set)集合:

    添加一个字符串到set()集合,成功返回1,如果已经存在则返回0,最大的成员数为 232 - 1

        1.5(zset)有序集合:

    添加元素到集合,不同的是每个元素都会关联一个double类型的分数,通过分数排序。

      2.常用命令:

        可参考:http://www.runoob.com/redis/redis-sets.html

    三.scrapy-redis搭建分布式爬虫

      1.github源码地址:

        https://github.com/rmax/scrapy-redis

       2.将scrapy-redis项目clone下到本地,需要src下的scrapy-redis文件:

         导入scrapy-redis并安装redis(pip install redis)设置:

     1 #在redis中启用调度存储请求队列。
     2 SCHEDULER  =  “ scrapy_redis.scheduler.Scheduler ”
     3 
     4 #确保所有蜘蛛通过redis共享相同的重复过滤器。
     5 DUPEFILTER_CLASS  =  “ scrapy_redis.dupefilter.RFPDupeFilter ”
     6 
     7 #默认请求序列化程序是pickle,但它可以更改为
     8 具有加载和转储功能的任何模块#。请注意,
     9 # python版本
    10 之间的pickle不兼容。#警告:在蟒蛇3.x中,串行器必须返回字符串键和支持
    11 #字节的值。由于这个原因,json或msgpack模块
    12 默认不会#工作。在python 2.x中没有这样的问题,您可以使用
    13'json''msgpack'作为序列化程序。
    14 # SCHEDULER_SERIALIZER = “scrapy_redis.picklecompat”
    15 
    16 #不要清理redis队列,允许暂停/恢复抓取。
    17 # SCHEDULER_PERSIST =18 
    19 #使用优先级队列安排请求。(默认)
    20 # SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.PriorityQueue'
    21 
    22 #替代队列。
    23 # SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.FifoQueue' 
    24 # SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.LifoQueue'
    25 
    26 #最大空闲时间,防止蜘蛛在分布式爬网时被关闭。
    27 #这仅在队列类为SpiderQueue或SpiderStack时才有效,
    28 #也可能在您的蜘蛛第一次启动时阻塞同一时间(因为队列为空)。
    29 # SCHEDULER_IDLE_BEFORE_CLOSE = 10
    30 
    31 #将已删除的项目存储在redis中进行后期处理。
    32 ITEM_PIPELINES  = {
    33      ' scrapy_redis.pipelines.RedisPipeline ': 300
    34 }
    35 
    36 #项目管道序列化并存储此redis密钥中的项目。
    37 # REDIS_ITEMS_KEY ='%(蜘蛛)S:项的
    38 
    39 #项目序列化程序默认为ScrapyJSONEncoder。你可以使用任何
    40 #导入的路径,一个可调用对象。
    41 # REDIS_ITEMS_SERIALIZER = 'json.dumps'
    42 
    43 #指定连接到Redis时使用的主机和端口(可选)。
    44 # REDIS_HOST = '本地主机' 
    45 # REDIS_PORT = 6379
    46 
    47 #指定用于连接的完整Redis URL(可选)。
    48 #如果设置,则优先于REDIS_HOST和REDIS_PORT设置。
    49 # REDIS_URL = 'redis的://用户:通过@主机名:9001'
    50 
    51 #定制redis的客户参数(即:套接字超时等)
    52 # REDIS_PARAMS = {} 
    53 #使用自定义redis的客户端类。
    54 # REDIS_PARAMS [ 'redis_cls'] = 'myproject.RedisClient'
    55 
    56 #如果为True,则使用redis'``SPOP``操作。您必须使用``SADD`` 
    57 #命令将URL添加到redis队列。如果你这可能是有用的
    58 #要避免在开始的URL列表和重复的顺序
    59 #处理无关紧要。
    60 # REDIS_START_URLS_AS_SET =61 
    62 #默认启动网址RedisSpider和RedisCrawlSpider关键。
    63 # REDIS_START_URLS_KEY = '%(名)S:start_urls'
    64 
    65 #使用除utf-8之外的其他编码进行redis。
    66 # REDIS_ENCODING = 'latin1的'
    View Code

      3.配置setting:

    # SCHEDULER覆盖原有的,在redis中启用调度存储请求队列
    SCHEDULER = "scrapy_redis.scheduler.Scheduler"
    # 确保所有spider通过redis共享相同的重复过滤器
    DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
    # 配置以便后期插入数据库等操作
    ITEM_PIPELINES = {
        "scrapy_redis.pipelines.RedisPipeline": 300,
    }

    监听,取不到url不会退出,telnet一直监听

      4.将网址推送到redis,运行lpush myspider:start_urls 起始url:

        不设定redis_key,默认为spider:start_urls:

          如:lpush jobbole:start_urls http://blog.jobbole.com/all-posts

       5.scrapy-redis源码介绍:

        5.1collection.py:

          get_redis_from_settings():将所有配置放到dict:params中,用于实例化redis对象。

          get_redis():实例化redis对象,from_url方法优先。

        5.2defaults.py:

          设定默认连接参数。

        5.3dupefilter.py(去重类,和scrapy的dupefilter.py几乎一模一样):

          clear(self):清除request_fingerprint记录

          close(self,reason):结束爬虫爬取时,调用

             from_crawler(cls,crawler):类方法,调用from_settings方法初始化

             from_settings(cls,settings):类方法初始化,预留钩子

             log(self,request,spider):根据传入的debug或者默认显示log

               request_fingerprint(self,request):根据请求信息返回经过sha1计算后的值

            request_seen(self,request)调用request_fingerprint,判断是否访问过  

        5.4picklecompat.py:

          process_item():调用_process_item。
          _process_item():通过rpush方法放到redis的列表里。

        5.6queue.py:使用redis制作的队列,有Fifo(先进先出)、Lifo(后进先出)、PriorityQueue(有序集合取第一个)三种

        5.7scheduler.py(调度器类):

          enqueue_request():不是白名单且访问过的,往队列里放Request对象

          next_request():从队列里取值

        5.8spiders.py:爬虫类

        5.9utils.py:

          bytes_to_str():字节转成字符串,默认utf-8

     

      

       
     

          

     

     

         

        

  • 相关阅读:
    SpringBoot使用过滤器、拦截器、切面(AOP),及其之间的区别和执行顺序
    发送POST请求,包含文件MultipartFile参数,普通字符串参数,请求头参数
    Linux安装Mongodb(附带SpringBoot整合MongoDB项目Demo)
    博客目录
    Ubuntu+Hexo+Github搭建个人博客
    Hexo+Github搭建个人博客
    Linux设备驱动程序学习----3.模块的编译和装载
    Linux设备驱动程序学习----2.内核模块与应用程序的对比
    Linux设备驱动程序学习----1.设备驱动程序简介
    Linux设备驱动程序学习----目录
  • 原文地址:https://www.cnblogs.com/lyq-biu/p/9774030.html
Copyright © 2011-2022 走看看