zoukankan      html  css  js  c++  java
  • 分布式爬虫

    问题:

    • 为什么原生的scrapy不能实现分布式?
      • 调度器不能被共享
      • 管道无法被共享
    • scrapy-redis组件的作用是什么?
      • 提供了可以被共享的调度器和管道

    实现分布式爬虫的流程?

    1.环境安装:pip install scrapy-redis
    2.创建工程
    3.创建爬虫文件:RedisCrawlSpider  RedisSpider
        - scrapy genspider -t crawl xxx www.xxx.com
    4.对爬虫文件中的相关属性进行修改:
        - 导报:from scrapy_redis.spiders import RedisCrawlSpider
        - 将当前爬虫文件的父类设置成RedisCrawlSpider
        - 将起始url列表替换成redis_key = 'xxx'(调度器队列的名称)
    5.在配置文件中进行配置:
        - 使用组件中封装好的可以被共享的管道类:
            ITEM_PIPELINES = {
                'scrapy_redis.pipelines.RedisPipeline': 400
                }
        - 配置调度器(使用组件中封装好的可以被共享的调度器)
            # 增加了一个去重容器类的配置, 作用使用Redis的set集合来存储请求的指纹数据, 从而实现请求去重的持久化
            DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
            # 使用scrapy-redis组件自己的调度器
            SCHEDULER = "scrapy_redis.scheduler.Scheduler"
            # 配置调度器是否要持久化, 也就是当爬虫结束了, 要不要清空Redis中请求队列和去重指纹的set。如果是True, 就表示要持久化存储, 就不清空数据, 否则清空数据
            SCHEDULER_PERSIST = True
    
         - 指定存储数据的redis:
            REDIS_HOST = 'redis服务的ip地址'
            REDIS_PORT = 6379
    
         - 配置redis数据库的配置文件
            - 取消保护模式:protected-mode no
            - bind绑定: #bind 127.0.0.1
    
         - 启动redis
    
    6.执行分布式程序
        scrapy runspider xxx.py
    
    7.向调度器队列中仍入一个起始url:
        在redis-cli中执行:
    

    【需求】爬取抽屉网中的标题和作者

    代码部分:

    chouti.py:

    # -*- coding: utf-8 -*-
    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    from scrapy_redis.spiders import RedisCrawlSpider
    from redisChoutiPro.items import RedischoutiproItem
    class ChoutiSpider(RedisCrawlSpider):
        name = 'chouti'
        # allowed_domains = ['www.xxx.com']
        # start_urls = ['http://www.xxx.com/']
        redis_key = 'chouti'
    
        rules = (
            Rule(LinkExtractor(allow=r'/all/hot/recent/d+'), callback='parse_item', follow=True),
        )
    
        def parse_item(self, response):
           div_list = response.xpath('//div[@class = "item"]')
           for div in div_list:
               title = div.xpath('./div[4]/div[1]/a/text()').extract_first()
               author = div.xpath('./div[4]/div[2]/a[4]/b/text()').extract_first()
               item = RedischoutiproItem()
               item['title'] = title
               item['author'] = author
               yield item
    

    items.py

    import scrapy
    
    
    class RedischoutiproItem(scrapy.Item):
        # define the fields for your item here like:
        title = scrapy.Field()
        author = scrapy.Field()
    

    settings.py

    ITEM_PIPELINES = {
        'scrapy_redis.pipelines.RedisPipeline': 400
    }
    
    
    # 增加了一个去重容器类的配置, 作用使用Redis的set集合来存储请求的指纹数据, 从而实现请求去重的持久化
    DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
    # 使用scrapy-redis组件自己的调度器
    SCHEDULER = "scrapy_redis.scheduler.Scheduler"
    # 配置调度器是否要持久化, 也就是当爬虫结束了, 要不要清空Redis中请求队列和去重指纹的set。如果是True, 就表示要持久化存储, 就不清空数据, 否则清空数据
    SCHEDULER_PERSIST = True  #数据指纹
    
    REDIS_HOST = '127.0.0.1'
    REDIS_PORT = 6379
  • 相关阅读:
    Spring实战(第4版).pdf
    java-spring基于redis单机版(redisTemplate)实现的分布式锁+redis消息队列,可用于秒杀,定时器,高并发,抢购
    docker(ubuntu)中安装cron运行crontab定时任务
    java8中日期字符串的月日时分秒自动补零
    img垂直居中div
    使用InstallAnywhere7.1制作Java exe程序安装包
    在IDEA中将项目部署到Tomcat的方法及两种模式的区别
    将Java web应用部署到Tomcat 及部署到Tomcat根目录 的三种方式
    MySQL 5.7.19 忘记密码 重置密码 配置文件my.ini示例 服务启动后停止 log配置
    windows 同时启动多个Tomcat 控制台日志(startup.bat)输出到指定文件中
  • 原文地址:https://www.cnblogs.com/wqzn/p/10479139.html
Copyright © 2011-2022 走看看