zoukankan      html  css  js  c++  java
  • 爬虫

    简介

    Scrapy-Redis则是一个基于Redis的Scrapy分布式组件。它利用Redis对用于爬取的请求(Requests)进行存储和调度(Schedule),

    并对爬取产生的项目(items)存储以供后续处理使用。scrapy-redi重写了scrapy一些比较关键的代码,

    将scrapy变成一个可以在多个主机上同时运行的分布式爬虫。 
    参考Scrapy-Redis官方github地址

    安装

    1 pip3 install scrapy-redis

    配置

    连接redis

    1 REDIS_HOST = '250.100.250.250'         # 主机名
    2 REDIS_PORT = 9999                      # 端口
    3 REDIS_PARAMS  = {'password':'xxx'}    # Redis连接参数             默认:REDIS_PARAMS = {'socket_timeout': 30,'socket_connect_timeout': 30,'retry_on_timeout': True,'encoding': REDIS_ENCODING,})
    4 REDIS_ENCODING = "utf-8"               # redis编码类型             默认:'utf-8'

    或者:

    1 REDIS_URL = 'redis://user:pass@hostname:9001'       # 连接URL(优先于以上配置)

    去重

    1 DUPEFILTER_KEY = 'dupefilter:%(timestamp)s'
    2 DUPEFILTER_CLASS = 'scrapy_redis.dupefilter.RFPDupeFilter'

    调度器配置

     1 SCHEDULER = "scrapy_redis.scheduler.Scheduler"
     2  
     3 DEPTH_PRIORITY = 1  # 广度优先
     4 # DEPTH_PRIORITY = -1 # 深度优先
     5 SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.PriorityQueue'  # 默认使用优先级队列(默认),其他:PriorityQueue(有序集合),FifoQueue(列表)、LifoQueue(列表)
     6  
     7 # 广度优先
     8 # SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.FifoQueue'  # 默认使用优先级队列(默认),其他:PriorityQueue(有序集合),FifoQueue(列表)、LifoQueue(列表)
     9 # 深度优先
    10 # SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.LifoQueue'  # 默认使用优先级队列(默认),其他:PriorityQueue(有序集合),FifoQueue(列表)、LifoQueue(列表)
    11 SCHEDULER_QUEUE_KEY = '%(spider)s:requests'  # 调度器中请求存放在redis中的key
    12  
    13 SCHEDULER_SERIALIZER = "scrapy_redis.picklecompat"  # 对保存到redis中的数据进行序列化,默认使用pickle
    14  
    15 SCHEDULER_PERSIST = False  # 是否在关闭时候保留原来的调度器和去重记录,True=保留,False=清空
    16 SCHEDULER_FLUSH_ON_START = True  # 是否在开始之前清空 调度器和去重记录,True=清空,False=不清空
    17 # SCHEDULER_IDLE_BEFORE_CLOSE = 10  # 去调度器中获取数据时,如果为空,最多等待时间(最后没数据,未获取到)。
    18  
    19  
    20 SCHEDULER_DUPEFILTER_KEY = '%(spider)s:dupefilter'  # 去重规则,在redis中保存时对应的key
    21  
    22 # 优先使用DUPEFILTER_CLASS,如果么有就是用SCHEDULER_DUPEFILTER_CLASS
    23 SCHEDULER_DUPEFILTER_CLASS = 'scrapy_redis.dupefilter.RFPDupeFilter'  # 去重规则对应处理的类
  • 相关阅读:
    nginx安装
    虚拟机下Linux的NAT网络配置 及显示红叉
    eclipse常用快捷键
    MongoDB笔记
    Pytorch 之 MNIST 数据集实现(代码讲解)
    [python][科学计算][matplotlib]使用指南
    梯度计算
    第一次神经网络作业,神经网络预测图片是否为猫的代码实现
    KVM监控完善
    Zabbix表结构,zabbix api获取主机信息vs直接从数据库获取主机信息
  • 原文地址:https://www.cnblogs.com/zhaohuhu/p/9264158.html
Copyright © 2011-2022 走看看