zoukankan      html  css  js  c++  java
  • 监控爬虫

    增量式爬虫:

    介绍:

    概念:通过爬虫程序监测某网站数据更新的情况,以便可以爬取到该网站更新出的新数据。
    
    如何进行增量式的爬取工作:
        在发送请求之前判断这个URL是不是之前爬取过
        在解析内容后判断这部分内容是不是之前爬取过
        写入存储介质时判断内容是不是已经在介质中存在
    分析:
          不难发现,其实增量爬取的核心是去重, 至于去重的操作在哪个步骤起作用,只能说各有利弊。在我看来,前两种思路需要根据实际情况取一个(也可能都用)。第一种思路适合不断有新页面出现的网站,比如说小说的新章节,每天的最新新闻等等;第二种思路则适合页面内容会更新的网站。第三个思路是相当于是最后的一道防线。这样做可以最大程度上达到去重的目的。
    

    去重:

    	将爬取过程中产生的url进行存储,存储在redis的set中。当下次进行数据爬取时,首先对即将要发起的请求对应的url在存储的url的set中做判断,如果存在则不进行请求,否则才进行请求。
    
    	对爬取到的网页内容进行唯一标识的制定,然后将该唯一表示存储至redis的set中。当下次爬取到网页数据的时候,在进行持久化存储之前,首先可以先判断该数据的唯一标识在redis的set中是否存在,在决定是否进行持久化存储。
    

    实战:

    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    
    from redis import Redis
    from incrementPro.items import IncrementproItem
    class MovieSpider(CrawlSpider):
        name = 'movie'
        # allowed_domains = ['www.xxx.com']
        start_urls = ['http://www.4567tv.tv/frim/index7-11.html']
    
        rules = (
            Rule(LinkExtractor(allow=r'/frim/index7-d+.html'), callback='parse_item', follow=True),
        )
        #创建redis链接对象
        conn = Redis(host='127.0.0.1',port=6379)
        def parse_item(self, response):
            li_list = response.xpath('//li[@class="p1 m1"]')
            for li in li_list:
                #获取详情页的url
                detail_url = 'http://www.4567tv.tv'+li.xpath('./a/@href').extract_first()
                #将详情页的url存入redis的set中
                ex = self.conn.sadd('urls',detail_url)
                if ex == 1:
                    print('该url没有被爬取过,可以进行数据的爬取')
                    yield scrapy.Request(url=detail_url,callback=self.parst_detail)
                else:
                    print('数据还没有更新,暂无新数据可爬取!')
    
        #解析详情页中的电影名称和类型,进行持久化存储
        def parst_detail(self,response):
            item = IncrementproItem()
            item['name'] = response.xpath('//dt[@class="name"]/text()').extract_first()
            item['kind'] = response.xpath('//div[@class="ct-c"]/dl/dt[4]//text()').extract()
            item['kind'] = ''.join(item['kind'])
            yield item
    

    配置文件:

    from redis import Redis
    class IncrementproPipeline(object):
        conn = None
        def open_spider(self,spider):
            self.conn = Redis(host='127.0.0.1',port=6379)
        def process_item(self, item, spider):
            dic = {
                'name':item['name'],
                'kind':item['kind']
            }
            print(dic)
            self.conn.lpush('movieData',dic)
            return item
    

    实战2:

    import scrapy
    from scrapy.linkextractors import LinkExtractor
    from scrapy.spiders import CrawlSpider, Rule
    from incrementByDataPro.items import IncrementbydataproItem
    from redis import Redis
    import hashlib
    class QiubaiSpider(CrawlSpider):
        name = 'qiubai'
        # allowed_domains = ['www.xxx.com']
        start_urls = ['https://www.qiushibaike.com/text/']
    
        rules = (
            Rule(LinkExtractor(allow=r'/text/page/d+/'), callback='parse_item', follow=True),
            Rule(LinkExtractor(allow=r'/text/$'), callback='parse_item', follow=True),
        )
        #创建redis链接对象
        conn = Redis(host='127.0.0.1',port=6379)
        def parse_item(self, response):
            div_list = response.xpath('//div[@id="content-left"]/div')
    
            for div in div_list:
                item = IncrementbydataproItem()
                item['author'] = div.xpath('./div[1]/a[2]/h2/text() | ./div[1]/span[2]/h2/text()').extract_first()
                item['content'] = div.xpath('.//div[@class="content"]/span/text()').extract_first()
    
                #将解析到的数据值生成一个唯一的标识进行redis存储
                source = item['author']+item['content']
                source_id = hashlib.sha256(source.encode()).hexdigest()
                #将解析内容的唯一表示存储到redis的data_id中
                ex = self.conn.sadd('data_id',source_id)
    
                if ex == 1:
                    print('该条数据没有爬取过,可以爬取......')
                    yield item
                else:
                    print('该条数据已经爬取过了,不需要再次爬取了!!!')
    
    from redis import Redis
    class IncrementbydataproPipeline(object):
        conn = None
    
        def open_spider(self, spider):
            self.conn = Redis(host='127.0.0.1', port=6379)
    
        def process_item(self, item, spider):
            dic = {
                'author': item['author'],
                'content': item['content']
            }
            # print(dic)
            self.conn.lpush('qiubaiData', dic)
            return item
    

    实战3:

    mport scrapy
    import hashlib
    import redis
    from wzrypro.items import WzryproItem
    
    
    class WzrySpider(scrapy.Spider):
        name = 'wzry'
        # allowed_domains = ['www.xxx.com']
        start_urls = ['http://sy.5173.com/BizOffer/GoodsList?pageIndex=1&GameId=76bae5aefec047e89bcb6aa4e417f138']
        conn = redis.Redis(host="10.0.0.6", port=6379)
    
        def parse(self, response):
            span_list = response.xpath('//span[@class="good-info"]')
    
            for span in span_list:
                title = span.xpath('./p[1]/a/text()').extract_first()
                # area = span.xpath('./p[3]/span/text()').extract_first()
                detail_url = "http://sy.5173.com/BizOffer/" + span.xpath('./p[1]/a/@href').extract_first()
                data = title
    
                # 生成一个数据指纹,用来做数据的唯一标识
                hash_key = hashlib.sha256(data.encode()).hexdigest()
    
                ex = self.conn.sadd("hash_key", hash_key)  # 如果返回1表示未存储过,返回0反之
    
                item = WzryproItem()
                item["title"] = title
                item["detail_url"] = detail_url
    
                if ex == 1:
                    print("有新数据可爬取!!!")
                    yield item
                else:
                    print("暂无新数据可爬~~~")
    
  • 相关阅读:
    EBS R12.2.0启动时报"httpd.pid: Permission denied"错误
    MSSQL 2012 拒绝了对对象 'extended_properties' (数据库 'mssqlsystemresource',架构 'sys')的 SELECT 权限
    EBS R12.2 创建应用层的启动和关闭脚本
    EBS R12.2应用层启动脚本的执行过程
    EBS R12.2应用层关闭脚本的执行过程
    Linux卸载NAS磁盘,报device is busy
    linux上创建PV/VG/LV
    RW-50004 While Running adrunfmw during EBS 12.2 Installation
    .net(C#)中this关键字
    Javascript的this用法及jQuery中$this和$(this)的区别
  • 原文地址:https://www.cnblogs.com/shaozheng/p/12795676.html
Copyright © 2011-2022 走看看