zoukankan      html  css  js  c++  java
  • 爬虫:Scrapy15

    考虑下面的 spider:

    import scrapy
    from myproject.items import MyItem
    
    class MySpider(scrapy.Spider):
        name = 'myspider'
        start_urls = (
            'http://example.com/page1',
            'http://example.com/page2',
            )
    
        def parse(self, response):
            # collect `item_urls`
            for item_url in item_urls:
                yield scrapy.Request(item_url, self.parse_item)
    
        def parse_item(self, response):
            item = MyItem()
            # populate `item` fields
            # and extract item_details_url
            yield scrapy.Request(item_details_url, self.parse_details, meta={'item': item})
    
        def parse_details(self, response):
            item = response.meta['item']
            # populate more `item` fields
            return item

    简单地说,该 spider 分析了两个包含 item 的页面(start_urls)。Item 有详情页面,所以我们使用 Request 的 meta 功能来传递已经部分获取的 item。

    Parse 命令

    检查 spider 输出的最基本的方法是使用 parse 命令。这能让你在函数层(method level)上检查 spider 各个部分的效果。其十分灵活并且易用,不过不能再代码中调试。

    查看特定 url 爬取到的 item:

    $ scrapy parse --spider=myspider -c parse_item -d 2 <item_url>
    [ ... scrapy log lines crawling example.com spider ... ]
    
    >>> STATUS DEPTH LEVEL 2 <<<
    # Scraped Items  ------------------------------------------------------------
    [{'url': <item_url>}]
    
    # Requests  -----------------------------------------------------------------
    []

    使用 --verbose 或者 -v 选项,查看各个层级的状态:

    $ scrapy parse --spider=myspider -c parse_item -d 2 -v <item_url>
    [ ... scrapy log lines crawling example.com spider ... ]
    
    >>> DEPTH LEVEL: 1 <<<
    # Scraped Items  ------------------------------------------------------------
    []
    
    # Requests  -----------------------------------------------------------------
    [<GET item_details_url>]
    
    >>> DEPTH LEVEL: 2 <<<
    # Scraped Items  ------------------------------------------------------------
    [{'url': <item_url>}]
    
    # Requests  -----------------------------------------------------------------
    []

    检查从单个 start_url 爬取到的 item 也是很简单的:

    $ scrapy parse --spider=myspider -d 3 'http://example.com/page1'
    Scrapy终端(Shell)

    尽管 parse 命令对检查 spider 的效果十分有用,但除了显示收到的 response 及输出外,其对检查回调函数内部的过程并没有提供什么便利。如何调试 parse_detail 没有收到 item 的情况呢?

    幸运的是,救世主 shell 出现了(参考在 spider 中启动 shell 来查看 response):

    from scrapy.shell import inspect_response
    
    def parse_details(self, response):
        item = response.meta.get('item', None)
        if item:
            # populate more `item` fields
            return item
        else:
            inspect_response(response, self)

    在浏览器中打开

    有时候你想查看某个 response 在浏览器中的显示效果,可以使用 open_in_browser功能:

    from scrapy.utils.response import open_in_browser
    
    def parse_details(self, response):
        if "item name" not in response.body:
            open_in_browser(response)

    open_in_browser 将会使用 Scrapy 获取到的 response 来打开浏览器,并且调整 base tag 是的 图片以及样式(style)能正常显示。

    Logging

    记录(logging)是另一个获取到 spider 运行信息的方法。虽然不是那么方便,但好处是log的内容在以后的运行中也可以看到:

    from scrapy import log
    
    def parse_details(self, response):
        item = response.meta.get('item', None)
        if item:
            # populate more `item` fields
            return item
        else:
            self.log('No item received for %s' % response.url,
                level=log.WARNING)
  • 相关阅读:
    事务的隔离级别
    常用linux命令
    cpu.load avg和cpu使用率的区别
    【Leetcode】55. Jump Game
    【Leetcode】322. coin-change
    34.find-first-and-last-position-of-element-in-sorted-array
    【LeetCode】56.merge-intervals
    Leetcode】210.course-schedule-ii
    基于Thread实现自己的定时器Timer
    Boost--内存管理--(1)智能指针
  • 原文地址:https://www.cnblogs.com/sufei-duoduo/p/5884209.html
Copyright © 2011-2022 走看看