zoukankan      html  css  js  c++  java
  • python_09

    今日内容:

    scrapy各组件

    Components:

    1、引擎(EGINE)
    引擎负责控制系统所有组件之间的数据流,并在某些动作发生时触发事件。有关详细信息,请参见上面的数据流部分。

    2、调度器(SCHEDULER)
    用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. 可以想像成一个URL的优先级队列, 由它来决定下一个要抓取的网址是什么, 同时去除重复的网址。

    3、下载器(DOWLOADER)
    用于下载网页内容, 并将网页内容返回给EGINE,下载器是建立在twisted这个高效的异步模型上的。

    4、爬虫(SPIDERS)
    SPIDERS是开发人员自定义的类,用来解析responses,并且提取items,或者发送新的请求。

    5、项目管道(ITEM PIPLINES)
    在items被提取后负责处理它们,主要包括清理、验证、持久化(比如存到数据库)等操作。

    6、下载器中间件(Downloader Middlewares)位于Scrapy引擎和下载器之间,主要用来处理从EGINE传到DOWLOADER的请求request,已经从DOWNLOADER传到EGINE的响应response,
    你可用该中间件做以下几件事:
      (1) process a request just before it is sent to the Downloader (i.e. right before Scrapy sends the request to the website);
      (2) change received response before passing it to a spider;
      (3) send a new Request instead of passing received response to a spider;
      (4) pass response to a spider without fetching a web page;
      (5) silently drop some requests.

    7、爬虫中间件(Spider Middlewares)
    位于EGINE和SPIDERS之间,主要工作是处理SPIDERS的输入(即responses)和输出(即requests)

    1、进入终端cmd:
            -scrapy
    
    2、创建scrapy项目
        1.创建文件夹存放scrapy项目
            -D:Scrapy_project
    
        2.cmd终端输入命令
        -scrapy starproject Spider_Project
        会在D:Scrapy_project下生成文件夹
            -Spider_Project :Scrapy项目文件
    
        3.创建好后会提示
            -cd Spider_Project     #切换到scrapy项目目录下
                              #爬虫程序名称   #目标网站域名
            -scrapy genspider  baidu          www.baidu.com     #创建爬虫程序
    
    3.启动scrapy项目,执行爬虫程序
        # 找到爬虫程序文件执行
        scrapy runspider 爬虫程序.py
        # 切换到爬虫程序执行目录下
            -cd D:Scrapy_projectSpider_ProjectSpider_Projectspiders
            -scrapy runspider baidu.py
    from scrapy.cmdline import execute
    
    # 写终端命令
    # scrapy crawl baidu
    # 执行baidu爬虫程序
    # execute(['scrapy', 'crawl', 'baidu'])
    
    # 创建爬取链家网程序
    # execute(['scrapy', 'genspider', 'lianjia', 'lianjia.com'])
    
    # --nolog     去除日志
    execute('scrapy crawl --nolog lianjia'.split(' '))
    
    '''
    Scrapy在Pycharm中使用
    1.创建scrapy项目
    在settings.py文件中有
        -ROBOTSTXT_OBEY = True     #默认遵循robot协议
    修改为:
        -ROBOTSTXT_OBEY = False
    '''




  • 相关阅读:
    BUAA面向对象第一单元作业总结
    Kafka 总结学习
    Mybatis学习-GetMybatisInMyHead
    大数据实战-电信客服-重点记录
    基于有穷状态机思想的电梯系统
    Selective Search-目标检测“垫脚石”
    SparkSQL 实验
    Spark Core实验
    MapReduce实验
    NoSQL实验
  • 原文地址:https://www.cnblogs.com/zhanglei97/p/11066424.html
Copyright © 2011-2022 走看看