zoukankan      html  css  js  c++  java
  • python scrapy爬虫框架概念介绍(个人理解总结为一张图)

    python的scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架
     
    python和scrapy的安装就不介绍了,资料很多
    这里我个人总结一下,能更加快理解scrapy和快速上手一个简单的爬虫程序
     

    首先开始一个scrapy项目

    用命令: scrapy startproject 项目名
    创建出来的文件如下图:红框是我的命令,蓝框是scrapy自动创建的文件

    其中各个最常用文件的用处:

    mytestproject
    --items.py 定义spider.py到pipelines.py中间的数据格式
    --pipelines.py 处理爬取到的数据
    --settings.py 配置文件,定义有几个pipelines以及他们的优先级,
    --spider 爬虫目录
    ----spider.py 爬取哪些页面, 如何解析爬取的到的数据,整理数据返回给pipelines.py
     
    我画了一张简单的图介绍一下各个文件之间的关系:
    一个url地址对应的数据从开始爬取-->处理结果-->入库(或写文件等) 分别是在哪个文件里做的,如下图:
    scrapy框架中的各个文件和数据流转大概就是这样,后面我会详细介绍下我爬取zhihu的各个文件的详细代码. 
     

  • 相关阅读:
    二叉树
    队列和栈
    时间复杂度和空间复杂度
    二分查找法
    排序算法值归并排序
    排序算法之选择排序类
    5.7.1.3 Global 对象的属性
    5.7.1.2 eval() 方法
    5.7.1.1 单体内置对象
    5.6.3.8 fromCharCode()方法
  • 原文地址:https://www.cnblogs.com/wangtcc/p/9590526.html
Copyright © 2011-2022 走看看