zoukankan      html  css  js  c++  java
  • python爬虫学习笔记(十七)-框架使用

    1 基本使用

    1.1 创建项目

    运行命令:
    scrapy startproject myfrist(your_project_name)

    image
    文件说明:

    名称 作用
    scrapy.cfg 项目的配置信息,主要为Scrapy命令行工具提供一个基础的配置信息。(真正爬虫相关的配置信息在settings.py文件中)
    items.py 设置数据存储模板,用于结构化数据,如:Django的Model
    pipelines 数据处理行为,如:一般结构化的数据持久化
    settings.py 配置文件,如:递归的层数、并发数,延迟下载等
    spiders 爬虫目录,如:创建文件,编写爬虫规则

    注意:一般创建爬虫文件时,以网站域名命名

    2 编写 spdier

    在spiders目录中新建 daidu_spider.py 文件

    2.1 注意
    1. 爬虫文件需要定义一个类,并继承scrapy.spiders.Spider
    2. 必须定义name,即爬虫名,如果没有name,会报错。因为源码中是这样定义的
    2.2 编写内容

    在这里可以告诉 scrapy 。要如何查找确切数据,这里必须要定义一些属性

    • name: 它定义了蜘蛛的唯一名称
    • allowed_domains: 它包含了蜘蛛抓取的基本URL;
    • start-urls: 蜘蛛开始爬行的URL列表;
    • parse(): 这是提取并解析刮下数据的方法;

    下面的代码演示了蜘蛛代码的样子:

    import scrapy
    
    
    class DoubanSpider(scrapy.Spider):
        name = 'douban'
        allwed_url = 'douban.com'
        start_urls = [
            'https://movie.douban.com/top250/'
        ]
    
        def parse(self, response):
            movie_name = response.xpath("//div[@class='item']//a/span[1]/text()").extract()
            movie_core = response.xpath("//div[@class='star']/span[2]/text()").extract()
            yield {
                'movie_name':movie_name,
                'movie_core':movie_core
            }
    

    其他命令:

    • 创建爬虫

      scrapy genspider 爬虫名 爬虫的地址
      
    • 运行爬虫

      scrapy crawl 爬虫名
      
  • 相关阅读:
    Undefined symbols for architecture armv7: "CreateRSADataVerifier(NSString*)", referenced from:
    iOS 多线程研究11
    iOS 多线程研究
    iOS 中谓词的使用 NSPredicate
    ios 进程间通信
    GCD Block最简单的用法
    tabbar 获得对应的视图对象的方法
    网络请求
    iOS手势 规避同一界面上不同子界面同时响应多个手势
    20171107 几天考试总结
  • 原文地址:https://www.cnblogs.com/thresh/p/13349095.html
Copyright © 2011-2022 走看看