zoukankan      html  css  js  c++  java
  • 3.第一个scrapy项目

    第一个scrapy项目

    1. 创建scrapy项目

    1.1 创建项目三剑客

    这里的三剑客指的是:创建项目以及运行项目的三条命令

    1.1.1 创建项目

    scrapy stratproject 项目名称

    (base) D:project爬虫高性能相关>scrapy startproject spider1
    New Scrapy project 'spider1', using template directory 'd:anaconda3libsite-packagesscrapy	emplatesproject', created in:
        D:project爬虫高性能相关spider1
    
    You can start your first spider with:
        cd spider1
        scrapy genspider example example.com
    
    

    这里我们就创建好了一个scrapy项目 ( 工程 ) , 接下来的操作都是在这个项目目录下进行, 此时我们只是创建了一个项目, 但该项目中并没有爬虫文件. 接下来就是创建爬虫文件.

    1.1.2 创建爬虫

    首先要进入到项目路径下: 在pycharm的terminal中 输入 cd 项目名

    我这里就是: cd spider1

    (base) D:project爬虫高性能相关>cd spider1
    
    (base) D:project爬虫高性能相关spider1>
    

    创建爬虫文件: scrapy genspider baidu baidu.com

    # 这里我们以爬取百度首页为例
    
    (base) D:project爬虫高性能相关spider1>scrapy genspider baidu baidu.com
    Created spider 'baidu' using template 'basic' in module:
      spider1.spiders.baidu
    

    scrapy genspider 是固定写法 , 紧接着跟的是 爬虫的文件名 以及允许爬的域名

    输入该命令后就会生成以下项目目录:

    spider1
    	|
        |——spider1
        |	 ├─spiders
        |        │  baidu.py
        |        │  __init__.py
        |    |   
        |    │  items.py
        |    │  middlewares.py
        |    │  pipelines.py
        |    │  settings.py
        |--scrapy.cfg 
    

    这样我们的爬虫项目就创建完成了, 接下来就是具体写爬虫代码了, 打开 baidu.py 就可以在里面写代码了.

    1.1.3 编写爬虫

    首先了解一下文件自动生成的内容:

    # -*- coding: utf-8 -*-
    import scrapy
    
    
    class BaiduSpider(scrapy.Spider):
        # name 爬虫对象的名称
        name = 'baidu'   
        # 允许爬的域名
        allowed_domains = ['baidu.com']
        # 起始的url
        start_urls = ['http://baidu.com/']
    
        def parse(self, response):
            # 默认的回调函数,用来解析并提取网页内容
            # response就是网页返回的响应内容
            pass
    

    这里我们就直接打印一下百度首页的源码内容

    # -*- coding: utf-8 -*-
    import scrapy
    
    
    class BaiduSpider(scrapy.Spider):
        name = 'baidu'   
        allowed_domains = ['baidu.com']
        start_urls = ['http://baidu.com/']
    
        def parse(self, response):
    		print(response.text)
    

    1.1.4 运行爬虫

    在运行爬虫之前先在settings.py中更改一个配置, 否则你是无法爬取百度首页的

    # Obey robots.txt rules
    # ROBOTSTXT_OBEY = True
    ROBOTSTXT_OBEY = False
    
    # 熟悉爬虫的朋友应该看出来了,这里是关闭robots协议
    

    scrapy crawl baidu

    执行这条命令之后, 就会在终端打印出百度首页的源码内容

    <!DOCTYPE html>
    <!--STATUS OK--><html> <head><meta http-equiv=content-type content=text/html;charset=utf-8><meta http-equiv=X-UA-Compatible content=
    IE=Edge><meta content=always name=referrer><link rel=stylesheet type=text/css href=http://s1.bdstatic.com/r/www/cache/bdorz/baidu.mi
    n.css><title>百度一下,你就知道</title></head> <body link=#0000cc> <div id=wrapper> <div id=head> <div class=head_wrapper> <div clas
    s=s_form> <div class=s_form_wrapper> <div id=lg> <img hidefocus=true src=//www.baidu.com/img/bd_logo1.png width=270 height=129> </di
    v> <form id=form name=f action=//www.baidu.com/s class=fm> <input type=hidden name=bdorz_come value=1> <input type=hidden name=ie va
    lue=utf-8> <input type=hidden name=f value=8> <input type=hidden name=rsv_bp value=1> <input type=hidden name=rsv_idx value=1> <inpu
    t type=hidden name=tn value=baidu><span class="bg s_ipt_wr"><input id=kw name=wd class=s_ipt value maxlength=255 autocomplete=off au
    tofocus></span><span class="bg s_btn_wr"><input type=submit id=su value=百度一下 class="bg s_btn"></span> </form> </div> </div> <div
     id=u1> <a href=http://news.baidu.com name=tj_trnews class=mnav>新闻</a> <a href=http://www.hao123.com name=tj_trhao123 class=mnav>h
    ao123</a> <a href=http://map.baidu.com name=tj_trmap class=mnav>地图</a> <a href=http://v.baidu.com name=tj_trvideo class=mnav>视频<
    /a> <a href=http://tieba.baidu.com name=tj_trtieba class=mnav>贴吧</a> <noscript> <a href=http://www.baidu.com/bdorz/login.gif?login
    &amp;tpl=mn&amp;u=http%3A%2F%2Fwww.baidu.com%2f%3fbdorz_come%3d1 name=tj_login class=lb>登录</a> </noscript> <script>document.write(
    '<a href="http://www.baidu.com/bdorz/login.gif?login&tpl=mn&u='+ encodeURIComponent(window.location.href+ (window.location.search ==
    = "" ? "?" : "&")+ "bdorz_come=1")+ '" name="tj_login" class="lb">登录</a>');</script> <a href=//www.baidu.com/more/ name=tj_briicon
     class=bri style="display: block;">更多产品</a> </div> </div> </div> <div id=ftCon> <div id=ftConw> <p id=lh> <a href=http://home.ba
    idu.com>关于百度</a> <a href=http://ir.baidu.com>About Baidu</a> </p> <p id=cp>&copy;2017&nbsp;Baidu&nbsp;<a href=http://www.baidu.c
    om/duty/>使用百度前必读</a>&nbsp; <a href=http://jianyi.baidu.com/ class=cp-feedback>意见反馈</a>&nbsp;京ICP证030173号&nbsp; <img sr
    c=//www.baidu.com/img/gs.gif> </p> </div> </div> </div> </body> </html>
    
    

    1.2 总结

    到这里的话, 你的第一个爬虫项目就从创建到运行结束了, 但是这只是一个很简单, 简单到不能再简单的实例了, 你可能都认为就这?, 哈哈哈, 当然不是了, 接下来我们将对scrapy的框架结构 执行流程 以及各个组件的应用 和 自定义拓展 源码分析 以及自己写一个简易版的scrapy框架来学习scrapy框架。

  • 相关阅读:
    [Hadoop 周边] Hadoop和大数据:60款顶级大数据开源工具(2015-10-27)【转】
    [Nginx] 关键概念解读
    [随想感悟] 研究技术的方法
    [Hadoop 周边] 浅谈大数据(hadoop)和移动开发(Android、IOS)开发前景【转】
    [优化] 数据库优化基础
    [随想感悟] 面试时,问哪些问题能试出一个 Android 应用开发者真正的水平?【转自知乎】
    258. Add Digits
    257. Binary Tree Paths
    256. Paint House
    255. Verify Preorder Sequence in Binary Search Tree
  • 原文地址:https://www.cnblogs.com/xcymn/p/13258034.html
Copyright © 2011-2022 走看看