zoukankan      html  css  js  c++  java
  • 从零开始的Python爬虫速成指南

    https://study.163.com/course/introduction.htm?courseId=1005269003&utm_campaign=commission&utm_source=cp-400000000398149&utm_medium=share

     

     

     

    本文主要内容:以最短的时间写一个最简单的爬虫,可以抓取论坛的帖子标题和帖子内容。

    本文受众:没写过爬虫的萌新。

    入门

    0.准备工作

    需要准备的东西: Python、scrapy、一个IDE或者随便什么文本编辑工具。

    1.技术部已经研究决定了,你来写爬虫。

    随便建一个工作目录,然后用命令行建立一个工程,工程名为miao,可以替换为你喜欢的名字。

    随后你会得到如下的一个由scrapy创建的目录结构

    在spiders文件夹中创建一个python文件,比如miao.py,来作为爬虫的脚本。
    内容如下:

    2.跑一个试试?

    如果用命令行的话就这样:

    你可以看到爬虫君已经把你坛星际区第一页打印出来了,当然由于没有任何处理,所以混杂着html标签和js脚本都一并打印出来了。

    解析

    接下来我们要把刚刚抓下来的页面进行分析,从这坨html和js堆里把这一页的帖子标题提炼出来。
    其实解析页面是个体力活,方法多的是,这里只介绍xpath。

    0.为什么不试试神奇的xpath呢

    看一下刚才抓下来的那坨东西,或者用chrome浏览器手动打开那个页面然后按F12可以看到页面结构。
    每个标题其实都是由这么一个html标签包裹着的。举个例子:

    可以看到href就是这个帖子的地址(当然前面要拼上论坛地址),而这个标签包裹的内容就是帖子的标题了。
    于是我们用xpath的绝对定位方法,把class='topic'的部分摘出来。

    1.看看xpath的效果

    在最上面加上引用:

    把parse函数改成:

    再次运行就可以看到输出你坛星际区第一页所有帖子的标题和url了。

    递归

    接下来我们要抓取每一个帖子的内容。
    这里需要用到python的yield。

    此处会告诉scrapy去抓取这个url,然后把抓回来的页面用指定的parse_topic函数进行解析。

    至此我们需要定义一个新的函数来分析一个帖子里的内容。

    完整的代码如下:

    到此为止,这个爬虫可以爬取你坛第一页所有的帖子的标题,并爬取每个帖子里第一页的每一层楼的内容。
    爬取多个页面的原理相同,注意解析翻页的url地址、设定终止条件、指定好对应的页面解析函数即可。

    Pipelines——管道

    此处是对已抓取、解析后的内容的处理,可以通过管道写入本地文件、数据库。

    0.定义一个Item

    在miao文件夹中创建一个items.py文件。

    此处我们定义了两个简单的class来描述我们爬取的结果。

    1. 写一个处理方法

    在miao文件夹下面找到那个pipelines.py文件,scrapy之前应该已经自动生成好了。

    我们可以在此建一个处理方法。

    2.在爬虫中调用这个处理方法。

    要调用这个方法我们只需在爬虫中调用即可,例如原先的内容处理函数可改为:

    3.在配置文件里指定这个pipeline

    找到settings.py文件,在里面加入

    这样在爬虫里调用

    的时候都会由经这个FilePipeline来处理。后面的数字400表示的是优先级。
    可以在此配置多个Pipeline,scrapy会根据优先级,把item依次交给各个item来处理,每个处理完的结果会传递给下一个pipeline来处理。
    可以这样配置多个pipeline:

    Middleware——中间件

    通过Middleware我们可以对请求信息作出一些修改,比如常用的设置UA、代理、登录信息等等都可以通过Middleware来配置。

    0.Middleware的配置

    与pipeline的配置类似,在setting.py中加入Middleware的名字,例如

    1.破网站查UA, 我要换UA

    某些网站不带UA是不让访问的。
    在miao文件夹下面建立一个middleware.py

    这里就是一个简单的随机更换UA的中间件,agents的内容可以自行扩充。

    2.破网站封IP,我要用代理

    比如本地127.0.0.1开启了一个8123端口的代理,同样可以通过中间件配置让爬虫通过这个代理来对目标网站进行爬取。
    同样在middleware.py中加入:

    很多网站会对访问次数进行限制,如果访问频率过高的话会临时禁封IP。
    如果需要的话可以从网上购买IP,一般服务商会提供一个API来获取当前可用的IP池,选一个填到这里就好。

    一些常用配置

    在settings.py中的一些常用配置

    我就是要用Pycharm

    如果非要用Pycharm作为开发调试工具的话可以在运行配置里进行如下配置:
    Configuration页面:
    Script填你的scrapy的cmdline.py路径,比如我的是

    然后在Scrpit parameters中填爬虫的名字,本例中即为:

    最后是Working diretory,找到你的settings.py文件,填这个文件所在的目录。
    示例:

    按小绿箭头就可以愉快地调试了。

    参考

    这里提供了对scrapy非常详细的介绍。
    http://scrapy-chs.readthedocs…

    以下是几个比较重要的地方:

    scrapy的架构:
    http://scrapy-chs.readthedocs…
    xpath语法:
    http://www.w3school.com.cn/xp…
    Pipeline管道配置:
    http://scrapy-chs.readthedocs…
    Middleware中间件的配置:
    http://scrapy-chs.readthedocs…
    settings.py的配置:
    http://scrapy-chs.readthedocs…

  • 相关阅读:
    在wubantu时,用pychram创建django的App时,出现未找到命令
    Anaconda3 打开Navigator报错
    wubantu18.04版,pycharm2.18.3.2永久破解来了,借鉴个位大神的教程破掉的,感谢各位大佬
    找回感觉的练习
    第四次博客作业-结对项目
    第9次作业--接口及接口回调
    第8次作业--继承
    软件工程第三次作业——关于软件质量保障初探
    第7次作业--访问权限、对象使用
    第6次作业--static关键字、对象
  • 原文地址:https://www.cnblogs.com/webRobot/p/6446025.html
Copyright © 2011-2022 走看看