zoukankan      html  css  js  c++  java
  • python爬虫概述

    通用爬虫和聚焦爬虫

    根据使用场景,网络爬虫可分为通用爬虫和聚焦爬虫两种.

    通用爬虫

    通用网络爬虫 是 捜索引擎抓取系统(Baidu、Google、Yahoo等)的重要组成部分。主要目的是将互联网上的网页下载到本地,形成一个互联网内容的镜像备份

    通用搜索引擎(Search Engine)工作原理

    通用网络爬虫从互联网中搜集网页,采集信息,这些网页信息用于为搜索引擎建立索引从而提供支持,它决定着整个引擎系统的内容是否丰富,信息是否即时,因此其性能的优劣直接影响着搜索引擎的效果。

    第一步:抓取网页

    搜索引擎网络爬虫的基本工作流程如下:

    首先选取一部分的种子URL,将这些URL放入待抓取URL队列;

    取出待抓取URL,解析DNS得到主机的IP,并将URL对应的网页下载下来,存储进已下载网页库中,并且将这些URL放进已抓取URL队列。

    分析已抓取URL队列中的URL,分析其中的其他URL,并且将URL放入待抓取URL队列,从而进入下一个循环....

    搜索引擎如何获取一个新网站的URL:

    1. 新网站向搜索引擎主动提交网址:(如百度http://zhanzhang.baidu.com/linksubmit/url

    2. 在其他网站上设置新网站外链(尽可能处于搜索引擎爬虫爬取范围)

    3. 搜索引擎和DNS解析服务商(如DNSPod等)合作,新网站域名将被迅速抓取。

    但是搜索引擎蜘蛛的爬行是被输入了一定的规则的,它需要遵从一些命令或文件的内容,如标注为nofollow的链接,或者是Robots协议。

    #Robots协议(也叫爬虫协议、机器人协议等),全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取,例如:


    淘宝网:https://www.taobao.com/robots.txt
    腾讯网:http://www.qq.com/robots.txt

    第二步:数据存储

    搜索引擎通过爬虫爬取到的网页,将数据存入原始页面数据库。其中的页面数据与用户浏览器得到的HTML是完全一样的。

    搜索引擎蜘蛛在抓取页面时,也做一定的重复内容检测,一旦遇到访问权重很低的网站上有大量抄袭、采集或者复制的内容,很可能就不再爬行。

    第三步:预处理

    搜索引擎将爬虫抓取回来的页面,进行各种步骤的预处理。

    提取文字中文分词消除噪音(比如版权声明文字、导航条、广告等……)索引处理链接关系计算特殊文件处理....

    除了HTML文件外,搜索引擎通常还能抓取和索引以文字为基础的多种文件类型,如 PDF、Word、WPS、XLS、PPT、TXT 文件等。我们在搜索结果中也经常会看到这些文件类型。

    但搜索引擎还不能处理图片、视频、Flash 这类非文字内容,也不能执行脚本和程序。

    第四步:提供检索服务,网站排名

    搜索引擎在对信息进行组织和处理后,为用户提供关键字检索服务,将用户检索相关的信息展示给用户。

    同时会根据页面的PageRank值(链接的访问量排名)来进行网站排名,这样Rank值高的网站在搜索结果中会排名较前,当然也可以直接使用 Money 购买搜索引擎网站排名,简单粗暴。

    但是,这些通用性搜索引擎也存在着一定的局限性:

    通用搜索引擎所返回的结果都是网页,而大多情况下,网页里90%的内容对用户来说都是无用的。

    不同领域、不同背景的用户往往具有不同的检索目的和需求,搜索引擎无法提供针对具体某个用户的搜索结果。

    万维网数据形式的丰富和网络技术的不断发展,图片、数据库、音频、视频多媒体等不同数据大量出现,通用搜索引擎对这些文件无能为力,不能很好地发现和获取。

    通用搜索引擎大多提供基于关键字的检索,难以支持根据语义信息提出的查询,无法准确理解用户的具体需求。

    针对这些情况,聚焦爬虫技术得以广泛使用。

    聚焦爬虫

    聚焦爬虫,是"面向特定主题需求"的一种网络爬虫程序,它与通用搜索引擎爬虫的区别在于:

    聚焦爬虫在实施网页抓取时会对内容进行处理筛选,尽量保证只抓取与需求相关的网页信息。

    而我们今后要学习的,就是聚焦爬虫。

    HTTP和HTTPS

    HTTP协议(HyperText Transfer Protocol,超文本传输协议):是一种发布和接收 HTML页面的方法。

    HTTPS(Hypertext Transfer Protocol over Secure Socket Layer)简单讲是HTTP的安全版,在HTTP下加入SSL层。

    SSL(Secure Sockets Layer 安全套接层)主要用于Web的安全传输协议,在传输层对网络连接进行加密,保障在Internet上数据传输的安全。

    HTTP的端口号为80,HTTPS的端口号为443

    HTTP工作原理

    网络爬虫抓取过程可以理解为模拟浏览器操作的过程。

    浏览器的主要功能是向服务器发出请求,在浏览器窗口中展示您选择的网络资源,HTTP是一套计算机通过网络进行通信的规则。

    HTTP的请求与响应

    HTTP通信由两部分组成:客户端请求消息与服务器响应消息

    浏览器发送HTTP请求的过程:

    1. 当用户在浏览器的地址栏中输入一个URL并按回车键之后,浏览器会向HTTP服务器发送HTTP请求。HTTP请求主要分为“Get”和“Post”两种方法
    2. 当我们在浏览器输入URLhttp://www.baidu.com的时候,浏览器发送一个Request请求去获取http://www.baidu.com的html文件,服务器把Response文件对象发送回给浏览器
    3. 浏览器分析Response中的 HTML,发现其中引用了很多其他文件,比如Images文件,CSS文件,JS文件。 浏览器会自动再次发送Request去获取图片,CSS文件,或者JS文件。
    4. 当所有的文件都下载成功后,网页会根据HTML语法结构,完整的显示出来了

    URL(Uniform / Universal Resource Locator的缩写):统一资源定位符,是用于完整地描述Internet上网页和其他资源的地址的一种标识方法。

    基本格式:scheme://host[:port#]/path/…/[?query-string][#anchor]

    • scheme:协议(例如:http, https, ftp)
    • host:服务器的IP地址或者域名
    • port#:服务器的端口(如果是走协议默认端口,缺省端口80)
    • path:访问资源的路径
    • query-string:参数,发送给http服务器的数据
    • anchor:锚(跳转到网页的指定锚点位置)

    例如:

    ftp://192.168.0.116:8080/index

    http://www.baidu.com

    http://item.jd.com/11936238.html

    客户端HTTP请求

    URL只是标识资源的位置,而HTTP是用来提交和获取资源。客户端发送一个HTTP请求到服务器的请求消息,包括以下格式:

    请求行、请求头部、空行、请求数据

    四个部分组成,下图给出了请求报文的一般格式

    一个典型的HTTP请求示例

    GET https://www.baidu.com/ HTTP/1.1


    Host: www.baidu.com


    Connection: keep-alive
    Upgrade-Insecure-Requests: 1
    User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36
    Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8
    Referer: http://www.baidu.com/
    Accept-Encoding: gzip, deflate, sdch, br
    Accept-Language: zh-CN,zh;q=0.8,en;q=0.6
    Cookie: BAIDUID=04E4001F34EA74AD4601512DD3C41A7B:FG=1; BIDUPSID=04E4001F34EA74AD4601512DD3C41A7B; PSTM=1470329258

    请求方法

    GET https://www.baidu.com/ HTTP/1.1

    根据HTTP标准,HTTP请求可以使用多种请求方法。

    HTTP 0.9:只有基本的文本 GET 功能。

    HTTP 1.0:完善的请求/响应模型,并将协议补充完整,定义了三种请求方法: GET, POST 和 HEAD方法。

    HTTP 1.1:在 1.0 基础上进行更新,新增了五种请求方法:OPTIONS, PUT, DELETE, TRACE 和 CONNECT 方法。

    HTTP 2.0(未普及):请求/响应首部的定义基本没有改变,只是所有首部键必须全部小写,而且请求行要独立为 :method、:scheme、:host、:path这些键值对。

    序号方法描述
    1 GET 请求指定的页面信息,并返回实体主体。
    2 HEAD 类似于get请求,只不过返回的响应中没有具体的内容,用于获取报头
    3 POST 向指定资源提交数据进行处理请求(例如提交表单或者上传文件),数据被包含在请求体中。POST请求可能会导致新的资源的建立和/或已有资源的修改。
    4 PUT 从客户端向服务器传送的数据取代指定的文档的内容。
    5 DELETE 请求服务器删除指定的页面。
    6 CONNECT HTTP/1.1协议中预留给能够将连接改为管道方式的代理服务器。
    7 OPTIONS 允许客户端查看服务器的性能。
    8 TRACE 回显服务器收到的请求,主要用于测试或诊断。

    HTTP请求主要分为Get和Post两种方法

    • GET是从服务器上获取数据,POST是向服务器传送数据
    • GET请求参数显示,都显示在浏览器网址上,HTTP服务器根据该请求所包含URL中的参数来产生响应内容,即“Get”请求的参数是URL的一部分。 例如:http://www.baidu.com/s?wd=Chinese
    • POST请求参数在请求体当中,消息长度没有限制而且以隐式的方式进行发送,通常用来向HTTP服务器提交量比较大的数据(比如请求中包含许多参数或者文件上传操作等),请求的参数包含在“Content-Type”消息头里,指明该消息体的媒体类型和编码,

    注意:避免使用Get方式提交表单,因为有可能会导致安全问题。 比如说在登陆表单中用Get方式,用户输入的用户名和密码将在地址栏中暴露无遗。

    常用的请求报头

    1. Host (主机和端口号)

    Host:对应网址URL中的Web名称和端口号,用于指定被请求资源的Internet主机和端口号,通常属于URL的一部分。

    2. Connection (链接类型)

    Connection:表示客户端与服务连接类型

    Client 发起一个包含Connection:keep-alive的请求,HTTP/1.1使用keep-alive为默认值

    Server收到请求后:

    如果 Server 支持 keep-alive,回复一个包含 Connection:keep-alive 的响应,不关闭连接;

    如果 Server 不支持 keep-alive,回复一个包含 Connection:close 的响应,关闭连接。

    如果client收到包含Connection:keep-alive的响应,向同一个连接发送下一个请求,直到一方主动关闭连接。

    keep-alive在很多情况下能够重用连接,减少资源消耗,缩短响应时间,比如当浏览器需要多个文件时(比如一个HTML文件和相关的图形文件),不需要每次都去请求建立连接。

    3. Upgrade-Insecure-Requests (升级为HTTPS请求)

    Upgrade-Insecure-Requests:升级不安全的请求,意思是会在加载 http 资源时自动替换成 https 请求,让浏览器不再显示https页面中的http请求警报。

    HTTPS 是以安全为目标的 HTTP 通道,所以在 HTTPS 承载的页面上不允许出现 HTTP 请求,一旦出现就是提示或报错。

    4. User-Agent (浏览器名称)

    User-Agent:是客户浏览器的名称,以后会详细讲。

    5. Accept (传输文件类型)

    Accept:指浏览器或其他客户端可以接受的MIME(Multipurpose Internet Mail Extensions(多用途互联网邮件扩展))文件类型,服务器可以根据它判断并返回适当的文件格式。

    举例:

    Accept: */*:表示什么都可以接收。

    Accept:image/gif:表明客户端希望接受GIF图像格式的资源;

    Accept:text/html:表明客户端希望接受html文本。

    Accept: text/html, application/xhtml+xml;q=0.9, image/*;q=0.8:表示浏览器支持的 MIME 类型分别是 html文本、xhtml和xml文档、所有的图像格式资源。

    q是权重系数,范围 0 =< q <= 1,q 值越大,请求越倾向于获得其“;”之前的类型表示的内容。若没有指定q值,则默认为1,按从左到右排序顺序若被赋值为0,则用于表示浏览器不接受此内容类型。

    Text:用于标准化地表示的文本信息,文本消息可以是多种字符集和或者多种格式的;Application:用于传输应用程序数据或者二进制数据。

    6. Referer (页面跳转处)

    Referer:表明产生请求的网页来自于哪个URL,用户是从该 Referer页面访问到当前请求的页面。这个属性可以用来跟踪Web请求来自哪个页面,是从什么网站来的等。

    有时候遇到下载某网站图片,需要对应的referer,否则无法下载图片,那是因为人家做了防盗链,原理就是根据referer去判断是否是本网站的地址,如果不是,则拒绝,如果是,就可以下载;

    7. Accept-Encoding(文件编解码格式)

    Accept-Encoding:指出浏览器可以接受的编码方式。编码方式不同于文件格式,它是为了压缩文件并加速文件传递速度。浏览器在接收到Web响应之后先解码,然后再检查文件格式,许多情形下这可以减少大量的下载时间。

    举例:Accept-Encoding:gzip;q=1.0, identity; q=0.5, *;q=0

    如果有多个Encoding同时匹配, 按照q值顺序排列,本例中按顺序支持 gzip, identity压缩编码,支持gzip的浏览器会返回经过gzip编码的HTML页面。如果请求消息中没有设置这个域服务器假定客户端对各种内容编码都可以接受。

    8. Accept-Language(语言种类)

    Accept-Langeuage:指出浏览器可以接受的语言种类,如en或en-us指英语,zh或者zh-cn指中文,当服务器能够提供一种以上的语言版本时要用到。

    9. Accept-Charset(字符编码)

    Accept-Charset:指出浏览器可以接受的字符编码。

    举例:Accept-Charset:iso-8859-1,gb2312,utf-8ISO8859-1:通常叫做Latin-1。Latin-1包括了书写所有西方欧洲语言不可缺少的附加字符,英文浏览器的默认值是ISO-8859-1.gb2312:标准简体中文字符集;utf-8:UNICODE 的一种变长字符编码,可以解决多种语言文本显示问题,从而实现应用国际化和本地化。

    如果在请求消息中没有设置这个域,缺省是任何字符集都可以接受。

    10. Cookie (Cookie)

    Cookie:浏览器用这个属性向服务器发送Cookie。Cookie是在浏览器中寄存的小型数据体,它可以记载和服务器相关的用户信息,也可以用来实现会话功能,以后会详细讲。

    11. Content-Type (POST数据类型)

    Content-Type:POST请求里用来表示的内容类型。

    举例:Content-Type = Text/XML; charset=gb2312:

    指明该请求的消息体中包含的是纯文本的XML类型的数据,字符编码采用“gb2312”。

    服务端HTTP响应

    HTTP响应也由四个部分组成,分别是:状态行、消息报头、空行、响应正文

    HTTP/1.1 200 OK
    Server: Tengine
    Connection: keep-alive
    Date: Wed, 30 Nov 2016 07:58:21 GMT
    Cache-Control: no-cache
    Content-Type: text/html;charset=UTF-8
    Keep-Alive: timeout=20
    Vary: Accept-Encoding
    Pragma: no-cache
    X-NWS-LOG-UUID: bd27210a-24e5-4740-8f6c-25dbafa9c395
    Content-Length: 180945

    <!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" ....

    常用的响应报头(了解)

    理论上所有的响应头信息都应该是回应请求头的。但是服务端为了效率,安全,还有其他方面的考虑,会添加相对应的响应头信息,从上图可以看到:

    1. Cache-Control:must-revalidate, no-cache, private。

    这个值告诉客户端,服务端不希望客户端缓存资源,在下次请求资源时,必须要重新请求服务器,不能从缓存副本中获取资源。

    Cache-Control是响应头中很重要的信息,当客户端请求头中包含Cache-Control:max-age=0请求,明确表示不会缓存服务器资源时,Cache-Control作为作为回应信息,通常会返回no-cache,意思就是说,"那就不缓存呗"。

    当客户端在请求头中没有包含Cache-Control时,服务端往往会定,不同的资源不同的缓存策略,比如说oschina在缓存图片资源的策略就是Cache-Control:max-age=86400,这个意思是,从当前时间开始,在86400秒的时间内,客户端可以直接从缓存副本中读取资源,而不需要向服务器请求。

    2. Connection:keep-alive

    这个字段作为回应客户端的Connection:keep-alive,告诉客户端服务器的tcp连接也是一个长连接,客户端可以继续使用这个tcp连接发送http请求

    3. Content-Encoding:gzip

    告诉客户端,服务端发送的资源是采用gzip编码的,客户端看到这个信息后,应该采用gzip对资源进行解码

    4. Content-Type:text/html;charset=UTF-8

    告诉客户端,资源文件的类型,还有字符编码,客户端通过utf-8对资源进行解码,然后对资源进行html解析。通常我们会看到有些网站是乱码的,往往就是服务器端没有返回正确的编码。

    5. Date:Sun, 21 Sep 2016 06:18:21 GMT

    这个是服务端发送资源时的服务器时间,GMT是格林尼治所在地的标准时间。http协议中发送的时间都是GMT的,这主要是解决在互联网上,不同时区在相互请求资源的时候,时间混乱问题。

    6. Expires:Sun, 1 Jan 2000 01:00:00 GMT

    这个响应头也是跟缓存有关的,告诉客户端在这个时间前,可以直接访问缓存副本,很显然这个值会存在问题,因为客户端和服务器的时间不一定会都是相同的,如果时间不同就会导致问题。所以这个响应头是没有Cache-Control:max-age=*这个响应头准确的,因为max-age=date中的date是个相对时间,不仅更好理解,也更准确。

    7. Pragma:no-cache

    这个含义与Cache-Control等同。

    8.Server:Tengine/1.4.6

    这个是服务器和相对应的版本,只是告诉客户端服务器的信息。

    9. Transfer-Encoding:chunked

    这个响应头告诉客户端,服务器发送的资源的方式是分块发送的。一般分块发送的资源都是服务器动态生成的,在发送时还不知道发送资源的大小,所以采用分块发送,每一块都是独立的,独立的块都能标示自己的长度,最后一块是0长度的,当客户端读到这个0长度的块时,就可以确定资源已经传输完了。

    10. Vary: Accept-Encoding

    告诉缓存服务器,缓存压缩文件和非压缩文件两个版本,现在这个字段用处并不大,因为现在的浏览器都是支持压缩的。

    响应状态码

    响应状态代码有三位数字组成,第一个数字定义了响应的类别,且有五种可能取值

    常见状态码:

    100~199:表示服务器成功接收部分请求,要求客户端继续提交其余请求才能完成整个处理过程。

    200~299:表示服务器成功接收请求并已完成整个处理过程。常用200(OK 请求成功)。

    300~399:为完成请求,客户需进一步细化请求。例如:请求的资源已经移动一个新地址、常用302(所请求的页面已经临时转移至新的url)、307和304(使用缓存资源)。400~499:客户端的请求有错误,常用404(服务器无法找到被请求的页面)、403(服务器拒绝访问,权限不够)。500~599:服务器端出现错误,常用500(请求未完成。服务器遇到不可预知的情况)。

    Cookie 和 Session:

    服务器和客户端的交互仅限于请求/响应过程,结束之后便断开,在下一次请求时,服务器会认为新的客户端。

    为了维护他们之间的链接,让服务器知道这是前一个用户发送的请求,必须在一个地方保存客户端的信息

    Cookie:通过在 客户端 记录的信息确定用户的身份。

    Session:通过在 服务器端 记录的信息确定用户的身份。

    Fiddler界面

    设置好后,本机HTTP通信都会经过127.0.0.1:8888代理,也就会被Fiddler拦截到。

    请求 (Request) 部分详解

    1. Headers —— 显示客户端发送到服务器的 HTTP 请求的 header,显示为一个分级视图,包含了 Web 客户端信息、Cookie、传输状态等。
    2. Textview —— 显示 POST 请求的 body 部分为文本。
    3. WebForms —— 显示请求的 GET 参数 和 POST body 内容。
    4. HexView —— 用十六进制数据显示请求。
    5. Auth —— 显示响应 header 中的 Proxy-Authorization(代理身份验证) 和 Authorization(授权) 信息.
    6. Raw —— 将整个请求显示为纯文本。
    7. JSON - 显示JSON格式文件。
    8. XML —— 如果请求的 body 是 XML 格式,就是用分级的 XML 树来显示它。

    响应 (Response) 部分详解

    1. Transformer —— 显示响应的编码信息。
    2. Headers —— 用分级视图显示响应的 header。
    3. TextView —— 使用文本显示相应的 body。
    4. ImageVies —— 如果请求是图片资源,显示响应的图片。
    5. HexView —— 用十六进制数据显示响应。
    6. WebView —— 响应在 Web 浏览器中的预览效果。
    7. Auth —— 显示响应 header 中的 Proxy-Authorization(代理身份验证) 和 Authorization(授权) 信息。
    8. Caching —— 显示此请求的缓存信息。
    9. Privacy —— 显示此请求的私密 (P3P) 信息。
    10. Raw —— 将整个响应显示为纯文本。
    11. JSON - 显示JSON格式文件。
    12. XML —— 如果响应的 body 是 XML 格式,就是用分级的 XML 树来显示它 。

    HTTP/HTTPS的GET和POST方法

    urllib.parse.urlencode()

    # IPython 中的测试结果
    In [1]: import urllib.parse

    In [2]: word = {"wd" : "传智播客"}

    # 通过urllib.parse.urlencode()方法,将字典键值对按URL编码转换,从而能被web服务器接受。


    In [3]: urllib..parse.urlencode(word)


    Out[3]: "wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2"

    # 通过urllib.parse.unquote()方法,把 URL编码字符串,转换回原先字符串。


    In [4]: print (urllib.parse.unquote("wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2"))
    wd=传智播客

    一般HTTP请求提交数据,需要编码成 URL编码格式,然后做为url的一部分(get方式),或者作为参数传到Request对象中(post方式)。

    Get方式

    GET请求一般用于我们向服务器获取数据,比如说,我们用百度搜索传智播客:https://www.baidu.com/s?wd=传智播客

    浏览器的url会跳转成如图所示:

    https://www.baidu.com/s?wd=%E4%BC%A0%E6%99%BA%E6%92%AD%E5%AE%A2

    在其中我们可以看到在请求部分里,http://www.baidu.com/s?之后出现一个长长的字符串,其中就包含我们要查询的关键词传智播客,于是我们可以尝试用默认的Get方式来发送请求。

    # urllib_get.py

    import urllib.parse #负责url编码处理


    import urllib.request

    url = "http://www.baidu.com/s"
    word = {"wd":"传智播客"}


    word = urllib.parse.urlencode(word)           #转换成url编码格式(字符串)
    newurl = url + "?" + word      # url首个分隔符就是 ?

    headers={ "User-Agent": "
    Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36
    "}  


    request = urllib.request.Request(newurl, headers=headers)
    response = urllib.request.urlopen(request)

    print (response.read())

    批量爬取贴吧页面数据

    首先我们创建一个python文件, tiebaSpider.py,我们要完成的是,输入一个百度贴吧的地址,比如:

    百度贴吧LOL吧第一页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=0

    第二页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=50

    第三页:http://tieba.baidu.com/f?kw=lol&ie=utf-8&pn=100

    发现规律了吧,贴吧中每个页面不同之处,就是url最后的pn的值,其余的都是一样的,我们可以抓住这个规律。

    #!/usr/bin/env python

    # -*- coding:utf-8 -*-

    import urllib.request

    import urllib.parse

    def loadPage(url, filename):

     """

     作用:根据url发送请求,获取服务器响应文件

     url: 需要爬取的url地址

     filename : 处理的文件名

     """

     print ("正在下载 " + filename)

     headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36"}

     request = urllib.request.Request(url, headers = headers)

     return urllib.request.urlopen(request).read()

    def writePage(html, filename):

     """

     作用:将html内容写入到本地

     html:服务器相应文件内容

     """

     print ("正在保存 " + filename)

     # 文件写入

     with open(filename, "wb+") as f:

     f.write(html)

     print ("-" * 30)

    def tiebaSpider(url, beginPage, endPage):

     """

     作用:贴吧爬虫调度器,负责组合处理每个页面的url

     url : 贴吧url的前部分

     beginPage : 起始页

     endPage : 结束页

     """

     for page in range(beginPage, endPage + 1):

     pn = (page - 1) * 50

    #拼接文件名

     filename = "第" + str(page) + "页.html"

    #拼接url

     fullurl = url + "&pn=" + str(pn)

     #print fullurl,调用函数

     html = loadPage(fullurl, filename)

     #print html  ,调用函数

     writePage(html, filename)

     print ('谢谢使用')

    if __name__ == "__main__":

     kw = input("请输入需要爬取的贴吧名:")

     beginPage = int(input("请输入起始页:"))

     endPage = int(input("请输入结束页:"))

     url = "http://tieba.baidu.com/f?"

     key = urllib.parse.urlencode({"kw": kw})

    #拼接字符串

     fullurl = url + key

     tiebaSpider(fullurl, beginPage, endPage)

    其实很多网站都是这样的,同类网站下的html页面编号,分别对应网址后的网页序号,只要发现规律就可以批量爬取页面了。

     

    POST方式:

     

    上面我们说了Request请求对象的里有data参数,它就是用在POST里的,我们要传送的数据就是这个参数data,data是一个字典,里面要匹配键值对。

     

    有道词典翻译网站:

    输入测试数据,再通过使用Fiddler观察,其中有一条是POST请求,而向服务器发送的请求数据并不是在url里,那么我们可以试着模拟这个POST请求。

    于是,我们可以尝试用POST方式发送请求。

     

    #!/usr/bin/env python

    # -*- coding:utf-8 -*-

     

    import urllib.request

    import urllib.parse

     

    # 通过抓包的方式获取的url,并不是浏览器上显示的url

     

    url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=null"

     

    # 完整的headers

     

    headers = {

     "Accept" : "application/json, text/javascript, */*; q=0.01",

     "X-Requested-With" : "XMLHttpRequest",

     "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36",

     "Content-Type" : "application/x-www-form-urlencoded; charset=UTF-8",

     }

     

    # 用户接口输入

    # 发送到web服务器的表单数据

     

    formdata = {

    "type" : "AUTO",

    "i" : "我爱你",

    "doctype" : "json",

    "xmlVersion" : "1.6",

    "keyfrom" : "fanyi.web",

    "ue" : "UTF-8",

    "typoResult" : "true"

    }

     

    # 经过urlencode转码

    data = urllib.parse.urlencode(formdata).encode('utf-8')

     

    # 如果Request()方法里的data参数有值,那么这个请求就是POST  ,如果没有,就是Get

     

    #request = urllib.request.Request(url, data = data, headers = headers)

     

    response = urllib.request.urlopen(url,data)

     

    html = response.read().decode('utf-8')

     

    print(html)

    #print (urllib.request.urlopen(req).read())

     

     

    发送POST请求时,需要特别注意headers的一些属性:

     

    Content-Length: 144: 是指发送的表单数据长度为144,也就是字符个数是144个。

    X-Requested-With: XMLHttpRequest:表示Ajax异步请求

    Content-Type: application/x-www-form-urlencoded: 表示浏览器提交 Web 表单时使用,表单数据会按照name1=value1&name2=value2键值对形式进行编码。

     

    获取AJAX加载的内容

     

    有些网页内容使用AJAX加载,只要记得,AJAX一般返回的是JSON,直接对AJAX地址进行post或get,就返回JSON数据了

    "作为一名爬虫工程师,你最需要关注的,是数据的来源"

     

    import urllib

    import urllib2

     

    url = "https://movie.douban.com/j/chart/top_list?type=11&interval_id=100%3A90&action"

     

    headers={"User-Agent": "Mozilla...."}

     

    # 变动的是这两个参数,从start开始往后显示limit个

    formdata = {

     'start':'0',

     'limit':'10'

    }

    data = urllib.urlencode(formdata)

     

    request = urllib2.Request(url, data = data, headers = headers)

    response = urllib2.urlopen(request)

     

    print response.read()

     

     

    # demo2

     

    url = "https://movie.douban.com/j/chart/top_list?"

    headers={"User-Agent": "Mozilla...."}

     

    # 处理所有参数

    formdata = {

     'type':'11',

     'interval_id':'100:90',

     'action':'',

     'start':'0',

     'limit':'10'

    }

    data = urllib.urlencode(formdata)

     

    request = urllib2.Request(url, data = data, headers = headers)

    response = urllib2.urlopen(request)

     

    print response.read()

     

    问题:为什么有时候POST也能在URL内看到数据?

    • GET方式是直接以链接形式访问,链接中包含了所有的参数,服务器端用Request.QueryString获取变量的值。如果包含了密码的话是一种不安全的选择,不过你可以直观地看到自己提交了什么内容。
    • POST则不会在网址上显示所有的参数,服务器端用Request.Form获取提交的数据,在Form提交的时候。但是HTML代码里如果不指定 method 属性,则默认为GET请求,Form中提交的数据将会附加在url之后,以?分开与url分开。
    • 表单数据可以作为 URL 字段(method="get")或者 HTTP POST (method="post")的方式来发送。比如在下面的HTML代码中,表单数据将因为 (method="get") 而附加到 URL 上:

    <form action="form_action.asp" method="get">

     <p>First name: <input type="text" name="fname" /></p>

     <p>Last name: <input type="text" name="lname" /></p>

     <input type="submit" value="Submit" />

    </form>

    利用cookie模拟登陆

    #!/usr/bin/env python

    # -*- coding:utf-8 -*-

     

    import urllib.request

     

    url = "http://www.renren.com/410043129/profile"

     

    headers = {

     "Host" : "www.renren.com",

     "Connection" : "keep-alive",

     #"Upgrade-Insecure-Requests" : "1",

     "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36",

     "Accept" : "text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8",

     "Referer" : "http://www.renren.com/SysHome.do",

     #"Accept-Encoding" : "gzip, deflate, sdch",#加上会得到压缩文件

     "Cookie" : "anonymid=ixrna3fysufnwv; _r01_=1; depovince=GW; jebe_key=f6fb270b-d06d-42e6-8b53-e67c3156aa7e%7Cc13c37f53bca9e1e7132d4b58ce00fa3%7C1484060607478%7C1%7C1484400895379; jebe_key=f6fb270b-d06d-42e6-8b53-e67c3156aa7e%7Cc13c37f53bca9e1e7132d4b58ce00fa3%7C1484060607478%7C1%7C1484400890914; JSESSIONID=abcX8s_OqSGsYeRg5vHMv; jebecookies=0c5f9b0d-03d8-4e6a-b7a9-3845d04a9870|||||; ick_login=8a429d6c-78b4-4e79-8fd5-33323cd9e2bc; _de=BF09EE3A28DED52E6B65F6A4705D973F1383380866D39FF5; p=0cedb18d0982741d12ffc9a0d93670e09; ap=327550029; first_login_flag=1; ln_uact=mr_mao_hacker@163.com; ln_hurl=http://hdn.xnimg.cn/photos/hdn521/20140529/1055/h_main_9A3Z_e0c300019f6a195a.jpg; t=56c0c522b5b068fdee708aeb1056ee819; societyguester=56c0c522b5b068fdee708aeb1056ee819; id=327550029; xnsid=5ea75bd6; loginfrom=syshome",

     "Accept-Language" : "zh-CN,zh;q=0.8,en;q=0.6",

    }

     

    request = urllib.request.Request(url, headers = headers)

     

    response = urllib.request.urlopen(request)

     

    print(response.read())

    处理HTTPS请求 SSL证书验证

    现在随处可见 https 开头的网站,urllib2可以为 HTTPS 请求验证SSL证书,就像web浏览器一样,如果网站的SSL证书是经过CA认证的,则能够正常访问,如:https://www.baidu.com/等...

    如果SSL证书验证不通过,或者操作系统不信任服务器的安全证书,比如浏览器在访问12306网站如:https://www.12306.cn/mormhweb/的时候,会警告用户证书不受信任。(据说 12306 网站证书是自己做的,没有通过CA认证)

     

    #!/usr/bin/env python

    # -*- coding:utf-8 -*-

     

    import urllib.request

    import ssl

     

    # 忽略SSL安全认证

     

    context = ssl._create_unverified_context()

     

    url = "https://www.12306.cn/mormhweb/"

    #url = "https://www.baidu.com/"

     

    headers = {

     "User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/54.0.2840.99 Safari/537.36"

     }

    request = urllib.request.Request(url, headers = headers)

     

    # 添加到context参数里

    response = urllib.request.urlopen(request, context = context)

     

    print (response.read())

     

    关于CA

    CA(Certificate Authority)是数字证书认证中心的简称,是指发放、管理、废除数字证书的受信任的第三方机构,如北京数字认证股份有限公司、上海市数字证书认证中心有限公司等...

    CA的作用是检查证书持有者身份的合法性,并签发证书,以防证书被伪造或篡改,以及对证书和密钥进行管理。

    现实生活中可以用身份证来证明身份, 那么在网络世界里,数字证书就是身份证。和现实生活不同的是,并不是每个上网的用户都有数字证书的,往往只有当一个人需要证明自己的身份的时候才需要用到数字证书。

    普通用户一般是不需要,因为网站并不关心是谁访问了网站,现在的网站只关心流量。但是反过来,网站就需要证明自己的身份了。

    比如说现在钓鱼网站很多的,比如你想访问的是www.baidu.com,但其实你访问的是www.daibu.com”,所以在提交自己的隐私信息之前需要验证一下网站的身份,要求网站出示数字证书。

    一般正常的网站都会主动出示自己的数字证书,来确保客户端和网站服务器之间的通信数据是加密安全的。

     

    以上转自

    https://www.jb51.net/article/191295.htm

    urllib开发最简单的爬虫

    (1)urllib简介

    Requests库的7个主要方法

     

    方法 说明
    requests.request() 构造一个请求,支撑以下各方法的基础方法
    requests.get() 获取HTML网页的主要方法,对应于HTTP的GET
    requests.head() 获取HTML网页头信息的方法,对应于HTTP的HEAD
    requests.post() 向HTML网页提交POST请求的方法,对应于HTTP的POST
    requests.put() 向HTML网页提交PUT请求的方法,对应于HTTP的PUT
    requests.patch() 向HTML网页提交局部修改请求,对应于HTTP的PATCH
    requests.delete() 向HTML页面提交删除请求,对应于HTTP的DELET

     

     

    ModuleIntroduce
    urllib.error Exception classes raised by urllib.request.
    urllib.parse Parse URLs into or assemble them from components.
    urllib.request Extensible library for opening URLs.
    urllib.response Response classes used by urllib.
    urllib.robotparser Load a robots.txt file and answer questions about fetchability of other URLs.

     

    (2)开发最简单的爬虫

    百度首页简洁大方,很适合我们爬虫。

    爬虫代码如下:

     

    from urllib import request

     

    def visit_baidu():

     URL = "http://www.baidu.com"

     

     # open the URL

     req = request.urlopen(URL)

     

     # read the URL 

     html = req.read()

     

     # decode the URL to utf-8

     html = html.decode("utf_8")

     print(html)

     

    if __name__ == '__main__':

     visit_baidu()

    我们可以通过在百度首页空白处右击,查看审查元素来和我们的运行结果对比。

    当然,request也可以生成一个request对象,这个对象可以用urlopen方法打开。

    代码如下:

    from urllib import request

     

    def vists_baidu():

     

     # create a request obkect

     req = request.Request('http://www.baidu.com')

     

     # open the request object

     response = request.urlopen(req)

     

     # read the response 

     html = response.read()

     html = html.decode('utf-8')

     

     print(html)

     

    if __name__ == '__main__':

     vists_baidu()

    (3)错误处理

    错误处理通过urllib模块来处理,主要有URLError和HTTPError错误,其中HTTPError错误是URLError错误的子类,即HTTRPError也可以通过URLError捕获。

    HTTPError可以通过其code属性来捕获。

    处理HTTPError的代码如下:

    from urllib import request
    from urllib import error
    
    def Err():
     url = "https://segmentfault.com/zzz"
     req = request.Request(url)
    
     try:
    response
    = request.urlopen(req) html = response.read().decode("utf-8") print(html) except error.HTTPError as e: print(e.code)
    if __name__ == '__main__': Err()

    URLError可以通过其reason属性来捕获。

    chuliHTTPError的代码如下:

    from urllib import request
    from urllib import error
    
    def Err():
     url = "https://segmentf.com/"
     req = request.Request(url)
    
     try:
     response = request.urlopen(req)
     html = response.read().decode("utf-8")
    print(html) except error.URLError as e: print(e.reason)
    if __name__ == '__main__': Err()

    既然为了处理错误,那么最好两个错误都写入代码中,毕竟越细致越清晰。须注意的是,HTTPError是URLError的子类,所以一定要将HTTPError放在URLError的前面,否则都会输出URLError的,如将404输出为Not Found。

    from urllib import request
    from urllib import error
    
    # 第一种方法,URLErroe和HTTPError
    def Err():
     url = "https://segmentfault.com/zzz"
     req = request.Request(url)
    
     try:
     response = request.urlopen(req)
     html = response.read().decode("utf-8")
     print(html)
     except error.HTTPError as e:
     print(e.code)
     except error.URLError as e:
     print(e.reason)
    #coding=utf-8
    import urllib
    def getHtml(url):
      page = urllib.urlopen(url)
      html = page.read()
      return html
    
    html = getHtml("http://tieba.baidu.com/p/2738151262")
    print html

    Urllib 模块提供了读取web页面数据的接口,我们可以像读取本地文件一样读取www和ftp上的数据。首先,我们定义了一个getHtml()函数:

    urllib.urlopen()方法用于打开一个URL地址。

     

    read()方法用于读取URL上的数据,向getHtml()函数传递一个网址,并把整个页面下载下来。执行程序就会把整个网页打印输出。

     

    二,筛选页面中想要的数据
    Python 提供了非常强大的正则表达式,我们需要先要了解一点python 正则表达式的知识才行.

    假如我们百度贴吧找到了几张漂亮的壁纸,通过到前段查看工具。找到了图片的地址,如:src=”http://imgsrc.baidu.com/forum......jpg”pic_ext=”jpeg”

    import re
    import urllib
    
    def getHtml(url):
      page = urllib.urlopen(url)
      html = page.read()
      return html
    
    def getImg(html):
      reg = r'src="(.+?.jpg)" pic_ext'
      imgre = re.compile(reg)
      imglist = re.findall(imgre,html)
      return imglist   
      
    html = getHtml("http://tieba.baidu.com/p/2460150866")
    print getImg(html)

    我们又创建了getImg()函数,用于在获取的整个页面中筛选需要的图片连接。re模块主要包含了正则表达式:

     

    re.compile() 可以把正则表达式编译成一个正则表达式对象.

     

    re.findall() 方法读取html 中包含 imgre(正则表达式)的数据。

     

    运行脚本将得到整个页面中包含图片的URL地址。

    三,将页面筛选的数据保存到本地

    把筛选的图片地址通过for循环遍历并保存到本地,代码如下:

    #coding=utf-8
    import urllib
    import re
    
    def getHtml(url):
      page = urllib.urlopen(url)
      html = page.read()
      return html
    
    def getImg(html):
      reg = r'src="(.+?.jpg)" pic_ext'
      imgre = re.compile(reg)
      imglist = re.findall(imgre,html)
      x = 0
      for imgurl in imglist:
        urllib.urlretrieve(imgurl,'%s.jpg' % x)
        x+=1
    
    
    html = getHtml("http://tieba.baidu.com/p/2460150866")
    
    print getImg(html)

    这里的核心是用到了urllib.urlretrieve()方法,直接将远程数据下载到本地。

     

    通过一个for循环对获取的图片连接进行遍历,为了使图片的文件名看上去更规范,对其进行重命名,命名规则通过x变量加1。保存的位置默认为程序的存放目录。

    程序运行完成,将在目录下看到下载到本地的文件。

     

    get()方法

    r = requests.get(url)

    get()方法构造一个向服务器请求资源的Request对象,返回一个包含服务器资源的Response对象。

    requests.get(url, params=None, **kwargs)

    url:拟获取页面的url链接

    params:url中的额外参数,字典或字节流格式,可选

    **kwargs:12个控制访问参数

    Requests库的2个重要对象

    · Request

    · Response:Response对象包含爬虫返回的内容

    Response对象的属性

    r.status_code :HTTP请求的返回状态,200表示连接成功,404表示失败

    r.text :HTTP响应内容的字符串形式,即,url对应的页面内容

    r.encoding : 从HTTP header中猜测的相应内容编码方式 

    r.apparent_encoding : 从内容中分析出的相应内容编码方式(备选编码方式)

    r.content : HTTP响应内容的二进制形式

    r.encoding :如果header中不存在charset,则认为编码为ISO-8859-1 。

    r.apparent_encoding :根据网页内容分析出的编码方式可以 看作是r.encoding的备选。

    Response的编码:

    r.encoding : 从HTTP header中猜测的响应内容的编码方式;如果header中不存在charset,则认为编码为ISO-8859-1,r.text根据r.encoding显示网页内容

    r.apparent_encoding : 根据网页内容分析出的编码方式,可以看作r.encoding的备选

    爬取网页的通用代码框架

    Requests库的异常

     

    异常 说明
    requests.ConnectionError 网络连接错误异常,如DNS查询失败拒绝连接等
    requests.HTTPError HTTP错误异常
    requests.URLRequired URL缺失异常
    requests.ToolManyRedirects 超过最大重定向次数,产生重定向异常
    requests.ConnectTimeout 连接远程服务器超时异常
    requests.Timeout 请求URL超时,尝试超时异常

     

     

    Response的异常

    r.raise_for_status() : 如果不是200,产生异常requests.HTTPError;

    在方法内部判断r.status_code是否等于200,不需要增加额外的if语句,该语句便于利用try-except进行异常处理

    import requests
    
    def getHTMLText(url):
      try:
        r = requests.get(url, timeout=30)
        r.raise_for_status() # 如果状态不是200,引发HTTPError异常
        r.encoding = r.apparent_encoding
        return r.text
      except: 
        return "产生异常"
    
    if __name__ == "__main__":
      url = "http://www.baidu.com"
      print(getHTMLText(url))

     

    通用代码框架,可以使用户爬取网页变得更有效,更稳定、可靠。

    HTTP协议

    HTTP,Hypertext Transfer Protocol,超文本传输协议。

    HTTP是一个基于“请求与响应”模式的、无状态的应用层协议。

    HTTP协议采用URL作为定位网络资源的标识。

    URL格式:http://host[:port][path]

    · host:合法的Internet主机域名或IP地址
    · port:端口号,缺省端口号为80
    · path:请求资源的路径

    HTTP URL的理解:

    URL是通过HTTP协议存取资源的Internet路径,一个URL对应一个数据资源。

    HTTP协议对资源的操作

     

    方法 说明
    GET 请求获取URL位置的资源
    HEAD 请求获取URL位置资源的响应消息报告,即获得该资源的头部信息
    POST 请求向URL位置的资源后附加新的数据
    PUT 请求向URL位置存储一个资源,覆盖原URL位置资源
    PATCH 请求局部更新URL位置的资源,即改变该处资源的部分内容
    DELETE 请求删除URL位置存储的资源

     

    理解PATCH和PUT的区别

    假设URL位置有一组数据UserInfo,包括UserID、UserName等20个字段。

    需求:用户修改了UserName,其他不变。

    · 采用PATCH,仅向URL提交UserName的局部更新请求。

    · 采用PUT,必须将所有20个字段一并提交到URL,未提交字段被删除。

    PATCH的主要好处:节省网络带宽

    Requests库主要方法解析

    requests.request(method, url, **kwargs)

    · method:请求方式,对应get/put/post等7种

    例: r = requests.request('OPTIONS', url, **kwargs)

    · url:拟获取页面的url链接

    · **kwargs:控制访问的参数,共13个,均为可选项

    params:字典或字节序列,作为参数增加到url中;

     

     

    kv = {'key1':'value1', 'key2':'value2'}

    r = requests.request('GET', 'http://python123.io/ws',params=kv)

    print(r.url)

    '''

    http://python123.io/ws?key1=value1&key2=value2

    '''

     

    data:字典、字节序列或文件对象,作为Request的内容;

    json:JSON格式的数据,作为Request的内容;

    headers:字典,HTTP定制头;

     

    hd = {'user-agent':'Chrome/10'}

     

    r = requests.request('POST','http://www.yanlei.shop',headers=hd)

     

    cookies:字典或CookieJar,Request中的cookie;

    auth:元组,支持HTTP认证功能;

    files:字典类型,传输文件;

    fs = {'file':open('data.xls', 'rb')}

    r = requests.request('POST','http://python123.io/ws',files=fs)

    timeout:设定超时时间,秒为单位;

    proxies:字典类型,设定访问代理服务器,可以增加登录认证

    allow_redirects:True/False,默认为True,重定向开关;

    stream:True/False,默认为True,获取内容立即下载开关;

    verify:True/False,默认为True,认证SSL证书开关;

    cert:本地SSL证书路径

     

    #方法及参数

    requests.get(url, params=None, **kwargs)

    requests.head(url, **kwargs)

    requests.post(url, data=None, json=None, **kwargs)

    requests.put(url, data=None, **kwargs)

    requests.patch(url, data=None, **kwargs)

    requests.delete(url, **kwargs)

    import requests
    url = "https://item.jd.com/5145492.html"
    try:
     r = requests.get(url)
     r.raise_for_status()
     r.encoding = r.apparent_encoding
     print(r.text[:1000])
    except:
     print("爬取失败")
    # 直接爬取亚马逊商品是会被拒绝访问,所以需要添加'user-agent'字段
    import requests
    url = "https://www.amazon.cn/gp/product/B01M8L5Z3Y"
    try:
     kv = {'user-agent':'Mozilla/5.0'} # 使用代理访问
     r = requests.get(url, headers = kv)
     r.raise_for_status()
     r.encoding = r.apparent_encoding
     print(t.text[1000:2000])
    except:
     print("爬取失败")

    百度/360搜索关键词提交

    搜索引擎关键词提交接口

    · 百度的关键词接口:

    http://www.baidu.com/s?wd=keyword

    · 360的关键词接口:

    http://www.so.com/s?q=keyword

    # 百度
    import requests
    keyword = "Python"
    try:
     kv = {'wd':keyword}
     r = requests.get("http://www.baidu.com/s",params=kv)
     print(r.request.url)
     r.raise_for_status()
     print(len(r.text))
    except:
     print("爬取失败")
    # 360
    import requests
    keyword = "Python"
    try:
     kv = {'q':keyword}
     r = requests.get("http://www.so.com/s",params=kv)
     print(r.request.url)
     r.raise_for_status()
     print(len(r.text))
    except:
     print("爬取失败")

    4、网络图片的爬取和存储

    网络图片链接的格式:

    http://www.example.com/picture.jpg

    国家地理:

    http://www.nationalgeographic.com.cn/

    选择一张图片链接:

    http://image.nationalgeographic.com.cn/2017/0704/20170704030835566.jpg

    图片爬取全代码
    import requests
    import os
    url = "http://image.nationalgeographic.com.cn/2017/0704/20170704030835566.jpg"
    root = "D://pics//"
    path = root + url.split('/')[-1]
    try:
     if not os.path.exists(root):
      os.mkdir(root)
     if not os.path.exists(path):
      r = requests.get(url)
      with open(path,'wb') as f:
       f.write(r.content)
       f.close()
       print("文件保存成功")
     else:
      print("文件已存在")
    except:
     print("爬取失败")

    5、IP地址归属地的自动查询

    www.ip138.com IP查询

    http://ip138.com/ips138.asp?ip=ipaddress

    http://m.ip138.com/ip.asp?ip=ipaddress

    import requests
    url = "http://m.ip138.com/ip.asp?ip="
    ip = "220.204.80.112"
    try:
     r = requests.get(url + ip)
     r.raise_for_status()
     r.encoding = r.apparent_encoding
     print(r.text[1900:])
    except:
     print("爬取失败")
    # 使用IDLE
    >>> import requests
    >>> url ="http://m.ip138.com/ip.asp?ip="
    >>> ip = "220.204.80.112"
    >>> r = requests.get(url + ip)
    >>> r.status_code
    >>> r.text

    #!/usr/bin/env python# -*- coding:utf-8 -*-
    import urllib.requestimport urllib.parse
    def loadPage(url, filename): """ 作用:根据url发送请求,获取服务器响应文件 url: 需要爬取的url地址 filename : 处理的文件名 """ print ("正在下载 " + filename) headers = {"User-Agent" : "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.62 Safari/537.36"}
     request = urllib.request.Request(url, headers = headers) return urllib.request.urlopen(request).read()
    def writePage(html, filename): """ 作用:将html内容写入到本地 html:服务器相应文件内容 """ print ("正在保存 " + filename) # 文件写入 with open(filename, "wb+") as f: f.write(html) print ("-" * 30)
    def tiebaSpider(url, beginPage, endPage): """ 作用:贴吧爬虫调度器,负责组合处理每个页面的url url : 贴吧url的前部分 beginPage : 起始页 endPage : 结束页 """ for page in range(beginPage, endPage + 1): pn = (page - 1) * 50 filename = "第" + str(page) + "页.html" fullurl = url + "&pn=" + str(pn) #print fullurl html = loadPage(fullurl, filename) #print html writePage(html, filename) print ('谢谢使用')
    if __name__ == "__main__": kw = input("请输入需要爬取的贴吧名:") beginPage = int(input("请输入起始页:")) endPage = int(input("请输入结束页:"))
     url = "http://tieba.baidu.com/f?" key = urllib.parse.urlencode({"kw": kw}) fullurl = url + key tiebaSpider(fullurl, beginPage, endPage)

  • 相关阅读:
    python——scrapy的三种登录方式,下载中间件(Downloademiddleware),settings文件
    PHPExcel探索之旅---阶段四 导入文件
    PHPExcel探索之旅---阶段三 绘制图表
    PHPExcel探索之旅---阶段二 设置表格样式
    PHPExcel探索之旅---阶段一
    PDO中构建事务处理的应用程序
    对图片进行翻转
    用给定的角度旋转图像
    为背景图像添加图像水印(位置随机)
    对图片进行缩放
  • 原文地址:https://www.cnblogs.com/chengxuyonghu/p/13704600.html
Copyright © 2011-2022 走看看