zoukankan      html  css  js  c++  java
  • 分布式爬虫(1)

    一、环境搭建

      1.python 2.7

      2.pip ,并设置pip源

        (1)配置pip conf ,自动设置源

        #mkdir ~/.pip

        #vim ~/.pip/pip.conf

        [gloabal]

        index-url=https://pypi.tuna.tsinghua.edu.cn/simple

        也可以每次安装的时候制定source

        #pip install -i https://pypi.tuna.tsinghua.edu.cn.simple lxml

    二、Http协议

      1.OSI协议      TCP/IP协议

                  应用层

      应用层         表示层

                  会话层

      传输层            传输层

      互联网络层        网络层

      网络接口层        数据链路层

                    物理层

     2.OSI模型

        (1)物理层:电器连接

        (2)数据链路层:交换机、STP、帧中继

        (3)网络层:路由器、ip协议

        (4)传输层:TCP、UDP协议

        (5)会话层:建立通信连接,网络拨号

        (6)表示层:每次连接只处理一个请求

        (7)应用层:HTTP、FTP

      3.HTTP协议:

        (1)应用层协议;

        (2)无连接:每次连接只处理一个请求

        (3)无状态:每次连接传输都是独立的 

      4.HTTP HEADER

        (1)REQUEST部分的HTTP HEADER

          Accept:text/plain

          Accept-Charset:utf-8

          Accept-Encoding:gzip,deflate    

          Accept-Language:en-US

          Connection:keep-alive    

          Content-length:348

          Content-Typte:applicaltion/x-www-from-urlencoded

          Date:Tue,15 Nov 1994 08:12:31 GMT

          Host:en wikipedia.org:80

          User-Agent:Mozilla/5.0(X11;Linux x86_64;rv:12.0)Gecko/20100101

          firefox/21,0

          cookie:$Version=1;Skin=new;

      5.keep-alive

        (1)http是一个请求<->响应模式的典型范例,即客户端向服务器发送一个请求信息,服务器来响应这个信息。在老的HTTP版本中,每个请求都被创建一个新的客户端->服务器的连接,在这个连接上发送请求,然后接受请求。这样的模式有一个很大的优点,他很简单,很容易理解和通过编程来实现;有个很大的缺点就是效率比较低,因此keep-alive被提出来解决效率低的问题。

        (2)keep-alive功能使客户端到服务器端的连接持续有效,当出现对服务器的后续请求的时候,keep-alive功能避免了建立或者重新建立连接

      HTTP/1.1

      默认情况下所在的HTTP1.1中所有的连接都被保持,除非在请求头或者响应头中指明要关闭:Connection:Close

      RESPONSE的HTTP HEADER

    Accept-Patch:text/example;charset=utf-8
    Cache-COntrol:max-age=3600
    Content-Encoding:gzip
    Last-Modified:Tue,15 Nov 1994 12:45:26 GMT
    Content-Language:da
    Content-Length:348
    ETag:"737060cd8c284d8af7ad3082f209582d"
    Expires:Thu,01 Dec 1994 16:00:00 GMT
    Location:http://www.w3.org/pub/WWW/People.html
    Set-Cookie:UserID=JohnDoe;Max-Age=3600;Version=1
    Status:200 OK

       6.http响应状态码

        2XX 成功

        3XX  跳转

        4xx  客户端错误

        500       服务器错误

      7.HTPP响应状态码400/500

        400 Bad Request客户端请求有语法错误,不能被服务器所理解

        401 Unauthorized请求未经授权,这个状态码必须和WWW-Authenticate报头一起使用

        403Forbidden  服务器收到请求,但是拒绝提供服务

          如果是需要登录的网站,尝试重新登录

          IP被封,暂停爬取,并增加爬虫的时间,如果拨号网络,尝试重新联网更新IP

        404 Not Found  请求资源不存在,eg:输入错误的URL

        500 Internal Server Error服务器发生了不可预期的错误

        503Server Unavailable 服务器当前不能处理客户端的请求,一段时间后可能恢复正常

        5XX服务器错误,直接丢弃并计数,如果连续不成功,WARNING并停止爬取

      8.网页抓取的原理

        (1)宽度优先策略

        (2)深度优先策略

      9.选择哪种策略?

        (1)重要的网页离种子站比较近

        (2)万维网的深度并没有很深,一个网页有很多路径可以到达

        (3)宽度优先利于多爬虫并行合作抓取

        (4)深度优先于宽度优先相结合

      10.不重复抓取策略

        1)如何记录抓取历史?

          (1)将访问过的URL保存到数据库(这样效率太低)

          (2)用HashSet将访问过的URL保存起来。那只需要接近O(1)的代价就可以查询到一个URL是否被查询过   内存消耗

          (3)URL经过MD5或者SHA-1等单向哈希后再保存到HashSet或者数据库

          (4)Bit-Map方法。建立一个BitSet,将每一个URL经过一个哈希函数映射到某一位

        

        2)MD5函数抓取算法

          MD5签名是一个哈希函数,可以将任意长度的数据量抓换为一个固定长度的数字(通常是4个整形,128位)。计算机不可能有2的128次方那么大的内存,因此实际的哈希表都会是URL.MD5再%n(就是取模)。现实世界URL的组合必然会超过哈希表的槽位数,因此碰撞时一定存在的,一般的HASH函数,如Java的HashTable一个哈希表再跟一个链表,链表存的是碰撞的结果。

      3)使BITMAP的方式来进行记录

        将URL的MD5值再次进行哈希,用一个或者多个BIT位来记录一个URL

        (1)确定空间的大小

        (2按倍增加槽位

        (3)HASH算法映射(murmurhash3,cityhash) Python:mmh3 bitarray

        (4)碰撞概率增加

      4)Bloom Filter:Bloom Filter使用了多个哈希函数,而不是一个。创建一个m位的BitSet,先讲所有的位初始化为0,然后选择K个不同的哈希函数。第i个哈希函数对字符串str哈希的记过为h(i,str),而且h(i,str)的范围是0到m-1,只能进行插图不能删除。用到多个比特位就降低了碰撞概率

       这个方法主要是通过3个哈稀器算出三个哈希函数,如果三个哈希函数全部被置为1了,那么我们就认为这个网页已经存在了,如果只要有一个位没有置为1,那就认为不存在

      11.提高存储的效率

        (1)提高网站的网页数量

        (2)选择合适的HASH算法和空间阈值,降低碰撞几率

        (3)选择合适的存储结构和算法

      12.评估网页数量

    site:www.mafengwo.cn  

       三、爬虫实战

      1.有效抓取特定内容

      1)查看Robots.txt,放在根目录下面

      2)利用sitemap里的信息,直接对目标网页.html进行抓取

      3)对网站结构进行分析

        大多数网站会有明确的top-down的分类目录结构,我们可以进入特定的目录进行抓取

        对于www.mafengwo.cn这个网站,所有的旅游的游记都位于www.mafebgwo.cn/mdd下面,按照城市进行分类,每个城市的游记都位于城市的首页。

        城市的首页:/travel-scenic-spot/mafengwo/10774.html

        游记的分页格式:/yj/10774/1-0-01.html

        游记的页面:/i/3523364.html

  • 相关阅读:
    leetcode--Recover Binary Search Tree
    leetcode--Construct Binary Tree from Preorder and Inorder Traversal
    leetcode---Construct Binary Tree from Inorder and Postorder Traversal
    leetcode---Trapping Rain Water
    leetcode--Balanced Binary Tree
    leetcode--Clone Graph
    leetcode--Longest Consecutive Sequence
    leetcode --Jump Game
    计算机组成原理 8 中断和异常
    计算机网络 5.6-5.8 TCP/UDP
  • 原文地址:https://www.cnblogs.com/bigdata-stone/p/9808294.html
Copyright © 2011-2022 走看看