zoukankan      html  css  js  c++  java
  • 【转】larbin的设计原理

    更多有关larbin的学习资料,可参见:http://blog.csdn.net/forestlight/article/details/6803122

    粗粗看了下,这个资料也很不错,对读代码很有帮助:http://blog.sina.com.cn/s/blog_6c663fa50101a628.html

    互联网是一个庞大的非结构化的数据库,将数据有效的检索并组织呈现出来有着巨大的应用前景,尤其是类似RSS的以XML为基础的结构化的数据越来越多,内容的组织方式越来越灵活,检索组织并呈现会有着越来越广泛的应用范围,同时在时效性和可读性上也会有越来越高的要求。这一切的基础是爬虫,信息的来源入口。一个高效,灵活可扩展的爬虫对以上应用都有着无可替代的重要意义。 
        要设计一个爬虫,首先需要考虑的效率。对于网络而言,基于TCP/IP的通信编程有几种方法。

        第一种是单线程阻塞,这是最简单也最容易实现的一种,一个例子:在Shell中通过curl,pcregrep等一系统命令可以直接实现一个简单的爬虫,但同时它的效率问题也显而易见:由于是阻塞方式读取,dns解析,建立连接,写入请求,读取结果这些步骤上都会产生时间的延迟,从而无法有效的利用服务器的全部资源。

        第二种是多线程阻塞。建立多个阻塞的线程,分别请求不同的url。相对于第一种方法,它可以更有效的利用机器的资源,特别是网络资源,因为无数线程在同时工作,所以网络会比较充分的利用,但同时对机器CPU资源的消耗也是比较大,在用户级多线程间的频繁切换对于性能的影响已经值得我们考虑。

        第三种是单线程非阻塞。这是目前使用的比较多的一种做法,无论在client还是server都有着广泛的应用。在一个线程内打开多个非阻塞的连接,通过poll/epoll/select对连接状态进行判断,在第一时间响应请求,不但充分利用了网络资源,同时也将本机CPU资源的消耗降至最低。这种方法需要对dns请求,连接,读写操作都采用异步非阻塞操作,其中第一种比较复杂,可以采用adns作为解决方案,后面三个操作相对简单可以直接在程序内实现。

        效率问题解决后就需要考虑具体的设计问题了。

        url肯定需要一个单独的类进行处理,包括显示,分析url,得到主机,端口,文件数据。

        然后需要对url进行排重,需要一个比较大的url Hash表。

    如果还要对网页内容进行排重,则还需要一个Document Hash表。

        爬过的url需要记录下来,由于量比较大,我们将它写到磁盘上,所以还需要一个FIFO的类(记作urlsDisk)。

        现在需要爬的url同样需要一个FIFO类来处理,重新开始时,url会从定时从爬过的url FIFO里取出来,写到这个FIFO里。正在运行的爬虫需要从这个FIFO里读数据出来,加入到主机类的url列表里。当然,也会从前一个FIFO里直接读url出来,不过优先级应该比这个里面出来的url低,毕竟是已经爬过的。(?)

        爬虫一般是对多个网站进行爬取,但在同一站点内dns的请求可以只做一次,这就需要将主机名独立于url,单独有一个类进行处理。

        主机名解析完成后需要有一个解析完成的IP类与之应用,用于connect的时候使用。

        HTML文档的解析类也要有一个,用来分析网页,取出里面的url,加入到urlsDisk。

    再加上一些字符串,调度类,一个简单的爬虫基本上就完成了。

        以上基本上是Larbin的设计思路,Larbin在具体实现上还有一些特殊的处理,例如带了一个webserver,以及对特殊文件的处理。Larbin有一点设计不不太好,就是慢的访问会越来越多,占用大量的连接,需要改进,另外如果对于大规模的爬虫,这仅仅实现了抓取的部分,要分布式的扩展还需要增加url的集中管理与调度以及前台spider的分布式算法。

    说的简单易懂一些,网络爬虫跟你使用的〖离线阅读〗工具差不多。说离线,其实还是要跟网络联结,否则怎么抓东西下来?

    那么不同的地方在哪里?

    1】 网络爬虫高度可配置性。 
    2】 网络爬虫可以解析抓到的网页里的链接 
    3】 网络爬虫有简单的存储配置 
    4】 网络爬虫拥有智能的根据网页更新分析功能 
    5】 网络爬虫的效率相当的高

    那么依据特征,其实也就是要求了,如何设计爬虫呢?要注意哪些步骤呢?

    1】 url 的遍历和纪录 
    这点 larbin 做得非常的好,其实对于url的遍历是很简单的,例如: 
    cat [what you got]| tr " \n | gawk '{print $2}' | pcregrep ^ http:// 
    就可以得到一个所由的 url 列表

    2】多进程 VS 多线程 
    各有优点了,现在一台普通的PC 例如 booso.com 一天可以轻松爬下5个G的数据。大约20万网页。

    3】时间更新控制 
    最傻的做法是没有时间更新权重,一通的爬,回头再一通的爬。 
    通常在下一次爬的的数据要跟上一次进行比较,如果连续5次都没有变化,那么将爬这个网页的时间间隔扩大1倍。

    如果一个网页在连续5次爬取的时候都有更新,那么将设置的爬取时间缩短为原来的1/2。

    注意,效率是取胜的关键之一。

    4】爬的深度是多少呢? 
    看情况了。如果你比较牛,有几万台服务器做网络爬虫,我劝您跳过这一点。 
    如果你同我一样只有一台服务器做网络爬虫,那么这样一个统计您应该知道:

    网页深度:网页个数:网页重要程度 
    0 : 1 : : 10 
    1 :20 : :8 
    2: :600: :5 
    3: :2000: :2 
    4 above: 6000: 一般无法计算

    好了,爬到三级就差不多了,再深入一是数据量扩大了3/4倍,二是重要度确下降了许多,这叫做“种下的是龙种,收获的是跳蚤。”

    5】爬虫一般不直接爬对方的网页,一般是通过一个Proxy出去,这个proxy有缓解压力的功能,因为当对方的网页没有更新的时候,只要拿到 header 的 tag就可以了,没有必要全部传输一次了,可以大大节约网络带宽。

    apache webserver里面纪录的 304 一般就是被cache的了。

    6】请有空的时候照看一下robots.txt

    7】存储结构。 
    这个人人见智,google 用 gfs 系统,如果你有7/8台服务器,我劝你用NFS系统,要是你有70/80个服务器的话我建议你用afs 系统,要是你只有一台服务器,那么随便。

    给一个代码片断,是我写的新闻搜索引擎是如何进行数据存储的:

    NAME=`echo $URL |perl -p -e 's/([^w-.@])/$1 eq " " ? " ":sprintf("%%%2.2x",ord($1))/eg'` 
    mkdir -p $AUTHOR 
    newscrawl.pl $URL --user-agent="news.booso.com+(+ http://booso.com)" -outfile=$AUTHOR/$NAME

  • 相关阅读:
    C++ 11 lambda
    Win环境下的文件读写
    基于 Jenkins+Docker+Git 的CI流程初探
    python切片操作
    k8s 集群中的etcd故障解决
    Git 版本控制管理(二)
    Git 版本控制管理(一)
    Harbor 企业级镜像仓库搭建
    docker 数据管理
    docker 网络的几种模式
  • 原文地址:https://www.cnblogs.com/sunada2005/p/3107666.html
Copyright © 2011-2022 走看看