zoukankan      html  css  js  c++  java
  • 网络爬虫

    来源:http://zhidao.baidu.com/question/1166328.html

    多次被人问到这个问题,看来需要做一点说明,这里简单介绍一下搜索引擎的机器爬虫的制作和一些基本要注意的事项。

    说的简单易懂一些,网络爬虫跟你使用的〖离线阅读〗工具差不多。说离线,其实还是要跟网络联结,否则怎么抓东西下来?

    那么不同的地方在哪里?

    1】 网络爬虫高度可配置性。
    2】 网络爬虫可以解析抓到的网页里的链接
    3】 网络爬虫有简单的存储配置
    4】 网络爬虫拥有智能的根据网页更新分析功能
    5】 网络爬虫的效率相当的高

    那么依据特征,其实也就是要求了,如何设计爬虫呢?要注意哪些步骤呢?

    1】 url 的遍历和纪录
    这点 larbin 做得非常的好,其实对于url的遍历是很简单的,例如:
    cat [what you got]| tr \" \\n | gawk '{print $2}' | pcregrep ^http://
    就可以得到一个所由的 url 列表

    2】多进程 VS 多线程
    各有优点了,现在一台普通的PC 例如 booso.com 一天可以轻松爬下5个G的数据。大约20万网页。

    3】时间更新控制
    最傻的做法是没有时间更新权重,一通的爬,回头再一通的爬。
    通常在下一次爬的的数据要跟上一次进行比较,如果连续5次都没有变化,那么将爬这个网页的时间间隔扩大1倍。

    如果一个网页在连续5次爬取的时候都有更新,那么将设置的爬取时间缩短为原来的1/2。

    注意,效率是取胜的关键之一。

    4】爬的深度是多少呢?
    看情况了。如果你比较牛,有几万台服务器做网络爬虫,我劝您跳过这一点。
    如果你同我一样只有一台服务器做网络爬虫,那么这样一个统计您应该知道:

    网页深度:网页个数:网页重要程度
    0 : 1 : : 10
    1 :20 : :8
    2: :600: :5
    3: :2000: :2
    4 above: 6000: 一般无法计算

    好了,爬到三级就差不多了,再深入一是数据量扩大了3/4倍,二是重要度确下降了许多,这叫做“种下的是龙种,收获的是跳蚤。”

    5】爬虫一般不之间爬对方的网页,一般是通过一个Proxy出去,这个proxy有缓解压力的功能,因为当对方的网页没有更新的时候,只要拿到 header 的 tag就可以了,没有必要全部传输一次了,可以大大节约网络带宽。

    apache webserver里面纪录的 304 一般就是被cache的了。

    6】请有空的时候照看一下robots.txt

    7】存储结构。
    这个人人见智,google 用 gfs 系统,如果你有7/8台服务器,我劝你用NFS系统,要是你有70/80个服务器的话我建议你用afs 系统,要是你只有一台服务器,那么随便。

    给一个代码片断,是我写的新闻搜索引擎是如何进行数据存储的:

    NAME=`echo $URL |perl -p -e 's/([^\w\-\.\@])/$1 eq "\n" ? "\n":sprintf("%%%2.2x",ord($1))/eg'`
    mkdir -p $AUTHOR
    newscrawl.pl $URL --user-agent="news.booso.com+(+http://booso.com)" -outfile=$AUTHOR/$NAME

    Posted at November 10, 2004 01:04 PM by Liang at 01:04 PM | Comments (2) | TrackBack(0) | Booso
  • 相关阅读:
    Java提高学习之Object(5)
    cmd命令。
    CacheView。
    快速界面:QML。
    抓包工具。
    打包安装程序。
    AS:加载新版本的SWF文件。
    as自定义菜单。
    as [Frame]元标签
    转载:Flash AS3.0 加载外部资源(图片,MP3,SWF)的两种方式
  • 原文地址:https://www.cnblogs.com/wghao/p/765293.html
Copyright © 2011-2022 走看看