zoukankan      html  css  js  c++  java
  • [转载] 把Nutch爬虫部署到Hadoop集群上

    http://f.dataguru.cn/thread-240156-1-1.html

    软件版本:Nutch 1.7, Hadoop 1.2.1, CentOS 6.5, JDK 1.7

    前面的3篇文章中,Nutch 快速入门(Nutch 1.7)Nutch 快速入门(Nutch 2.2.1)在Eclipse里运行Nutch,Nutch都是跑在单机上,本文把Nutch部署到Hadoop集群上,在真正的分布式Hadoop集群上跑。

    前提 1 启动Hadoop集群

    伪分布式或真分布式的Hadoop集群都可以,无所谓。

    选择一台配置好了的Hadoop客户端的机器(见Hadoop多用户的配置),作为客户机,以下操作均在这台客户机上进行。

    2 下载Nutch源码

    有两种方法,

    3 把Hadoop的6个配置文件拷贝到Nutch的conf/目录

    将Hadoop的六个配置文件,拷贝到Nutch的conf/目录,相当于把Hadoop集群的配置信息告诉Nutch,

    在伪分布式模式下,

    1. $ cd ~/local/opt/hadoop-1.2.1/conf
    2. $ cp hadoop-env.sh core-site.xml hdfs-site.xml mapred-site.xml masters slaves /home/soulmachine/local/src/apache-nutch-1.7/conf
    复制代码

    在分布式模式下,

    1. $ ssh hadoop@localhost
    2. $ cd ~/local/opt/hadoop-1.2.1/conf
    3. $ scp hadoop-env.sh core-site.xml hdfs-site.xml mapred-site.xml masters slaves soulmachine@localhost:~/local/src/apache-nutch-1.7/conf
    4. $ exit
    复制代码
    4 修改Nutch的配置文件

    修改 conf/nutch-site.xml:

    1. <property>
    2.   <name>http.agent.name</name>
    3.   <value>My Nutch Spider</value>
    4. </property>
    复制代码

    修改 regex-urlfilter.txt, 见Nutch 快速入门(Nutch 1.7) 第4节,

    1. #注释掉这一行
    2. # skip URLs containing certain characters as probable queries, etc.
    3. #-[?*!@=]
    4. # accept anything else
    5. #注释掉这行
    6. #+.
    7. +^http://movie.douban.com/subject/[0-9]+/(?.+)?$
    复制代码
    5 重新编译Nutch

    每次修改了$NUTCH_HOME/conf下的的文件,都需要重新编译Nutch,重新打包生成一个nutch-x.x.x.job文件,见这里,Running Nutch in (pseudo) distributed-mode。也可以打开build.xml看看里面的”runtime”这个task干了什么,就明白了。

    1. $ ant runtime
    复制代码

    这会在runtime/deploy下生成一个Job文件,apache-nutch-1.7.job,它本质上是一个zip压缩包,可以打开看一下它里面的内容。可以看到它包含了很多编译好的class文件,以及从conf/目录下的拷贝出来的xml配置文件。

    6 向Hadoop集群提交Job,进行抓取

    首先,要在con/hadoop-env.sh 添加HADOOP_CLASSPATH,让Hadoop知道去哪里找Nutch所依赖的jar包,

    1. export HADOOP_CLASSPATH=/home/soulmachine/local/opt/apache-nutch-1.7/runtime/local/lib/*.jar
    复制代码

    上传种子URL列表,

    1. $ hadoop fs -put ~/urls urls
    2. $ hadoop fs -lsr urls
    复制代码

    提交Job,

    1. $ hadoop jar ./runtime/deploy/apache-nutch-1.7.job org.apache.nutch.crawl.Crawl urls -dir TestCrawl -depth 1 -topN 5
    复制代码

    可以打开web页面监控job的进度,

    把Nutch运行在伪分布式Hadoop集群上,比Standalone模式要好,因为可以通过web页面监控job。

    查看结果

    1. $ hadoop fs -ls TestCrawl
    2. Found 3 items
    3. drwxr-xr-x   - soulmachine supergroup          0 2014-02-04 02:17 /user/soulmachine/TestCrawl/crawldb
    4. drwxr-xr-x   - soulmachine supergroup          0 2014-02-04 02:18 /user/soulmachine/TestCrawl/linkdb
    5. drwxr-xr-x   - soulmachine supergroup          0 2014-02-04 02:16 /user/soulmachine/TestCrawl/segments
    复制代码
    7 注意

    如果出现java.io.IOException: No valid local directories in property: mapred.local.dir的错误,说明你的客户机的mapred-site.xml是从hadoop集群拷贝过来的,没有修改过,mapred.local.dir是一个本地目录,集群上的机器有这个目录,但是你的本机上没有,所以出现了这个错误。解决办法是,在本地新建一个目录,然后把mapred.local.dir设置为这个路径。

    如果出现org.apache.hadoop.security.AccessControlException: Permission denied: user=soulmachine, access=WRITE, inode="tmp"的错误,多半是因为你没有给这个用户创建hadoop.tmp.dir文件夹,见Hadoop多用户的配置第2.2节。

    8 把Nutch 1.7 爬虫部署到Hadoop 2.x集群上

    事实证明是完全可行的,Hadoop 2.x 向后兼容。

    把hadoop 2.x的配置文件,全部拷贝到 nutch 的conf目录下

    1. cp ~/local/opt/hadoop-2.2.0/etc/hadoop* ~/local/src/apache-nutch-1.7/conf
    复制代码

    然后编译,

    1. ant runtime
    复制代码

    把种子列表上传到hdfs,

    1. $ hdfs dfs -put ~/urls urls
    2. $ hdfs dfs -lsr urls
    复制代码

    提交Job,

    1. $ hadoop jar ./runtime/deploy/apache-nutch-1.7.job org.apache.nutch.crawl.Crawl urls -dir TestCrawl -depth 2
    复制代码

    查看结果,

    1. $ cd runtime/deploy
    2. $ ./bin/readdb hdfs://localhost/user/soulmachine/TestCrawl/crawldb/ -stats
    3. 14/02/14 16:51:07 INFO crawl.CrawlDbReader: Statistics for CrawlDb: hdfs://localhost/user/soulmachine/TestCrawl/crawldb/
    4. 14/02/14 16:51:07 INFO crawl.CrawlDbReader: TOTAL urls:        70
    5. 14/02/14 16:51:07 INFO crawl.CrawlDbReader: retry 0:        70
    6. 14/02/14 16:51:07 INFO crawl.CrawlDbReader: min score:        0.006
    7. 14/02/14 16:51:07 INFO crawl.CrawlDbReader: avg score:        0.03972857
    8. 14/02/14 16:51:07 INFO crawl.CrawlDbReader: max score:        1.2
    9. 14/02/14 16:51:07 INFO crawl.CrawlDbReader: status 1 (db_unfetched):        59
    10. 14/02/14 16:51:07 INFO crawl.CrawlDbReader: status 2 (db_fetched):        11
    11. 14/02/14 16:51:07 INFO crawl.CrawlDbReader: CrawlDb statistics: done
    复制代码
    参考资料 废弃的资料
    Posted by soulmachine Feb 4th, 2014 Search-Engine

  • 相关阅读:
    day 1 python全栈学习笔记(不完全版)
    python全栈学习之旅正式开始了!
    [Web] Web开发中你可以借鉴的东西
    Google Guice 系列教程 - 基础实践
    Ant
    [Android]Android高级UI开发系列教程(一) Android拖拽教程
    [Android]Android高级UI开发系列教程(二) Android绘制教程
    [Android] 布局基础知识点
    BitbucketGit
    [Android]Android高级UI开发系列教程(三) Android样式和主题教程
  • 原文地址:https://www.cnblogs.com/fsqsec/p/5258410.html
Copyright © 2011-2022 走看看