zoukankan      html  css  js  c++  java
  • windows7+eclipse-jee-luna+hadoop2.6运行环境及eclipse plugin插件编译

    一、hadoop集群环境配置 

    参见:《Hadoop2.6集群环境搭建(HDFS HA+YARN)原来4G内存也能任性一次.》

    Win7环境:

     

    登录用户名:hadoop , 与Hadoop集群中的Linux环境用户统一。

    a.在SY-0130节点上修改hdfs-site.xml加上以下内容 ,并同步修改到其他节点。
    <property> 
    <name>dfs.permissions</name> 
    <value>false</value> 
    </property> 

    旨在取消权限检查,原因是为了解决我在windows机器上配置eclipse连接hadoop服务器时,配置map/reduce连接后报以下错误,org.apache.hadoop.security.AccessControlException: Permission denied.

    重启Hadoop集群。

    二. windows基础环境准备

    windows7(x64),jdk(64位),ant,eclipse(64位),hadoop2.6.0

    1.jdk环境配置 
    jdk-6u45-windows-x64.exe 安装后好后配置相关JAVA_HOME环境变量,并将bin目录配置到path . 在此不要用JDK7或JDK8,后续说明为什么。

    下载地址:http://pan.baidu.com/s/1kTn9mIj

    2.eclipse环境配置 
    eclipse-jee-luna-SR1a-win32-x86_64.zip解压到D:hadoop2.6eclipse-jee-luna-SR1a-win32-x86_64
    下载地址:http://pan.baidu.com/s/1dD5wv0P
    3.ant环境配置 
    apache-ant-1.9.4-bin.zip解压到D:hadoop2.6apache-ant-1.9.4,配置环境变量ANT_HOME,并将bin目录配置到path 
    下载地址:http://mirror.bit.edu.cn/apache//ant/binaries/apache-ant-1.9.4-bin.zip 

    4.下载hadoop-2.6.0.tar.gz
    http://pan.baidu.com/s/1kTpBenX

    5.下载hadoop-2.6.0-src.tar.gz
    http://pan.baidu.com/s/1o6yYzma

    6.下载hadoop2x-eclipse-plugin-master.zip
    https://github.com/winghc/hadoop2x-eclipse-plugin 

    我测试时候的版本:http://pan.baidu.com/s/12KD3o

    7.下载hadoop-common-2.2.0-bin-master.zip
    https://github.com/srccodes/hadoop-common-2.2.0-bin 

    我测试时候下载的版本:http://pan.baidu.com/s/1o6HptNW

    分别将hadoop-2.6.0.tar.gz、hadoop-2.6.0-src.tar.gz、hadoop2x-eclipse-plugin-master.zip、hadoop-common-2.2.0-bin-master.zip

    下载解压到D:hadoop2.6下 

    如图:

    8.修改win7机器hosts文件,加入如下内容:

    SY-0130 192.168.249.130
    SY-0131 192.168.249.131
    SY-0132 192.168.249.132
    SY-0133 192.168.249.133
    SY-0134 192.168.249.133

    三、编译hadoop-eclipse-plugin-2.6.0.jar 配置 

    win7下操作

    1.添加环境变量HADOOP_HOME=D:hadoop2.6hadoop-2.6.0
    追加环境变量path内容:%HADOOP_HOME%/bin 

    2.修改编译包及依赖包版本信息 
    修改D:hadoop2.6hadoop2x-eclipse-plugin-masterivylibraries.properties
    hadoop.version=2.6.0 (我测试的时候,下载的文件中,该设置已经为2.6.0)  

    3.ant编译 

    进入CMD 命令行:

    D:hadoop2.6hadoop2x-eclipse-plugin-mastersrccontribeclipse-plugin> 

    ant jar -Dversion=2.6.0 -Declipse.home=D:hadoop2.6eclipse-jee-lunaeclipse -Dhadoop.home=D:hadoop2.6hadoop-2.6.0

    编译好后hadoop-eclipse-plugin-2.6.0.jar会在D:hadoop2.6hadoop2x-eclipse-plugin-masteruildcontribeclipse-plugin目录下 

    四、eclipse环境配置 
    1.将编译好的hadoop-eclipse-plugin-2.6.0.jar拷贝至eclipse的plugins目录下,然后重启eclipse 
    2.打开菜单Window--Preference--Hadoop Map/Reduce进行配置,如下图所示: 

     

    3.显示Hadoop连接配置窗口:Window--Show View--Other-MapReduce Tools,如下图所示: 

    4.配置连接Hadoop,如下图所示: 

    DFS Master : 就是core-site.xml文件中配置的

    <name>fs.defaultFS</name>
    <value>hdfs://SY-0130:8020</value>

    查看是否连接成功,能看到如下信息,则表示连接成功: 

     

    六、创建一个Map/Reduce Project 
    1.新建项目 File--New--Other--Map/Reduce Project 命名为MR1, 
    然后创建类org.apache.hadoop.examples.WordCount,从hadoop-2.6.0-src中拷贝覆盖 
    (D:hadoop2.6hadoop-2.6.0-srchadoop-mapreduce-projecthadoop-mapreduce-examplessrcmainjavaorgapachehadoopexamplesWordCount.java) 

    2.创建log4j.properties文件 
    在src目录下创建log4j.properties文件,内容如下: 
    log4j.rootLogger=debug,stdout,R 
    log4j.appender.stdout=org.apache.log4j.ConsoleAppender 
    log4j.appender.stdout.layout=org.apache.log4j.PatternLayout 
    log4j.appender.stdout.layout.ConversionPattern=%5p - %m%n 
    log4j.appender.R=org.apache.log4j.RollingFileAppender 
    log4j.appender.R.File=mapreduce_test.log 
    log4j.appender.R.MaxFileSize=1MB 
    log4j.appender.R.MaxBackupIndex=1 
    log4j.appender.R.layout=org.apache.log4j.PatternLayout 
    log4j.appender.R.layout.ConversionPattern=%p %t %c - %m%n 
    log4j.logger.com.codefutures=DEBUG 

    3.解决java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)异常问题 
    (由于你的环境和我的可能不一致,可以在后面出现相关问题后再进行修改) 
    拷贝源码文件org.apache.hadoop.io.nativeio.NativeIO到项目中 
    然后定位到access方法,直接修改为return true; 
    如下图所示: 

     

    七、windows下运行环境配置
    (Java调用本地类库,以下运行,如果不生效,则需要重启电脑) 
    如果是32位的电脑可以直接使用:
    需要hadoop.dll,winutils.exe 
    直接拷贝D:hadoop2.6hadoop-common-2.2.0-bin-masterin目录下内容,覆盖D:hadoop2.6hadoop-2.6.0in
    如果电脑是64位,下载我分享的文件,进行覆盖。
     
    八、运行project
    在eclipse中点击WordCount.java,右键,点击Run As—>Run Configurations,配置运行参数,即输入和输出文件夹 
    hdfs://192.168.249.130:8020/wordcount/input/file01  hdfs://192.168.249.130:8020/wordcount/output7
    如下图所示: 
     
     
    注意:
    1、如果output目录已经存在,则删掉或换个名字,如output20,output10...
     
    2、创建的Project,需要将hadoop相关的jar包都引用进来。比如Common、hdfs、Mapreduce、yarn中的jar包,如果运行时候出现类找不到,大多数因为没有引进某个jar包。
     
    源码中有引用该包 sun.misc.Unsafe;  Java7已经不支持这个类了,如果使用JDK7,则会报错。
     
     访问我的微博地址:http://weibo.com/tmeily ,可以关注我。
  • 相关阅读:
    ps -aux --sort -rss |head 列出进程拿物理内存占用排序 使用ps aux 查看系统进程时,第六列即 RSS列显示的就是进程使用的物理内存。
    13 memcache服务检查
    shell 颜色
    expr判断整数是相加的值,返回命令的返回值$? 是0,但是少数情况是1,例如1 + -1 ,$? 的结果是1 ,判断要大于1最准确
    ZABBIX监控原理
    ansible分发密钥
    再来一个expect脚本
    11:菜单自动化软件部署经典案例
    19:批量检查多个网站地址是否正常
    数组迭代
  • 原文地址:https://www.cnblogs.com/tmeily/p/4290049.html
Copyright © 2011-2022 走看看