linux下hadoop2.6.1源码64位的编译
一、 前言
Apache官网上提供的hadoop本地库是32位的,如果我们的Linux服务器是64位的话,就会现问题。我们在64位服务器执行Hadoop命令时,则会报以下错误:
WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
为了解决上述问题,我们就需要自己编译一个64位的hadoop版本。
二、编译hadoop2.6.1需要的软件
-
jdk 1.7
-
gcc 4.4.5
-
maven 3.3.3
-
protobuf 2.5.0
-
cmake 2.8.12.2
-
ant 1.9.6
-
finbugs(可选择)
注意:
1)在百度中搜索各个软件的名称,最好到官网上下载,下载软件一定注意软件的版本。
2)finbugs不是编译所必须的软件,可以不下载。
三、编译软件的安装
1.jdk的安装
- 解压 tar -zxvf jdk-7u79-linux-x64.tar.gz
- 配置环境变量,编辑/etc/profile文件
- export JAVA_HOME=/opt/jdk1.7.0_25
- export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
- export PATH=$PATH:$JAVA_HOME/bin
- source /etc/profile 刷新修改的环境变量
- java -version 检查jdk是否安装成功。有以下版本号输出即为成功。
2.gcc的安装
一般linux上会自带了gcc的安装,所以在安装以前,先检查一下服务器上是否已经安装了gcc。
输入:gcc -v
如果有以下输出,则这说明已经安装了gcc
如机器上没有安装gcc,请自行安装
3.maven的安装
- 解压tar -zxvf apache-maven-3.3.3-bin.tar.gz
- 配置环境变量,编辑/etc/profile
- export PATH=$PATH:$JAVA_HOME/bin:$MAVEN_HOME/bin
- source /etc/profile 刷新修改的环境变量
- mvn -version 检查maven是否安装成功。有以下版本号输出即为成功。
4.protobuf的安装
- 解压tar -zxvf protobuf-2.5.0.tar.gz
- 进入protobuf的解压目录。如:cd /opt/protobuf-2.5.0/
- 在安装目录下,执行以下命令:
- ./ configure
- make
- make check
- make install
- protoc --version(注意命令中是两个-) 检查protoc是否安装成功。有版本号输出即为成功。
5.cmake的安装
- tar -zxvf cmake-2.8.12.2.tar.gz
- 进入cmake的解压目录。如:cd /opt/cmake-2.8.12.2/
- 在安装目录下,执行以下命令:
- ./ bootstrap
- make
- make install
- cmake -version 检查cmake是否安装成功。有版本号输出即为成功。
6.ant的安装
- 解压tar -zxvf apache-ant-1.9.6-bin.tar.gz
- 编辑环境变量,编辑/etc/profile
- export ANT_HOME=/opt/apache-ant-1.9.6
- export PATH=$PATH:$JAVA_HOME/bin:$MAVEN_HOME/bin:$ANT_HOME/bin
- source /etc/profile 刷新修改的环境变量
- ant -version检查ant是否安装成功。有以下版本号输出即为成功。
7.安装必要的包
- 安装 autotool
- 执行命令:yum install autoconf automake libtool
- 安装 openssl-devel
- 执行命令:yum install openssl-devel
四、编译hadoop2.6.1
- 在Apache官网上,下载hadoop-2.6.1的源码包hadoop-2.6.1-src.tar.gz。
- 解压源码包tar -zxvf hadoop-2.6.1-src.tar.gz
- 进入hadoop-2.6.1-src解压目录。cd /opt/hadoop-2.6.1-src/
- 执行命令mvn clean package -Pdist,native -DskipTests -Dtar 进行编译。
- 编译过程中,需要下载很多包,等待时间比较长。当看到hadoop各个项目都编译成功,即出现一系列的SUCCESS之后,即为编译成功。
- 编译好的安装包hadoop-2.6.1.tar.gz,可以在文件目录hadoop-2.6.1-src/hadoop-dist/target/下找到。
五、注意事项
编译过程中需要下载安装包,有时候可能由于网络的原因,导致安装包下载不完整,而出现编译错误。
错误1:
Remote host closed connection during handshake: SSL peer shut down incorrectly.......
解决方案:需要重新新多编译几次即可通过。
错误2:
A required class was missing while executing XXXXXX,
[ERROR] strategy = org.codehaus.plexus.classworlds.strategy.SelfFirstStrategy
[ERROR]urls[0] =file:/root/.m2/repository/org/codehaus/mojo/jspc/jspc-maven-plugin/2.0-alpha-3/jspc-maven-plugin-2.0-alpha-3.jar
[ERROR]urls[1]=file:/root/.m2/repository/org/codehaus/mojo/jspc/jspc-compiler-tomcat5/2.0-alpha-3/jspc-compiler-tomcat5-2.0-alpha-3.jar [ERROR]urls[2]=file:/root/.m2/repository/tomcat/jasper-compiler/5.5.15/jasper-compiler-5.5.15.jar
[ERROR]urls[3]=file:/root/.m2/repository/javax/servlet/jsp-api/2.0/jsp-api-2.0.jar
[ERROR]urls[4]=file:/root/.m2/repository/ant/ant/1.6.5/ant-1.6.5.jar
[ERROR]urls[5]=file:/root/.m2/repository/tomcat/jasper-compiler-jdt/5.5.15/jasper-compiler-jdt-5.5.15.jar
........................
解决方案:则需要根据错误的提示,到相应目录下找到包,把包删除,然后再次重新编译。