Hadoop伪分布模式的安装
【环境参数】
(1)Host OS:Win7 64bit
(2)IDE:Eclipse Version: Luna Service Release 2 (4.4.2)
(3)虚拟机:VMware 10
(4)Client OS:CentOS 6.4 32bit。
注意:
若是CentOS 64bit,则在启动hadoop时,会报出警告。
原因:Hadoop的本地库($HADOOP_HOME/lib/native/libhadoop.so.1.0.0)是在32 bit平台编译的,只支持32bit,并不支持64bit的,因此,若在64bit的CentOS上启动就会报出警告,如下所示。
INFO namenode.NameNode: createNameNode [-format] Java HotSpot(TM) Server VM warning: You have loaded library /home/hadoop/app/hadoop-2.4.1/lib/native/libhadoop.so.1.0.0 which might have disabled stack guard. The VM will try to fix the stack guard now. It's highly recommended that you fix the library with 'execstack -c <libfile>', or link it with '-z noexecstack'. WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable |
(5)JDK版本:jdk-7u55-linux-i586.tar
(6)Hadoop Version:hadoop-2.4.1
(7)Hadoop集群配置参数
本集群共三个节点,一个是Namenode节点,剩余两个为Datanode节点。
7.1)Namenode节点参数
IP:192.168.234.8
主机名:namenode01
7.2)第一个DataNode节点参数
IP:192.168.234.11
主机名:datanode01
7.3)第二个DataNode节点参数
IP:192.168.234.12
主机名:datanode02
(8)本机在NAT连接(VMnet8)方式下,对应虚拟网络中的IP地址:192.168.234.1
【步骤描述】
0、安装步骤简述
Hadoop的伪分布式安装主要概括为以下步骤:
Linux环境的配置(IP, 主机名,hosts映射),安装配置JDK,安装配置hadoop,配置SSH免登陆等。
1、准备Linux环境(root用户操作)
1.1修改适配器设置
点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.234.255 子网掩码:255.255.255.0 -> apply -> ok
回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet8(NAT连接方式) -> 属性 -> 双击IPv4 -> 设置windows的IP:192.168.234.1 子网掩码:255.255.255.0 -> 点击确定
在虚拟软件上 --My Computer -> 选中虚拟机 -> 右键 -> settings -> network adapter -> host only -> ok
1.2关闭防火墙
查看防火墙状态
# service iptables status
关闭防火墙
# service iptables stop
查看防火墙开机启动状态
# chkconfig iptables --list
关闭防火墙开机启动
# chkconfig iptables off
1.3修改IP、主机名和hosts文件
1.3.1修改IP
两种方式:
第一种:通过Linux图形界面进行修改(强烈推荐)
进入Linux图形界面 -> 右键点击右上方的两个小电脑 -> 点击Edit connections -> 选中当前网络System eth0 -> 点击edit按钮 -> 选择IPv4 -> method选择为manual -> 点击add按钮 -> 添加IP:192.168.1.101 子网掩码:255.255.255.0 网关:192.168.1.1 -> apply
第二种:修改配置文件方式(屌丝程序猿专用)
vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE="eth0"
BOOTPROTO="static" ###
HWADDR="00:0C:29:3C:BF:E7"
IPV6INIT="yes"
NM_CONTROLLED="yes"
ONBOOT="yes"
TYPE="Ethernet"
UUID="ce22eeca-ecde-4536-8cc2-ef0dc36d4a8c"
IPADDR="192.168.234.8" ###
NETMASK="255.255.255.0" ###
GATEWAY="192.168.234.255" ###
1.3.2修改主机名
(1)编辑/etc/sysconfig/network文件
# vim /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=namenode01 ###
(2)使用hostname
# hostname namenode01
(3)重新登录使得新主机名生效
# logout
注意:修改datanode01和datanode02的节点的主机名也是这个步骤。
1.3.3修改主机名和IP的映射关系
编辑/etc/hosts文件。
# vim /etc/hosts
192.168.234.8 namenode01 (Namenode的IP地址与域名的映射)
192.168.234.11 datanode01 (第一个Datanode的IP地址与域名的映射)
192.168.234.12 datanode02 (第二个Datanode的IP地址与域名的映射)
1.4创建hadoop用户、用户组以及赋予权限
(1)创建用户和组
创建hadoop用户组hadoopGroup
# groupadd hadoopGroup
创建hadoop用户,并为其指定用户组,用户家目录
# useradd hadoop -g hadoopGroup -d /home/hadoop
(2)为hadoop用户赋予sudo权限
编辑“/etc/sudoers”文件,添加相关命令。
Allow root to run any commands anywhere root ALL=(ALL) ALL hadoop ALL=(ALL) ALL |
1.4重启Linux
# shutdown -h now
2、安装JDK
2.1在【SecureSRT】中,按下“alt+p”后出现sftp窗口,然后put d:xxxyylljdk-7u_65-i585.tar.gz
2.2解压jdk
创建文件夹
# mkdir /home/hadoop/app
解压
# tar -zxvf jdk-7u55-linux-i586.tar.gz -C /home/hadoop/app
2.3将java添加到环境变量中
# vim /etc/profile
在文件最后添加
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_55
export PATH=$PATH:$JAVA_HOME/bin
刷新配置
# source /etc/profile
3、安装hadoop2.4.1(hadoop用户操作)
注意01:在安装之前,要确保每台机器上都安装了JDK,配置了环境变量等。
注意02:将用户切换到hadoop用户。
注意03:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop伪分布式安装需要修改5个配置文件。
3.1配置hadoop(仅仅在单一节点配置,hadoop-server01)
第一个:hadoop-env.sh
vim hadoop-env.sh
#第27行
export JAVA_HOME=/usr/java/jdk1.7.0_65
注意:原来的配置为“export JAVA_HOME=${ JAVA_HOME }” ,是灵活的,在此要将其写死,因为原配置中,Hadoop可能会无法识别JAVA_HOME这个环境变量。
第二个:core-site.xml
core-site.xml
该文件中配置了Hadoop运行时的一些“公共的参数”。
<configuration> <!-- 指定HADOOP所使用的文件系统schema(URI),HDFS的老大(NameNode)的地址 --> <property> <name>fs.defaultFS</name> <!-- 配置namenode --> <value>hdfs://namenode01:9000</value> </property> <!-- 指定hadoop运行时产生文件的存储目录 --> <property> <name>hadoop.tmp.dir</name> <value>/home/hadoop/app/hadoop-2.4.1/tmp</value> </property> </configuration> |
解释1:
“hdfs://namenode01:9000”是一个URI,就像mysql的URI一样“jdbc:mysql://host:3306/db?if..”。
其中:
“hdfs://”和“jdbc:mysql://”这两个开头都是一个“Schema”,“hdfs://”是Hadoop的协议。
解释2:
“hdfs://namenode01:9000”,Schema后边的部分为“namenode的地址(或者域名、主机名)和端口号”。
namenode01:为Namenode节点主机的主机名。
解释3:
“hadoop.tmp.dir”为hadoop的工作目录。Hadoop运行过程中产生的中间目录都放置在该文件夹下。
具体的参数配置,请参考:
http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/core-default.xml
第三个:hdfs-site.xml
<!-- 指定HDFS副本的数量 --> <property> <name>dfs.replication</name> <value>1</value> </property> |
hdfs-site.xml:具体规定hadoop工作的一些细节。
dfs.replication:指定HDFS副本的数量。
第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)
$ mv mapred-site.xml.template mapred-site.xml
$ vim mapred-site.xml
<!-- 指定mr运行在yarn上 --> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> |
第五个:yarn-site.xml
<!-- 指定YARN的老大(ResourceManager)的地址 --> <property> <name>yarn.resourcemanager.hostname</name> <value>namenode01</value> </property> <!-- reducer获取数据的方式 --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> |
解释:
(1) “yarn.nodemanager.aux-services”:规定一些“从节点”的行为。
第六个:配置” etc/hadoop/slave”文件
作用:决定Hadoop在启动时,是否自动去启动从节点“datanode”。
$ vim slaves
输入下列内容
namenode01
datanode01
datanode02
(1)将从节点“datanode”的信息写入到该文件中。
因为上边五个xml文件配置的都是namenode,或者yarn或者resourceManager等相关的信息,并没有配置与“从节点datanode”相关的信息,因此,在slaves中需要配置相关从节点的信息。
(2) 该文件不是必须配置的。
若配置该文件,则在Hadoop启动的时候,可以Hadoop会自动启动“从节点datanode”,若没有配置,则可以通过手工的形式启动“从节点”。
3.2将hadoop添加到环境变量
# vim /etc/proflie
export JAVA_HOME=/home/hadoop/app/jdk1.7.0_55
export HADOOP_HOME=/home/hadoop/app/hadoop-2.4.1
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
# source /etc/profile
3.3远程拷贝:将已经配置完的单一节点的Hadoop配置拷贝到另外两台节点中
(1)已配置好的节点:
namenode01
(2)未配置的节点:
datanode01
datanode02
(3)目标:
将“namenode01”节点中已经配置好的Hadoop文件(/home/hadoop/app/hadoop-2.4.1)拷贝到节点“datanode01”和节点“datanode02”所对应的目录下。
(4)命令
[hadoop@ namenode01 app]$ pwd
/home/hadoop/app/hadoop-2.4.1
[hadoop@ namenode01 app]$ ls
hadoop-2.4.1
[hadoop@ namenode01 hadoop]$
scp -r hadoop-2.4.1/ hadoop@datanode01:/home/hadoop/app
命令解析:
①scp:“Secure Copy”,一般用于“远程拷贝”。
②“hadoop@ datanode01”:表示拷贝到“datanode01”这台主机中的“hadoop用户”下目录“/home/hadoop/app”中去。
若没有“hadoop”这个字符串,则表示将文件拷贝到其他节点上的与“当前执行命令的用户名”相同的那个用户目录下。
拷贝之前注意:
注意01:在执行远程拷贝之前,在远程机器上,必须确保已经完成了初步的环境配置:
配置完IP,hostname,IP与域名的映射文件,hadoop用户和用户组,hadoop用户密码等,hadoop用户主目录的权限。
注意02:若主拷贝方节点与目标拷贝方节点上的两个用户之间的权限不一样,则无法完成系统拷贝。。
注意03:若另一台节点中没有“app”目录,则要先创建该目录,再执行远程拷贝。
3.4格式化namenode(是对namenode进行初始化)
切换到目录:$HADOOP_HOME/bin中,使用其中的命令“hdfs”。
注意:在使用能够分布式文件系统(即启动hadoop)之前,一定能够要先格式化。
# hdfs namenode -format
若出现下述命令,则说明hadoop文件系统的格式化已经成功了。
15/03/20 13:07:38 INFO common.Storage: Storage directory /app/ha doop-2.4.1/tmp/dfs/name has been successfully formatted. 15/03/20 13:07:39 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0 15/03/20 13:07:39 INFO util.ExitUtil: Exiting with status 0 15/03/20 13:07:39 INFO namenode.NameNode: SHUTDOWN_MSG: /************************************************************ SHUTDOWN_MSG: Shutting down NameNode at namenode01/192.168.234.8 ************************************************************/ |
所谓格式化也就是在用户自己创建的“$HADOOP/tmp”目录下,写入一些初始的元数据文件。格式化完毕后,会在$HADOOP_HOME/tmp/current目录下,生成HDFS的相关数据文件,如下所示。
[hadoop@namenode01 current]$ pwd /home/hadoop/app/hadoop-2.4.1/tmp/dfs/name/current [hadoop@namenode01 current]$ ls edits_0000000000000000001-0000000000000000002 edits_0000000000000000003-0000000000000000005 fsimage_0000000000000000018 fsimage_0000000000000000018.md5 fsimage_0000000000000000020 fsimage_0000000000000000020.md5 seen_txid VERSION |
3.5启动hadoop
注意:在使用能够分布式文件系统之前,一定能够要先格式化。
先启动HDFS
sbin/start-dfs.sh
再启动YARN
sbin/start-yarn.sh
或者也可以通过如下Web界面来确认HDFS是否启动成功:
若没有启动“start-dfs.sh”,则该界面是不能够成功启动的。
http://192.168.234.8:50070 (HDFS管理界面,显示NameNode信息)
http:// 192.168.234.8:8088 (MR管理界面)
3.6验证是否启动成功
使用jps命令验证
27408 NameNode
28218 Jps
27643 SecondaryNameNode
28066 NodeManager
27803 ResourceManager (这个进程代表YARN,是一个分布式的资源管理系统)
27512 DataNode
4、配置ssh免登陆
4.1 生成ssh免登陆密钥
进入到我的home目录
cd ~/.ssh
ssh-keygen -t rsa (四个回车)
执行完这个命令后,会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)
4.2拷贝公钥
将公钥拷贝到要免密登陆的目标机器上和本机上。
①ssh-copy-id datanode01
②ssh-copy-id datanode02
③ssh-copy-id namenode01
注意:千万不能忘了将密钥拷贝到“本机”上,在此,本机的主机名为:namenode01,否则,该配置将不会成功。