一、jdk的安装
1、将linux版本的jdk通过xftp上传到hadoop用户目录下,在这之前首先需要安装Xshell和Xftp,在安装完成后,打开xshell并新建会话;
输入会话名称,协议选择SSH,输入虚拟机内主机的IP,这个IP的配置在上一篇文章已经进行了讲解。
在输入完毕后进行连接,然会会提示你输入用户名和密码,即主机的用户名和密码(用户名为你当时配置的简称),然会连接成功,如下图所示
接下来打开xftp
新建一个soft文件夹,用于存放jdk、hadoop等软件
将jdk免安装压缩包(我这里使用的是jdk-8u121-linux-x64.tar.gz,请在网上自行下载)Ctrl+C、Ctrl+V复制到soft目录下;
然后在xshell中输入命令 cd soft进入soft文件夹,输入tar -zxvf jdk-8u121-linux-x64.tar.gz命令进行解压;
解压完成后,在oracle用户的根目录有一个jdk1.8.0_121目录
2、配置环境变量,需要修改/etc/profile文件(root用户操作)
切到root用户,输入命令vi /etc/profile;进去编辑器后,输入i,进入vi编辑器的插入模式;
在profile文件最后添加
JAVA_HOME=/home/hadoop/jdk1.8.0_121
export PATH=$PATH:$JAVA_HOME/bin
编辑完成后,按下esc退出插入模式
输入:,这时在左下角有一个冒号的标识,输入wq进行保存退出
q 退出不保存
wq 保存退出
q! 强制退出
3、把修改的环境变量生效(hadoop用户操作)
在用户根目录下执行source /etc/profile(进入用户根目录的命令:cd ~)
二、Hadoop安装
1、通过xftp将hadoop-2.6.0.tar.gz上传到虚拟机中,操作步骤和上传jdk基本一致,在soft目录下使用tar -zxvf hadoop-2.6.0.tar.gz进行解压;
解压完成在oracle用户的根目录下有一个hadoop-2.6.0目录
2、修改配置文件hadoop-2.6.0/etc/hadoop/hadoop-env.sh(hadoop用户操作)
export JAVA_HOME=/home/hadoop/soft/jdk1.8.0_121
3、修改配置文件hadoop-2.6.0/etc/hadoop/core-site.xml,添加(hadoop用户操作)
<property>
<name>fs.defaultFS</name>
<value>hdfs://oracle:9000</value>
</property>
4、修改配置文件hadoop-2.6.0/etc/hadoop/hdfs-site.xml,添加(hadoop用户操作)
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
5、修改修改配置文件hadoop-2.6.0/etc/hadoop/mapred-site.xml(hadoop用户操作)
这个文件没有,需要复制一份
cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
添加
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
6、修改配置文件hadoop-2.6.0/etc/hadoop/yarn-site.xml,添加(hadoop用户操作)
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
7、修改/etc/hosts文件(root用户操作),添加:ip 主机名称(这里根据自己的设置填写)
192.168.159.99 hadoop
8、格式化HDFS,在hadoop解压目录下,执行如下命令:(hadoop用户操作)
bin/hdfs namenode –format
注意:格式化只能操作一次,如果因为某种原因,集群不能用,需要再次格式化,需要把上一次格式化的信息删除,在/tmp目录里执行rm–rf *
9、启动集群,在hadoop解压目录下,执行如下命令:(hadoop用户操作)
启动集群:sbin/start-all.sh需要输入四次当前用户的密码(通过配置ssh互信解决)
启动后,在命令行输入jps有以下输出
[meng@hadoop hadoop-2.6.0]$ jps
32033 Jps
31718 SecondaryNameNode
31528 DataNode
31852 ResourceManager
31437 NameNode
31949 NodeManager
关闭集群:sbin/stop-all.sh需要输入四次当前用户的密码(通过配置ssh互信解决)
三、SSH互信配置(hadoop用户操作)
rsa加密方法,公钥和私钥
1、生成公钥和私钥
在命令行执行ssh-keygen(注意-前没有空格),然后回车,然后会提示输入内容,什么都不用写,一路回车
在hadoop用户根目录下,有一个.ssh目录
id_rsa 私钥
id_rsa.pub 公钥
known_hosts 通过SSH链接到本主机,都会在这里有记录
2、把公钥给信任的主机(本机)
在命令行输入ssh-copy-id 主机名称
例如 ssh-copy-id hadoop
复制的过程中需要输入信任主机的密码
3、验证,在命令行输入:ssh 信任主机名称
ssh hadoop
如果没有提示输入密码,则配置成功
接下来会简单介绍一下hadoop的基本操作命令