DFS集群安装:
1.准备工作
(1)虚拟机(电脑8G 磁盘500GB)
(2)3台linux系统(1台namenode 2台datanode)
2.安装HDFS(软件)
(1)关闭防火墙
firewall-cmd --state 查看防火墙状态
systemctl stop firewalld.service 关闭防火墙
systemctl disable firewalld.service 禁止开机启动
(2)远程连接(CRT或者Xshell)
(3)永久设置主机名
vi /etc/hostname
注意:要reboot重启
(4)配置映射文件
vi /etc/hosts
192.168.80.10 master
192.168.80.11 slave1
192.168.80.12 slave2
(5)安装jdk
tar -zxvf jdk-8u121-linux-x64.tar.gz
vi /etc/profile
export JAVA_HOME=/root/hd/jdk1.8.0_121
export PATH=$PATH:$JAVA_HOME/bin
source /etc/profile 声明环境变量
scp -r /root/hd/jdk1.8.0_121 root@slave1:/root/hd/jdk1.8.0_121 把解压好的jdk拷贝到slave1机器上
(6)配置免密登录
ssh-keygen 生成密钥对
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
3.安装HDFS
(1)解压tar包
tar -zxvf hadoop-2.8.4.tar.gz
(2)修改配置文件
cd /root/hd/hadoop-2.8.4/etc/hadoop
1) vi core-site.xml
修改
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
2) vi hdfs-site.xml
修改
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/root/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/root/dfs/data</value>
</property>
</configuration>
3) vi hadoop-env.sh
文件中增加
# export JAVA_HOME=你的java路径
export JAVA_HOME=/root/hd/jdk1.8.0_121
4) vi slaves 添加两个子节点(datanode)
slave1
slave2
(3)配置hadoop环境变量
vi /etc/profile
export JAVA_HOME=/root/hd/jdk1.8.0_121
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/root/hd/hadoop-2.8.4
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
(4)格式化namenode
hadoop namenode -format
(5)启动hdfs
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode
(6)访问web端口
master:50070
(7)自动启动脚本
单节点启动:
hadoop-deamon.sh start namenode
hadoop-deamon.sh start datanode
集群启动:start-dfs.sh
4.hdfs客户端命令
1)查看存储的文件
hdfs dfs -cat /
2)上传数据
hdfs dfs -put 文件 /路径
3)剪切文件到hdfs
hdfs dfs -moveFromLocal hunter.txt /haha.txt
4)下载数据到本地
hdfs dfs -get /路径 路径
5)创建文件夹
hdfs dfs -mkdir /文件夹
6)强制创建文件夹
hdfs dfs -mkdir -p /文件夹/文件夹