zoukankan      html  css  js  c++  java
  • HDFS 全分布式集群搭建

    全分布式集群搭建

    1、系统配置

    1.1、时间

    1.2、JDK

    1.3、免秘钥登录

    【我做的是节点之间免密登录,可以给主节点做单向的免秘钥登录】

    【服务器时间必须统一】

    【关闭防火墙,关闭安全机制】


    这里我就不做过多的笔记,后面还有很多的配置等着,10几分钟左右的事情。

    2、修改配置文件:

    这是基于伪分布式文件上面更改的:

    core-site.xml

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://MDNode01:9000</value>
        </property>
        <property>
            <name>hadoop.tmp.dir</name>
            <!--修改文件保存的路径-->
            <value>/var/mgs/hadoop/full</value>
        </property>
    </configuration>
    
    

    hdfs-site.xml

    <configuration>
        <property>
            <name>dfs.replication</name>
            <!--因为我搭建的只有3台DataNode服务器,副本数设置为2-->
            <value>2</value>
        </property>
        <property>
            <name>dfs.namenode.secondary.http-address</name>
            <!--指向另一台节点的线程上运行-->
            <value>MDNode02:50090</value>
        </property>
    </configuration>
    

    slaves

    #配置从节点
    MDNode02
    MDNode03
    Mdnode04
    

    分发Hadoop数据包

    [root@MDNode01 opt]# pwd
    /opt
    [root@MDNode01 opt]# ll
    total 4
    drwxr-xr-x 3 root root 4096 Nov 14  2019 mgs
    #将Hadoop分发到不同的节点上面
    [root@MDNode01 opt]# scp -r mgs/ MDNode04:`pwd`
    

    分发HADOOP_HOME的配置

    3、格式集群

    [root@MDNode01 hadoop-2.7.5]# hdfs namenode -format
    
    19/11/13 23:52:54 INFO namenode.FSImage: Allocated new BlockPoolId: BP-987421903-192.168.25.50-1573660374725
    19/11/13 23:52:54 INFO common.Storage: Storage directory /var/mgs/hadoop/full/dfs/name has been successfully formatted.
    19/11/13 23:52:55 INFO namenode.FSImageFormatProtobuf: Saving image file /var/mgs/hadoop/full/dfs/name/current/fsimage.ckpt_0000000000000000000 using no compression
    19/11/13 23:52:55 INFO namenode.FSImageFormatProtobuf: Image file /var/mgs/hadoop/full/dfs/name/current/fsimage.ckpt_0000000000000000000 of size 321 bytes saved in 0 seconds.
    19/11/13 23:52:55 INFO namenode.NNStorageRetentionManager: Going to retain 1 images with txid >= 0
    19/11/13 23:52:55 INFO util.ExitUtil: Exiting with status 0
    19/11/13 23:52:55 INFO namenode.NameNode: SHUTDOWN_MSG: 
    /************************************************************
    SHUTDOWN_MSG: Shutting down NameNode at MDNode01/192.168.25.50
    ************************************************************/
    

    在info后面的时候可以发现配置完成

    [root@MDNode01 hadoop-2.7.5]# cd /var/mgs/hadoop/full/dfs/
    [root@MDNode01 dfs]# ll
    total 4
    drwxr-xr-x 3 root root 4096 Nov 13 23:52 name
    [root@MDNode01 dfs]# cd name
    [root@MDNode01 name]# ll
    total 4
    drwxr-xr-x 2 root root 4096 Nov 13 23:52 current
    [root@MDNode01 name]# cd current/
    [root@MDNode01 current]# ll
    total 16
    -rw-r--r-- 1 root root 321 Nov 13 23:52 fsimage_0000000000000000000
    -rw-r--r-- 1 root root  62 Nov 13 23:52 fsimage_0000000000000000000.md5
    -rw-r--r-- 1 root root   2 Nov 13 23:52 seen_txid
    -rw-r--r-- 1 root root 204 Nov 13 23:52 VERSION
    [root@MDNode01 current]# cat VERSION 
    #Wed Nov 13 23:52:54 CST 2019
    namespaceID=330427894
    clusterID=CID-c042ece5-6da9-4158-9fc2-527bf4688fbc
    cTime=0
    storageType=NAME_NODE
    blockpoolID=BP-987421903-192.168.25.50-1573660374725
    layoutVersion=-63
    [root@MDNode01 current]# 
    

    可以看到当期的节点是一个主节点上面生成的目录,其他的子节点上面在没有启动的时候不会生成配置文件

    4、启动集群

    [root@MDNode01 hadoop-2.7.5]# start-dfs.sh 
    Starting namenodes on [MDNode01]
    MDNode01: starting namenode, logging to /opt/mgs/hadoop-2.7.5/logs/hadoop-root-namenode-MDNode01.out
    Mdnode04: starting datanode, logging to /opt/mgs/hadoop-2.7.5/logs/hadoop-root-datanode-MDNode04.out
    MDNode03: starting datanode, logging to /opt/mgs/hadoop-2.7.5/logs/hadoop-root-datanode-MDNode03.out
    MDNode02: starting datanode, logging to /opt/mgs/hadoop-2.7.5/logs/hadoop-root-datanode-MDNode02.out
    Starting secondary namenodes [MDNode02]
    MDNode02: starting secondarynamenode, logging to /opt/mgs/hadoop-2.7.5/logs/hadoop-root-secondarynamenode-MDNode02.out
    

    可以看到节点启动正常,【在集群自己所有机器都做相互之间的免秘钥登录在哪个节点都可以启动】

    接下来我们查看所有的java进程,

    [root@MDNode01 current]# jps
    1305 NameNode
    1387 Jps
    [root@MDNode01 current]# 
    
    [root@MDNode02 hadoop-2.7.5]# jps
    1872 Jps
    1719 SecondaryNameNode
    1599 DataNode
    [root@MDNode02 hadoop-2.7.5]# 
    
    
    [root@MDNode03 hadoop-2.7.5]# jps
    1434 DataNode
    1518 Jps
    [root@MDNode03 hadoop-2.7.5]# 
    
    [root@MDNode04 hadoop-2.7.5]# jps
    1507 Jps
    1423 DataNode
    [root@MDNode04 hadoop-2.7.5]# 
    

    OK,

    不懂的节点出错建议去查看自己节点的日志。

    这样就可以观察到不同节点的数据了。

    创建一个默认的目录:

    [root@MDNode01 current]# hdfs dfs -mkdir -p /user/root
    

    5、上传文件

    [root@MDNode01 software]# for i in `seq 100000`;do echo "hello shaoyayu $i" >> test.txt;done
    [root@MDNode01 software]# ll -lh
    total 395M
    -rw-r--r-- 1 root root 207M Nov 14  2019 hadoop-2.7.5.tar.gz
    -rw-r--r-- 1 root root 187M Nov 14  2019 jdk-8u221-linux-x64.tar.gz
    -rw-r--r-- 1 root root 2.0M Nov 14 00:21 test.txt
    #指定上传的大小是1M=1048576个字节。默认的是128M的大小,路径默认的存放在/user/root的目录下面
    [root@MDNode01 software]# hdfs dfs -D dfs.blocksize=1048576 -put test.txt 
    

    可视化观察:

    可以查看到文件本的副本数量,和存放的位置和文件的大小。

    可以去存放的节点之上找到相对于的副本

    [root@MDNode02 subdir0]# pwd
    /var/mgs/hadoop/full/dfs/data/current/BP-987421903-192.168.25.50-1573660374725/current/finalized/subdir0/subdir0
    [root@MDNode02 subdir0]# ls -lh
    total 2.1M
    -rw-r--r-- 1 root root  1.0M Nov 14 00:26 blk_1073741825
    -rw-r--r-- 1 root root  8.1K Nov 14 00:26 blk_1073741825_1001.meta
    -rw-r--r-- 1 root root 1016K Nov 14 00:26 blk_1073741826
    -rw-r--r-- 1 root root  8.0K Nov 14 00:26 blk_1073741826_1002.meta
    [root@MDNode02 subdir0]# 
    
    [root@MDNode03 hadoop-2.7.5]# cd /var/mgs/hadoop/full/dfs/data/current/BP-987421903-192.168.25.50-1573660374725/current/finalized
    [root@MDNode03 finalized]# cd subdir0/subdir0/
    [root@MDNode03 subdir0]# ls -lh
    total 2.1M
    -rw-r--r-- 1 root root  1.0M Nov 14 00:26 blk_1073741825
    -rw-r--r-- 1 root root  8.1K Nov 14 00:26 blk_1073741825_1001.meta
    -rw-r--r-- 1 root root 1016K Nov 14 00:26 blk_1073741826
    -rw-r--r-- 1 root root  8.0K Nov 14 00:26 blk_1073741826_1002.meta
    [root@MDNode03 subdir0]#
    

    这就可以找到相对于的节点上的数据了

    vi + blk_1073741825

    ......
    hello shaoyayu 50458
    hello shaoyayu 50459
    hello shaoyayu 50460
    hello shaoyayu 50461
    h
    

    vi + blk_1073741826

    ello shaoyayu 50462
    hello shaoyayu 50463
    ......
    hello shaoyayu 100000
    

    可以看到文件在50416的位置后面已经被切割了,严格按照物理切割

    记得加油学习哦^_^
  • 相关阅读:
    课程设计之第二次冲刺----第一天
    第一个spring冲刺总结
    课程设计之第一次冲刺----第九天
    课程设计之第一次冲刺----第八天
    课程设计之第一次冲刺----第七天
    课程设计之第一次冲刺----第六天
    课程设计之第一次冲刺---第5天
    课程设计之第一次冲刺---第四天
    课程设计之第一次冲刺---第3天
    课程设计之第一次冲刺---第二天
  • 原文地址:https://www.cnblogs.com/shaoyayu/p/13433723.html
Copyright © 2011-2022 走看看