zoukankan      html  css  js  c++  java
  • hadoop3自学入门笔记(2)—— HDFS分布式搭建

    一些介绍

    Hadoop 2和Hadoop 3的端口区别

    image.png

    Hadoop 3 HDFS集群架构

    image.png

    我的集群规划

    name ip role
    61 192.168.3.61 namenode,
    datanode
    62 192.168.3.62 datanode
    63 192.168.3.63 secondnamenode
    64 192.168.3.64 datanode

    1.安装JDK

    利用FileZilla sftp功能进行上传到指定文件夹下/root/software,下图是配置sftp.
    image.pngimage.png
    解压使用命令tar -xvzf jdk-8u241-linux-x64.tar.gz 解压到当前文件夹下。
    配置环境变量,输入命令vim /etc/profile,添加

    JAVA_HOME=/root/software/jdk1.8.0_241
    PATH=$JAVA_HOME/bin:$PATH
    

    最后退出vi,输入source /etc/profile
    测试输入命令java -version,如果展示

    root@localhost ~]# java -version
    java version "1.8.0_241"
    Java(TM) SE Runtime Environment (build 1.8.0_241-b07)
    Java HotSpot(TM) 64-Bit Server VM (build 25.241-b07, mixed mode)
    [root@localhost ~]# 
    

    安装成功!
    ssh免密配置请查看

    2.配置Hadoop

    sftp://root@192.168.3.62/root/software/hadoop-3.2.1.tar.gz
    解压。

    2.1部署及配置

    Hadoop的配置涉及以下几个文件,分别是:hadoop-env.sh、core-site.xml、hdfs-site.xml和workers。其中,hadoop-env.sh是Hadoop运行环境变量配置;core-site.xml是Hadoop公共属性的配置;hdfs-site.xml是关于HDFS的属性配置;workers是DataNode分布配置。下面我们分别配置这几个文件。
    以61为中心配置,最后复制到其他服务器

    1. hadoop-env.sh文件

    在/etc/hadoop/hadoop-env.sh中配置运行环境变量,在默认情况下,这个文件是没有任何配置的。我们需要配置JAVA_HOME、HDFS_NAMENODE_USER和HDFS_DATANODE_USER等,HDFS_SECONDARYNAMENODE_USER配置代码如下:
    在尾部加入

    export JAVA_HOME=/root/software/jdk1.8.0_241
    export  HDFS_NAMENODE_USER=root
    export  HDFS_DATANODE_USER=root
    export HDFS_SECONDARYNAMENODE_USER=root
    

    其中,JAVA_HOME=/root/software/jdk1.8.0_241是指定JDK的位置,HDFS_NAMENODE_USER=root是指定操作NameNode进程的用户是root。同理,HDFS_DATANODE_USER和HDFS_SECONDARYNAMENODE_USER分别指定了操作DataNode和Secondary NameNode的用户,在这里我们设置为root用户,具体应用时,读者根据情况进行设置即可。在这里需要注意的是,HDFS_NAMENODE_USER、HDFS_DATANODE_USER和HDFS_SECONDARYNAMENODE_USER是Hadoop 3.x为了提升安全性而引入的。

    1. core-site.xml文件

    core-site.xml中主要配置Hadoop的公共属性,配置代码如下:

    <configuration>
      <property>
            <name>fs.defaultFS</name>
            <value>hdfs://192.168.3.61:9820</value>
        </property>
    <property>
            <name>hadoop.tmp.dir</name>
            <value>/opt/hadoopdata</value>
        </property>
    </configuration>
    

    其中,fs.defaultFS是指定NameNode所在的节点,在这里配置为node1;9820是默认端口;hdfs:是协议;hadoop.tmp.dir是配置元数据所存放的配置,这里配置为/opt/hadoopdata,后续如果需要查看fsiamge和edits文件,可以到这个目录下查找。

    1. hdfs-site.xml文件

    hdfs-site.xml文件中主要是HDFS属性配置,配置代码如下:

    <configuration>
    <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>192.168.3.63:9868</value>
        </property>
    <property>
            <name>dfs.replication</name>
            <value>3</value>
        </property>
    <property>
     <name>dfs.namenode.datanode.registration.ip-hostname-check</name>
     <value>false</value>
    </property>
    

    其中,dfs.namenode.secondary.http-address属性是配置Secondary NameNode的节点,在这里配置为node2。端口为9868。
    关于这些配置,读者可以从官网上查找,网址为https://hadoop.apache.org/docs/stable/index.html,其中的左下角有个Configuration项,其中包括core-default.xml等配置文件。

    1. workers文件

    在workers中配DataNode节点,在其中写入:

    192.168.3.61
    192.168.3.62
    192.168.3.64
    

    2.2 将配置复制到其他服务器

    进入 /root/software/hadoop-3.2.1/etc 目录
    输入命令

    scp  -r ./hadoop   192.168.3.62:/root/software/hadoop-3.2.1/etc/
     scp  -r ./hadoop   192.168.3.63:/root/software/hadoop-3.2.1/etc/
     scp  -r ./hadoop   192.168.3.64:/root/software/hadoop-3.2.1/etc/
    

    2.3配置下hadoop的环境变量,方便输入命令

    export JAVA_HOME=/root/software/jdk1.8.0_241
    export HADOOP_HOME=/root/software/hadoop-3.2.1
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
    

    2.4格式化

    第一次安装Hadoop需要进行格式化,以后就不需要了。格式化命令在hadoop/bin下面,执行如下命令:

    hdfs namenode -formate
    

    格式化后会创建一个空白的fsimage文件,可以在opt/hadoopdata/dfs/name/current中找到fsimage文件,注意此时没有edits文件。

    3.启动

    进入hadoop/sbin下面运行start-dfs.sh,启动HDFS集群,启动命令如下:

    ./start-dfs.sh
    

    这时,可以在不同节点中通过jps命令查看不同的进程。
    61
    image.png
    62
    image.png
    63
    image.png

    64
    image.png
    表示都已经启动。

    4.打开浏览器查看HDFS监听页面

    在浏览器中输入http://ip:9870,比如这里输入http://192.168.30.61:9870/,出现以下界面则表示Hadoop完全分布式搭建成功
    image.png

    image.png

    选择Datanodes选项,可以看到DataNode的利用率和DataNode的节点状态
    image.png

    这里只显示了一个比较奇怪,以后再研究。

    更多精彩请关注公众号【lovepythoncn】

  • 相关阅读:
    P2617 Dynamic Rankings (动态开点权值线段树 + 树状数组)
    2019HDU多校 Round5
    2019牛客多校 Round6
    2019牛客多校 Round5
    2019HDU多校 Round4
    [转]SQLServer : EXEC和sp_executesql的区别
    无法执行 FunctionImport“entitys.xx”,因为未将它映射到存储函数。EF
    【终极解决方案】为应用程序池“XXX”提供服务的进程在与 Windows Process Activation Service 通信时出现严重错误。该进程 ID 为“XXXX”。数据字段包含错误号。
    IE11 Windows7下F12 DOC资源管理器不能用Exception in window.onload: Error: An error has ocurredJSPlugin.3005
    VS2015编译错误:调用的目标发生了异常--->此实现不是Windows平台FLPS验证的加密算法的一部分。
  • 原文地址:https://www.cnblogs.com/qingmiaokeji/p/12354395.html
Copyright © 2011-2022 走看看