zoukankan      html  css  js  c++  java
  • 大数据中Hadoop集群搭建与配置

    前提环境是之前搭建的4台Linux虚拟机,详情参见 Linux集群搭建 

    该环境对应4台服务器,192.168.1.60、61、62、63,其中60为主机,其余为从机

    软件版本选择:

    Java:JDK1.8.0_191(jdk-8u191-linux-x64.tar.gz)

    Hadoop:Hadoop-2.9.2(hadoop-2.9.2.tar.gz)

    上传hadoop与java到服务器并查看

    cd /home/ftpuser/
    ls

    image

    安装Java

    解压Java

    mkdir /usr/java
    tar -zxvf jdk-8u191-linux-x64.tar.gz -C /usr/java/

    配置Java环境变量

    vi /etc/profile

    添加Java配置

    image

    启用配置

    source /etc/profile

    查看是否配置成功

    java -version

    image

    配置Hadoop主体环境

    修改hostname,方便认识,这里设置为对应IP的4台服务器HServer60,HServer61,HServer62,HServer63,配置后重启(reboot)生效

    vi /etc/hostname

    image

    配置hosts文件,对应IP于主机名

    vi /etc/hosts

    image

    解压hadoop

    mkdir /cloud
    cd /home/ftpuser/
    tar -zxvf hadoop-2.9.2.tar.gz -C /cloud/

    一共有5个文件需要配置

    hadoop-env.sh

    core-site.xml

    hdfs-site.xml

    yarn-site.xml

    yarn-env.sh

    mapred-site.xml

    slaves

    cd /cloud/hadoop-2.9.2/etc/hadoop/

    配置hadoop-env.sh

    vi hadoop-env.sh

    image

    配置yarn-env.sh

    vi yarn-env.sh

    image

    配置core-site.xml

    vi core-site.xml

    image

    配置mapred-site.xml,先从模板复制一份配置出来,并修改

    cp mapred-site.xml.template mapred-site.xml
    vi mapred-site.xml

    image

    配置slaves,写入从机名称

    vi slaves

    image

    剩下的2个文件hdfs-site.xml与yarn-site.xml需要区分主机NameNode与从机DataNode的配置

    主机NameNode的hdfs-site.xml配置

    vi hdfs-site.xml

    image

    其中blocksize可以根据情况自行调整,是数据块的大小,handler.cout一般几台小集群10都足够了

    主机NameNode的yarn-site.xml配置

    vi yarn-site.xml

    image

    从机DataNode的hdfs-site.xml配置

    vi hdfs-site.xml

    image

    其中replication为备份数

    从机DataNode的yarn-site.xml配置

    vi yarn-site.xml

    image

    设置NameNode免密登录,在主机上操作

    ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.1.61
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.1.62
    ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.1.63

    可以将配置好的东西通过scp命令复制到远程服务器上

    scp -rp /cloud/hadoop-2.9.2 root@192.168.1.62:/cloud/

    整个Hadoop集群配置完毕,可以启动试试看,这里换到我已经搭建好的4台服务器,50、51、52、53

    启动命令在hadoop目录的sbin文件夹中,也可以在/etc/profile文件中配置环境变量,类似java配置,将该目录加入path路径

    启动hadoop集群,通过jps查看是否启动了

    start-all.sh

    image

    主机jps上会有NameNode,ResourceManager,SecondaryNameNode

    从机jps上会有NodeManager,DataNode

    这样就成功的启动了,访问主机IP:50070的URL访问

    image

  • 相关阅读:
    数据卷Volume
    使用 Elastic Stack 分析地理空间数据 (二)
    使用 Elastic Stack 分析地理空间数据 (一)
    如何在 Docker 之上使用 Elastic Stack 和 Kafka 可视化公共交通
    Kubernetes网络模型
    举例:Network Policies
    配置Pod的 /etc/hosts
    k8s上安装安装 Ingress Controller &卸载
    logstash安装插件修改使用的gem源
    示例:Ingress通过互联网访问应用
  • 原文地址:https://www.cnblogs.com/rqx-20181108/p/10278038.html
Copyright © 2011-2022 走看看