zoukankan      html  css  js  c++  java
  • 大数据自动化安装部署方案(一)

    1.前期准备

    1.1系统和yum源镜像准备

    需要的条件:

    ① 至少三台刚装上Centos7.0系统的物理机或者虚拟机;

    ② CentOS-7.0-x86_64-bin-DVD1.iso镜像,用于制作本地yum源;

    注意:本文三台物理机或虚拟机的操作系统镜像是CentOS-7-x86_64-Minimal-1804.iso。

    用于制作本地yum源的CentOS-7.0-x86_64-bin-DVD1.iso镜像默认存放于第一节点node1的/opt/system下

    1.2 配置文件host_ip.txt和frames.tx准备

    host_ip.txt文件为集群ip、hostname、root账号密码配置;而frames.txt为所需要安装的软件配置说明,其中false为不安装,true为安装

    host_ip.txt内容为:

    192.168.187.201 node1 root hadoop
    192.168.187.202 node2 root hadoop
    192.168.187.203 node3 root hadoop

    frames.txt内容为:

    jdk-8u181-linux-x64.tar.gz true
    scala-2.11.0.tgz true
    hadoop-2.7.6.tar.gz true
    hbase-2.0.1-bin.tar.gz true
    apache-hive-2.3.3-bin.tar.gz true
    zookeeper-3.4.13.tar.gz true
    spark-2.3.1-bin-hadoop2.7.tgz true
    kafka_2.11-1.1.1.tgz true

    1.3 安装软件准备

    需要在官网上下载frames.txt所列的软件安装包,可以自行下载。

    这里默认所有的软件安装包放在第一节点node1的/opt/frames目录下,下面涉及软件部分的shell操作都会根据/opt/frames/目录下是否有该软件再进行自动安装。

    1.4 shell命令文本准备

    以下shell文本文件,以及host_ip.txt和frames.txt文件,都默认放置在第一节点node1的/home/hadoop/automaticDeploy目录下,如图:

     

    2.模块化自动安装部署

    注意:以下所有shell命令的执行,都需要以root用户执行

    模块化自动安装部署包括IP地址设置、机器名hostname修改、host配置文件修改、关闭防火墙/SELINUX、添加bigdata用户名、配置yum源、配置SSH无密码登录、配置JDK环境、配置Scala环境共9个模块。

    2.1 集群中每台机器IP地址的设置

    集群中每台机器首先需要设置IP地址,保证机器与机器之间可以直接通过ip地址访问。

    IP地址设置shell命令文件editIpAddr.sh代码如下:

    #! /bin/bash
    ################
    #针对Centos-7.0
    ################
    
    #处理涉及到IP地址设置的网络文件,备份并创建新的
    function doWithNetworkFile()
    {
     #1.查找/etc/sysconfig/network-scripts/目录下是否存在ifcfg-ens33文件,存在则重命名为.bak结尾的
     fileResult=`find /etc/sysconfig/network-scripts/ -name "ifcfg-ens33"`
    
     if [[ $fileResult != "" ]]
     then
         #2.创建一个ifcfg-ens33文件用于配置网络设置
         result=`find /etc/sysconfig/network-scripts -wholename $fileResult.bak`
         if [[ -z $result ]]  
         then        
             mv $fileResult $fileResult.bak
         fi
         cp $fileResult.bak $fileResult
     else
         touch /etc/sysconfig/network-scripts/ifcfg-ens33
     fi
    }
    
    #配置ip地址
    function configureIpAddr()
    { 
     ip=$1
     gateway=$2
     fileUrl=/etc/sysconfig/network-scripts/ifcfg-ens33 
    
     #1.把ifcfg-ens33文件非#开头的行注释掉
     sed -i 's/^[^#]/#&/' $fileUrl
     
     UUID=`grep "^#UUID=*" $fileUrl | head -1`
     
     #2.配置内网IP地址
     #连接类型
     echo "TYPE=Ethernet" >> $fileUrl
     #静态IP
     echo "BOOTPROTO=static" >> $fileUrl
     echo "DEFROUTE=yes" >> $fileUrl
     echo "IPV4_FAILURE_FATAL=no" >> $fileUrl
     #IPV6关闭
     echo "IPV6INIT=no" >> $fileUrl
     #配置名字
     echo "NAME=ens33" >> $fileUrl
     #唯一标识
     echo "${UUID:1}" >> $fileUrl
     #网卡名称
     echo "DEVICE=ens33" >> $fileUrl
     #开机即启动网络
     echo "ONBOOT=yes" >> $fileUrl
     #IP地址
     echo "IPADDR=$ip" >> $fileUrl
     echo "PREFIX=24" >> $fileUrl
     #网络掩码
     echo "NETMASK=255.255.255.0" >> $fileUrl
     #网关
     echo "GATEWAY=$gateway" >> $fileUrl 
    }
    
    function editIpAddr()
    {
     ip=$1
     gateway=$2
     
     #处理涉及到IP地址设置的网络文件,备份并创建新的
     doWithNetworkFile
     #在/etc/sysconfig/network-scripts/ifcfg-ens33上设置IP地址
     configureIpAddr $ip $gateway 
     
     #重启网络服务
     service network restart
    }
    
    ip=$1
    gateway=$2
    editIpAddr $ip $gateway

    分别在三台机器上以root用户执行如下命令:

    /home/hadoop/automaticDeploy/systems/editIpAddr.sh 192.168.187.*** 192.168.187.2

     注意:

    ①网关192.168.187.2需要通过 route -n 命令(CentOS7以上使用)查看,如图:

    ②不同机器的ip地址是不一样的,这里指IP地址的前三个数值是一样,前三个数值与网关的前三个数值是一致的;只有最后一个***是根据需求设置,一般在0~255之间。这里我假定三个节点node1、node2、node3的IP分别为192.168.187.201,192.168.187.202,192.168.187.203。

    2.2 修改机器名hostname

    changeHostname.sh代码如下:

    #! /bin/bash
    
    #修改机器名hostname
    function changeHostname()
    {
     hostname=$1
     #echo "change the hostname $1"
     
     egrep "^HOSTNAME=" /etc/sysconfig/network >& /dev/null
     if [ $? -eq 0 ]
     then
          #存在则删除旧的hostname
          sed -i "/^HOSTNAME=/d" /etc/sysconfig/network
     fi
     #添加新的hostname
     echo "HOSTNAME=$hostname" >> /etc/sysconfig/network
     
     #echo "change the hostname $1 successfully"
    }
    
    #获取参数
    node=$1
    
    if [ -z $node ]
    then
        echo "参数为空,请输入参数node1,node2,node3..."
    else
        changeHostname $node
    fi

    以root用户执行如下命令,$hostname为参数传值,设为node1、node2、node3....

    /home/hadoop/automaticDeploy/systems/changeHostname.sh $hostname

     2.3 host配置文件修改

    addClusterIps.sh代码如下:

    #! /bin/bash
    
    #添加Ip、hostname到/etc/hosts文件里面
    function addIpToHostFile()
    {
     ip=$1
     hostname=$2
     #查询$ip是否存在于/etc/hosts里面
     egrep "^$ip" /etc/hosts >& /dev/null
     if [ $? -eq 0 ]
     then
         #$?是上一个程序执行是否成功的标志,如果执行成功则$?为0,否则不为0,存在则先把就的ip设置删除掉
         sed -i "/^$ip/d" /etc/hosts
     fi
     
     #把ip、hostname添加到/etc/hosts中
     echo "$ip $hostname" >> /etc/hosts
    }
    
    #执行ssh免密登录之前,hosts文件里面需要存储每台机器的ip地址
    function editHostFile()
    {
     #echo "edit the host file"
     
     #1./home/hadoop/host_ip.txt文件中读取ip和hostname
     while read line
     do
       #提取文件中的ip
       ip=`echo $line | cut -d " " -f1`
       #提取文件中的用户名
       hostname=`echo $line | cut -d " " -f2`
    
       addIpToHostFile $ip $hostname
     done < /home/hadoop/automaticDeploy/host_ip.txt #读取存储ip的文件
    
     #echo "edit the host file successfully"
    }
    
    editHostFile

    以root用户执行命令:

    /home/hadoop/automaticDeploy/systems/addClusterIps.sh

     2.4 关闭防火墙、SELINUX

    closeFirewall.sh命令如下:

    #! /bin/bash
    
    function closeFirewallAndGetenforce()
    {
     #1.关闭防火墙
     firewallStatus=`firewall-cmd --state`
     if [[ $firewallStatus = "running" ]]
     then
         systemctl stop firewalld.service &&systemctl disable firewalld.service
     fi
     
     #2.关闭getenforce
     getenforceStatus=`getenforce`
     egrep "^SELINUX=enforcing" /etc/selinux/config >& /dev/null
     if [[ $getenforceStatus = "Enforcing" || $? -eq 0 ]]
     then
         sed -i 's/^SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config 
     fi
     
     #3.重启,使设置生效
     #reboot
    }
    
    function startFirewallAndGetenforce()
    {
     #1.开启防火墙
     firewallStatus=`firewall-cmd --state`
     if [[ $firewallStatus != "running" ]]
     then
        systemctl enable firewalld.service && systemctl start firewalld.service
     fi
    
     #2.开启getenforce
     getenforceStatus=`getenforce`
     egrep "^SELINUX=disabled" /etc/selinux/config >& /dev/null
     if [[ $getenforceStatus = "Disabled" || $? -eq 0 ]]
     then
        sed -i 's/^SELINUX=disabled/SELINUX=enforcing/' /etc/selinux/config
     fi
    
     #3.重启,使设置生效
     #reboot
    }
    
    operate=$1
    
    if [ -z $operate ]
    then
        echo "参数为空,请输入参数close或start"
    else
        if [[ $operate = "close" ]]
        then
            closeFirewallAndGetenforce
        fi
        if [[ $operate = "start" ]]
        then
            startFirewallAndGetenforce
        fi
    fi

    这里提供开启和关闭防火墙两种功能,方便操作。以root用户执行该shell命令时,需要输入参数close或start:

    /home/hadoop/automaticDeploy/systems/closeFirewall.sh close

    2.5 添加系统bigdata用户

    autoCreateUser.sh代码如下:

    #! /bin/bash
    
    #创建bigdata用户组,创建bigdata用户并设置密码
    function createUserAndGroup()
    {
     echo "start to create user 'bigdata'!"
    
     user=$1
     group=$2
    
     #create group if not exists
     #在/etc/group中查找用户组是否存在,并把错误输出输到/dev/null中
     egrep "^$group" /etc/group >& /dev/null
     # 判断上一命令是否等于0,不等于则创建用户组
     if [ $? -ne 0 ]
     then
         groupadd $group
     fi
    
     #create user if not exists
     egrep "^$user" /etc/passwd >& /dev/null
     if [ $? -ne 0 ]
     then
         useradd -g $group $user
     fi
    
     #在shell中使用expect实现自动输入密码,通常需要与'expect <<EOF EOF'、spawn、子expect一起使用
     expect << EOF
     spawn passwd $user
     expect "New password:"
     send "${user}
    "
     expect "Retype new password:"
     send "${user}
    "
     expect eof;
    EOF
    }
    
    #删除bigdata用户,删除bigdata用户组
    function deleteUserAndGroup()
    {
     user=$1
     group=$2
    
     echo "delete the user:" $user " and the userGroup:" $group
     userdel -r $user
     if [ $user != $group ]
     then
         groupdel $group
     fi
    }
    
    operate=$1
    
    if [ -z $operate ]
    then
        echo "参数为空,请输入参数create或delete"
    else
        if [[ $operate = "create" ]]
        then
            createUserAndGroup bigdata bigdata
        fi
        if [[ $operate = "delete" ]]
        then
            deleteUserAndGroup bigdata bigdata
        fi
    fi

    这里提供创建、删除用户两种操作,以root用户执行该命令需要输入参数create或者delete:

    /home/hadoop/automaticDeploy/systems/autoCreateUser.sh create

    2.6 配置yum源

    由于大数据平台一般是在内网环境下搭建的,所以需要配置本地yum源,用以解决一些依赖包缺少的问题,这里以node1节点作为本地yum源所在的服务器,以CentOS-7.0-x86_64-bin-DVD1.iso作为yum源的source。

    configureYum.sh代码如下:

    #! /bin/bash
    
    #配置yum源
    function configureYumSource()
    {
     yumUrl=$1 
     yumFile=$2
     
     #1.把CentOS-Media.repo文件非#开头的行注释掉
     sed -i 's/^[^#]/#&/' $yumFile
     #2.配置本地源
     echo "[base]" >> $yumFile
     echo "name=CentOS-Local" >> $yumFile
     echo "baseurl=$yumUrl" >> $yumFile
     echo "gpgcheck=0" >> $yumFile
     echo "enabled=1" >> $yumFile
     echo "gpgkey=file:///etc/pki/rpm-gpg/RPM-GPG-KEY-CentOS-7" >> $yumFile
     #3.清除YUM缓存
     yum clean all > /dev/null 2>&1
     #4.列出可用的YUM源
     yum repolist > /dev/null 2>&1
    }
    
    #处理并保证只有一个CentOS-Media.repo文件存在
    function doWithRepoFile()
    {
     #1.进入到yum.repos.d目录
     cd /etc/yum.repos.d/
     
     #2.查找/etc/yum.repos.d/目录下是否存在.repo结尾的文件,存在则重命名为.repo.bak结尾的
     fileResult=`find /etc/yum.repos.d/ -name "*.repo"`
     for file in $fileResult
     do
       onlyFile=`find /etc/yum.repos.d -wholename $file.bak`
       if [[ -z $onlyFile ]]
       then
            mv $file $file.bak
       fi
     done
    
     #3.只创建一个.repo文件用于配置本地yum源
     result=`find /etc/yum.repos.d/ -name CentOS-Media.repo.bak`
     if [[ -z $result ]]
     then
         touch CentOS-Media.repo
     else
         cp CentOS-Media.repo.bak CentOS-Media.repo
     fi
    }
    
    #############################################################################
    #同一函数及其调用的子函数,父函数与子函数均有一样的变量名,而内容不一样会报错
    #############################################################################
    
    #配置本地源
    function localYumSource()
    {
     systemUrl=$1
     ip=$2
     yumFile=/etc/yum.repos.d/CentOS-Media.repo
    
     #1.不存在则创建mount的目录
     if [ ! -d /var/iso ]
     then
          mkdir /var/iso
     fi
     
     #挂载系统,已挂载则不再次挂载
     if [ ! -d /var/iso/CentOS_BuildTag ]
     then 
         mount -o loop $systemUrl /var/iso
     fi
    
     #2.处理并保证只有一个CentOS-Media.repo的文件用于配置本地yum源
     doWithRepoFile 
    
     #3.配置yum源
     configureYumSource file:///var/iso $yumFile
    
     #4.安装相应的软件
     httpdIsExists=`rpm -qa | grep http`
     if [[ -z $httpdIsExists ]]
     then
         yum install -y httpd
     fi
    
     #5.开启httpd使用浏览器访问
     #service httpd start
     httpdStatus=`systemctl status httpd.service`
     result=$(echo $httpdStatus | grep "Active: active (running)")
     if [[ $result = "" ]]
     then
         systemctl start httpd.service
     fi
     
     #6.将YUM源配置到httpd中,其他的服务器可通过网络访问这个内网中的YUM源
     httpUrl=/var/www/html/CentOS-7.0
     if [ ! -e $httpUrl/lock ]
     then
         cp -r /var/iso $httpUrl
         echo "lock" >> $httpUrl/lock
     fi
     
     #7.取消先前挂载的镜像 强制取消,哈哈哈哈
     umount -fl /var/iso
     
     #8.修改yum源指向的地址
     sed -i 's/^baseurl=file:///var/iso/baseurl=http://'$ip'/CentOS-7.0/' $yumFile
     
     #9.清除YUM缓存
     yum clean all > /dev/null 2>&1
     
     #10.列出可用的YUM源
     yum repolist > /dev/null 2>&1
     #echo "create the local yum source successfully"
    }
    
    #配置远程yum源
    function remoteYumSource()
    {
     ip=$1
     yumUrl=http://$ip/CentOS-7.0
     yumFile=/etc/yum.repos.d/CentOS-Media.repo 
    
     #1.处理并保证只有一个CentOS-Media.repo的文件用于配置yum源
     doWithRepoFile
    
     #2.配置yum源
     configureYumSource $yumUrl $yumFile
    }
    
    hostname=$1
    
    if [[ $hostname = "node1" ]]
    then
        localYumSource /opt/system/CentOS-7-x86_64-DVD-1804.iso 192.168.187.201
    else
        remoteYumSource 192.168.187.201
    fi

    以root用户执行代码如下,参数$hostname一般为node1、node2、node3:

    /home/hadoop/automaticDeploy/systems/configureYum.sh $hostname

    2.7 配置SSH无密码登录

    sshFreeLogin代码如下:

    #! /bin/bash
    
    function sshFreeLogin()
    {
     #1.检测expect服务是否存在,不存在则使用yum安装expect
     expectIsExists=`rpm -qa | grep expect` 
     if [ -z $expectIsExists ]
     then
          yum -y install expect
     fi
    
     #2.密钥对不存在则创建密钥
     [ ! -f /root/.ssh/id_rsa.pub ] && ssh-keygen -t rsa -P "" -f /root/.ssh/id_rsa
    
     while read line;do
           #提取文件中的ip
           hostname=`echo $line | cut -d " " -f2`
           #提取文件中的用户名
           user_name=`echo $line | cut -d " " -f3`
           #提取文件中的密码
           pass_word=`echo $line | cut -d " " -f4`
              
           expect <<EOF
                  #复制公钥到目标主机
                  spawn ssh-copy-id $hostname
                  expect {
                          #expect实现自动输入密码
                          "yes/no" { send "yes
    ";exp_continue } 
                          "password" { send "$pass_word
    ";exp_continue }
                          eof
                  }
    EOF
     # 读取存储ip的文件 
     done < /home/hadoop/automaticDeploy/host_ip.txt
     
    }
    
    sshFreeLogin

    以root用户执行代码如下:

    /home/hadoop/automaticDeploy/systems/sshFreeLogin.sh

    2.8 配置JDK环境

    configureJDK.sh代码如下:

    #! /bin/bash
    
    function configureJDK()
    {
     #1.在frames.txt中查看是否需要安装java
     javaInfo=`egrep "^jdk" /home/hadoop/automaticDeploy/frames.txt`
     
     java=`echo $javaInfo | cut -d " " -f1`
     isInstall=`echo $javaInfo | cut -d " " -f2`
    
     #是否安装
     if [[ $isInstall = "true" ]];then
     
        #2.查看/opt/frames目录下是否有java安装包
        javaIsExists=`find /opt/frames -name $java`
        
        if [[ ${#javaIsExists} -ne 0 ]];then
            
            if [ -d /usr/lib/java ];then
                  rm -rf /usr/lib/java
            fi
     
            mkdir /usr/lib/java && chmod -R 777 /usr/lib/java
       
            #2.解压到指定文件夹/usr/lib/java中 
            echo "开启解压jdk安装包"
            tar -zxvf $javaIsExists -C /usr/lib/java >& /dev/null
            echo "jdk安装包解压完毕"
        
            java_home=`find /usr/lib/java -maxdepth 1 -name "jdk*"`
    
            #3.在/etc/profile配置JAVA_HOME
            profile=/etc/profile
            sed -i "/^export JAVA_HOME/d" $profile
            echo "export JAVA_HOME=$java_home" >> $profile
     
            #4.在/etc/profile配置PATH
            sed -i "/^export PATH=$PATH:$JAVA_HOME/bin/d" $profile
            echo "export PATH=$PATH:$JAVA_HOME/bin" >> $profile
            sed -i "/^export CLASSPATH=.:$JAVA_HOME/d" $profile
            echo "export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar" >> $profile
    
            #5.更新/etc/profile文件
            source /etc/profile && source /etc/profile
        else
             echo "/opt/frames目录下没有jdk安装包"
        fi
     else
         echo "/opt/frames目录下没有jdk安装包"
     fi
    }
    
    configureJDK

    以root用户执行代码如下:

    /home/hadoop/automaticDeploy/systems/configureJDK.sh

    2.9 配置Scala环境

    configureScala.sh代码如下:

    #! /bin/bash
    
    function configureScala()
    {
     #1.在frames.txt中查看是否需要安装scala
     scalaInfo=`egrep "^scala" /home/hadoop/automaticDeploy/frames.txt`
     
     scala=`echo $scalaInfo | cut -d " " -f1`
     isInstall=`echo $scalaInfo | cut -d " " -f2`
    
     #是否安装
     if [[ $isInstall = "true" ]];then
         
         #1.查找/opt/frames目录下是否有Scala安装包
         scalaIsExists=`find /opt/frames -name $scala`
    
        if [[ ${#scalaIsExists} -ne 0 ]];then
        
           if [ -d /usr/lib/scala ];then
                rm -rf /usr/lib/scala
           fi
    
           mkdir /usr/lib/scala && chmod -R 777 /usr/lib/scala
    
           #2.解压到指定文件夹/usr/lib/scala中
           echo "开始解压scala安装包"
           tar -zxvf $scalaIsExists -C /usr/lib/scala >& /dev/null
           echo "scala安装包解压完毕"
    
           scala_home=`find /usr/lib/scala -maxdepth 1 -name "scala-*"`
        
           #3.在/etc/profile配置SCALA_HOME
           profile=/etc/profile
           sed -i "/^export SCALA_HOME/d" $profile
           echo "export SCALA_HOME=$scala_home" >> $profile
    
           #4.在/etc/profile配置PATH
           sed -i "/^export PATH=$PATH:$SCALA_HOME/bin/d" $profile
           echo "export PATH=$PATH:$SCALA_HOME/bin" >> $profile
    
           #5.更新/etc/profile文件
           source /etc/profile && source /etc/profile  
        else 
            echo "/opt/frames目录下没有scala安装包1"
        fi
     else
           echo "/opt/frames目录下没有scala安装包2"
     fi
    
    }
    
    configureScala

    以root用户执行代码如下:

    /home/hadoop/automaticDeploy/systems/configureScala.sh

    3.0 集群模块整合自动化部署安装

    3.1 单机上整合第2点的9个模块自动化批量执行

    batchOperate.sh代码如下:

    #! /bin/bash
    
    hostname=$1
    
    #1.ip地址修改,目前只能每台机器独自修改ip地址
    echo "1.ip地址修改暂无"
    
    #2.修改机器名hostname
    echo "2.修改hostname为node1"
    /home/hadoop/automaticDeploy/systems/changeHostname.sh $hostname
    
    #3.host配置文件修改
    echo "3.把集群ip及其映射的hostname添加到/etc/hosts中"
    /home/hadoop/automaticDeploy/systems/addClusterIps.sh
    
    #4.关闭防火墙、SELINUX ,需要输入参数close或start
    echo "4.关闭防火墙、SELINUX"
    /home/hadoop/automaticDeploy/systems/closeFirewall.sh close
    
    #5.添加bigdata用户名 ,需要输入参数create或delete
    echo "5.添加bigdata用户名"
    /home/hadoop/automaticDeploy/systems/autoCreateUser.sh create
    
    #6.配置yum源
    echo "6.配置yum源"
    /home/hadoop/automaticDeploy/systems/configureYum.sh $hostname
    
    #7.配置SSH无密码登录
    echo "7.集群各节点之间配置SSH无密码登录"
    /home/hadoop/automaticDeploy/systems/sshFreeLogin.sh
    
    #8.配置JDK环境
    echo "8.配置jdk环境"
    /home/hadoop/automaticDeploy/systems/configureJDK.sh
    
    #9.配置SCALA环境
    echo "9.配置scala环境"
    /home/hadoop/automaticDeploy/systems/configureScala.sh
    
    echo ""

    以root用户执行代码如下,参数$hostname一般为node1、node2、node3::

    /home/hadoop/automaticDeploy/systems/batchOperate.sh $hostname

    在一台机器上执行以上命令,可以迅速设置该台机器的系统环境。但是如果集群机器过多,则需要每台机器都要执行batchOperate.sh,所以需要3.2点在集群上一次性部署整个集群上机器的系统环境,而不需要每台机器都重复部署。

    3.2 集群上自动化部署安装

    这里以node1为基点,集群上的所有操作触发点都在node1上,操作原理为:在clusterOperate.sh代码里,node1上本地执行batchOperate.sh设置本地机器的系统环境,而利用ssh远程执行batchOperate.sh设置远程机器的系统环境。

    clusterOperate.sh代码如下:

    #! /bin/bash
    
    function clusterOperate()
    {
     #1.远程复制文件
      while read line;
      do
        hostname=`echo $line | cut -d " " -f2`
        echo "目前正在设置$hostname节点的系统环境"
        
        #默认node1为本地主机
        if [[ $hostname = "node1" ]]
        then
            #2.本地主机操作
            /home/hadoop/automaticDeploy/systems/batchOperate.sh $hostname
        else
            #3.远程主机操作
            if ssh -n $hostname test -e /home/hadoop/automaticDeploy
            then
                 #3.1 存在则先删除旧的
                 ssh -n $hostname "rm -rf /home/hadoop/automaticDeploy"
            fi
     
            #3.2 把本地的automaticDeploy里面的脚本文件复制到远程主机上
            scp -r /home/hadoop/automaticDeploy/ $hostname:/home/hadoop/automaticDeploy
    
            #3.3 把本地的/opt/frames里的软件安装包复制到远程主机的/opt/frames上
            #判断远程主机上/opt/frames是否存在,不存在则创建 
            if ssh -n $hostname test -e /opt/frames/;then
                echo "存在" > /dev/null
            else
                ssh -n $hostname "mkdir /opt/frames"
            fi
       
            #遍历需要安装的软件
            while read lineString;
            do
              software=`echo $lineString | cut -d " " -f1`
              isInstall=`echo $lineString | cut -d " " -f2`
              if [[ $isInstall = "true" ]];then
                  if ssh -n $hostname test -e /opt/frames/$software;then
                      echo "存在" > /dev/null
                  else  
                      scp /opt/frames/$software $hostname:/opt/frames/$software
                  fi
              fi
            done < /home/hadoop/automaticDeploy/frames.txt
     
            #4.远程执行文件
            ssh -n $hostname /home/hadoop/automaticDeploy/systems/batchOperate.sh $hostname
        fi
      done < /home/hadoop/automaticDeploy/host_ip.txt
    
    }
    
    clusterOperate

    在node1节点上,以root用户执行clusterOperate.sh,一次性部署集群三个节点的系统环境:

    /home/hadoop/automaticDeploy/systems/clusterOperate.sh

    到此,集群中每台机器的环境自动化设置完成,下一篇介绍如何自动化部署大数据组件hadoop、spark、hbase、hive、kafka等等。

    所有shell文件代码存放在github上,代码可能写得不是很完美,欢迎指出错误。

    github地址为:https://github.com/SwordfallYeung/BigData_AutomaticDeploy

    参考资料:

    https://zhidao.baidu.com/question/502381951517702724.html

    https://blog.csdn.net/qq_34685846/article/details/72825587

    https://www.cnblogs.com/cute/archive/2011/08/26/2154137.html

    https://www.cnblogs.com/mark-zhou/p/5976222.html

    https://blog.csdn.net/kinger0/article/details/52251847

    https://blog.csdn.net/wyl9527/article/details/72831567

    https://blog.csdn.net/hello_hwc/article/details/40118129

    http://www.codebelief.com/article/2017/02/26-examples-of-find-command-on-linux/

    http://hadesmo.com/2015/07/20/sed.html

  • 相关阅读:
    winform npoi excel 样式设置
    winform NPOI excel 导出并选择保存文件路径
    datagridview 代码添加列
    表单名 name 选择器
    NPOI 设置excel 边框
    winform 版本号比较
    winform app.cpnfig 文件的引用
    blog发布测试
    jQuery选择器
    表格隔行变色
  • 原文地址:https://www.cnblogs.com/swordfall/p/9330063.html
Copyright © 2011-2022 走看看