zoukankan      html  css  js  c++  java
  • centos7中Spark集群的安装与配置(Hadoop2.6.5+spark2.3.3)

    Hadoop2.6.5+spark2.3.3+jdk1.8.0+Scala2.11.8

     配置spark集群之前,要先安装好jdk和Scala

    这里只做简要说明(这两个的安装和配置都类似,大概步骤如下):

    1、下载对应的压缩包上传至Linux系统;

    2、到对应的目录下解压压缩包

    3、配置环境变量

    4、使用如下命令查看是否安装配置成功

    java -version
    
    scala -version

    spark集群的配置部署

    1、spark的获取

    下载地址https://archive.apache.org/dist/spark/

    2、上传安装包到虚拟机的/opt/spark/目录下(事先建好的目录)

    3、到该目录下解压压缩包

    tar -zxvf spark-2.3.3-bin-hadoop2.6.tgz

    4、修改/etc/profile配置文件

    vim /etc/profile

    加入以下的内容

    export SPARK_HOME=/opt/spark/spark-2.3.3-bin-hadoop2.6
    
    export PATH=$PATH:$SPARK_HOME/bin

    保存后,执行以下命令生效配置

    source /etc/profile

    5、进入conf目录

    将spark-env.sh.template复制一份spark-env.sh,对spark-env.sh进行修改

     6、vim spark-env.sh

    在该文件中加入以下内容

    export JAVA_HOME=/usr/lib/jvm/java #自己的jdk路径
    export SPARK_MASTER_IP=master1 #注:这里是当前机器的域名或者IP
    export SPARK_MASTER_PORT=7077

    7、配置slaves文件

    cp slaves.template slaves

    vim slaves

    在slaves文件中加入从节点的主机名或者IP地址

     8、将配置同步至Slave1和Slave2

    在Master的/opt/目录下使用如下命令

    scp -r ./spark/ root@Slave1:$PWD

    scp -r ./spark/ root@Slave2:$PWD

    9、启动集群

    在Master主机执行命令

    cd /opt/spark/spark-2.3.3-bin-hadoop2.6/sbin
    
    ./start-all.sh

    使用jps查看启动情况 主节点出现Master代表启动成功
    我们再看看从节点,里面出现Worker代表启动成功。

    关闭防火墙

    systemctl stop firewalld.service

    浏览器访问http://192.168.152.131:8001(默认端口8080,我这里修改过)

     启动成功!

    2021-02-03 14:11:48

  • 相关阅读:
    svn TortoiseSVN 回滚版本
    侵入式菜单
    Android 布局开发之百分比布局、弹性布局
    webstorm 使用svn
    bootstarp
    Retrofit get post query filed FiledMap
    http和https
    深入理解乐观锁与悲观锁
    数据库的锁机制
    数据库读现象浅析
  • 原文地址:https://www.cnblogs.com/zrs123/p/14366759.html
Copyright © 2011-2022 走看看