zoukankan      html  css  js  c++  java
  • 分布式配置 Spark 2.0版本 2.1版本 1.6版本

    apache的各个软件各个版本下载:  http://archive.apache.org/dist/  

    1.下载spark.

      sudo tar -zxf ~/下载/spark-2.0.2-bin-without-hadoop.tgz -C /usr/local/

      cd /usr/local

      sudo mv ./spark-2.0.2-bin-without-hadoop/ ./spark

      sudo chown -R ubuntu ./spark

    2.在Mster节点主机的终端中执行如下命令:

      vim ~/.bashrc

      在.bashrc添加如下配置:

        export SPARK_HOME=/usr/local/spark
        export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
      执行如下命令使得配置立即生效:

        source ~/.bashrc

    3.在Master节点主机上进行如下操作:

      配置slaves文件
        将 slaves.template 拷贝到 slaves

      1. cd /usr/local/spark/
      2. cp ./conf/slaves.template ./conf/slaves

        slaves文件设置Worker节点。编辑slaves内容,把默认内容localhost替换成如下内容:

        slave01    

      配置spark-env.sh文件

        将 spark-env.sh.template 拷贝到 spark-env.sh

          cp ./conf/spark-env.sh.template ./conf/spark-env.sh

      编辑spark-env.sh,添加如下内容:

        export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)     

        export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop     

        export SPARK_MASTER_IP=192.168.1.104

          SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;

      配置好后,将Master主机上的/usr/local/spark文件夹复制到各个节点上。在Master主机上执行如下命令:

      1. cd /usr/local/
      2. tar -zcf ~/spark.master.tar.gz ./spark
      3. cd ~
      4. scp ./spark.master.tar.gz slave01:/home/hadoop
      5. scp ./spark.master.tar.gz slave02:/home/hadoop

      在slave01,slave02节点上分别执行下面同样的操作:

      1. sudo rm -rf /usr/local/spark/
      2. sudo tar -zxf ~/spark.master.tar.gz -C /usr/local
      3. sudo chown -R hadoop /usr/local/spark

    4.启动hadoop集群,在master节点上运行。

    1. cd /usr/local/hadoop/
    2. sbin/start-all.sh

    5.启动spark集群,在master节点上运行。

      cd /usr/local/spark/

      sbin/start-master.sh

      在Master节点上运行jps命令,可以看到多了个Master进程:

        15093 Jps

        14343 SecondaryNameNode

        14121 NameNode

        14891 Master 

        14509 ResourceManager

      启动所有Slave节点,在Master节点主机上运行如下命令:

         sbin/start-slaves.sh

      分别在slave01、slave02节点上运行jps命令,可以看到多了个Worker进程
        37553 DataNode
        37684 NodeManager
        37876 Worker
        37924 Jps

       http://172.19.57.221:8080/   spark web网页。

    6.关闭spark集群

      关闭Master节点

        sbin/stop-master.sh

      关闭Worker节点

        sbin/stop-slaves.sh

     

    关闭Hadoop集群

    1. cd /usr/local/hadoop/

     

    1. sbin/stop-all.sh
  • 相关阅读:
    【java开发需要的环境资源以及开发工具】慢慢更新
    【如何编写有质量代码】【转】
    base——JavaSE&&JavaEE&&JavaME的区别【Java中常用的包结构】
    Mysqlsql——And【sql语句之为何用and一个字段两个值得不到表中的数据】
    Struts2——执行流程
    base——本地资源路径&&网络资源路径&&正反斜杠在Java中的用法
    base——new File(String Path)加载资源问题
    2019-06-11_Python中文编码
    2019-06-11-Python简介
    2019-06-05 org.apache.ibatis.binding.BindingException: Invalid bound statement (not found): com.taotao.search.mapper.SearchItemMapper.getItemList
  • 原文地址:https://www.cnblogs.com/dhName/p/10593394.html
Copyright © 2011-2022 走看看