zoukankan      html  css  js  c++  java
  • 分布式配置 Spark 2.0版本 2.1版本 1.6版本

    apache的各个软件各个版本下载:  http://archive.apache.org/dist/  

    1.下载spark.

      sudo tar -zxf ~/下载/spark-2.0.2-bin-without-hadoop.tgz -C /usr/local/

      cd /usr/local

      sudo mv ./spark-2.0.2-bin-without-hadoop/ ./spark

      sudo chown -R ubuntu ./spark

    2.在Mster节点主机的终端中执行如下命令:

      vim ~/.bashrc

      在.bashrc添加如下配置:

        export SPARK_HOME=/usr/local/spark
        export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
      执行如下命令使得配置立即生效:

        source ~/.bashrc

    3.在Master节点主机上进行如下操作:

      配置slaves文件
        将 slaves.template 拷贝到 slaves

      1. cd /usr/local/spark/
      2. cp ./conf/slaves.template ./conf/slaves

        slaves文件设置Worker节点。编辑slaves内容,把默认内容localhost替换成如下内容:

        slave01    

      配置spark-env.sh文件

        将 spark-env.sh.template 拷贝到 spark-env.sh

          cp ./conf/spark-env.sh.template ./conf/spark-env.sh

      编辑spark-env.sh,添加如下内容:

        export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)     

        export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop     

        export SPARK_MASTER_IP=192.168.1.104

          SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;

      配置好后,将Master主机上的/usr/local/spark文件夹复制到各个节点上。在Master主机上执行如下命令:

      1. cd /usr/local/
      2. tar -zcf ~/spark.master.tar.gz ./spark
      3. cd ~
      4. scp ./spark.master.tar.gz slave01:/home/hadoop
      5. scp ./spark.master.tar.gz slave02:/home/hadoop

      在slave01,slave02节点上分别执行下面同样的操作:

      1. sudo rm -rf /usr/local/spark/
      2. sudo tar -zxf ~/spark.master.tar.gz -C /usr/local
      3. sudo chown -R hadoop /usr/local/spark

    4.启动hadoop集群,在master节点上运行。

    1. cd /usr/local/hadoop/
    2. sbin/start-all.sh

    5.启动spark集群,在master节点上运行。

      cd /usr/local/spark/

      sbin/start-master.sh

      在Master节点上运行jps命令,可以看到多了个Master进程:

        15093 Jps

        14343 SecondaryNameNode

        14121 NameNode

        14891 Master 

        14509 ResourceManager

      启动所有Slave节点,在Master节点主机上运行如下命令:

         sbin/start-slaves.sh

      分别在slave01、slave02节点上运行jps命令,可以看到多了个Worker进程
        37553 DataNode
        37684 NodeManager
        37876 Worker
        37924 Jps

       http://172.19.57.221:8080/   spark web网页。

    6.关闭spark集群

      关闭Master节点

        sbin/stop-master.sh

      关闭Worker节点

        sbin/stop-slaves.sh

     

    关闭Hadoop集群

    1. cd /usr/local/hadoop/

     

    1. sbin/stop-all.sh
  • 相关阅读:
    ubuntu下文件安装与卸载
    webkit中的JavaScriptCore部分
    ubuntu 显示文件夹中的隐藏文件
    C语言中的fscanf函数
    test
    Use SandCastle to generate help document automatically.
    XElement Getting OuterXML and InnerXML
    XUACompatible meta 用法
    Adobe Dreamweaver CS5.5 中文版 下载 注册码
    The Difference Between jQuery’s .bind(), .live(), and .delegate()
  • 原文地址:https://www.cnblogs.com/dhName/p/10593394.html
Copyright © 2011-2022 走看看