zoukankan      html  css  js  c++  java
  • Spark1.0.0 分布式环境搭建


    软件版本号例如以下:

    Hostname

    IP

    Hadoop版本号

    Hadoop

    功能

    系统

    master

    192.168.119.128

    1.1.2

    namenode

    jdk1.6+hadoop+scala2.9.3+spark1.0.0

    centos4.9

    slave1

    192.168.119.129

    1.1.2

    datanode

    jdk1.6+hadoop+scala2.9.3+spark1.0.0

    centos4.9

    slave2

    192.168.119.130

    1.1.2

    datanode

    jdk1.6+hadoop+scala2.9.3+spark1.0.0

    centos4.9

    首先搭建hadoop环境,这里不具体说,网上非常多。

    然后安装scala环境,非常easy和配置jdk类似

      2.1  下载scala 安装包 2.9.3

      http://www.scala-lang.org/download/2.9.3.html#Software_Requirements

      2.2 下载的 scala-2.9.3.tgz ftp master

    文件夹为  /home/bigdata/

      2.3  进入文件夹  /home/bigdata/

          tar -zxf scala-2.9.3.tgz

          mv  scala-2.9.3  scala 

        /home/bigdata/scala   (配置文件夹)

      2.4 配置环境变量(分别到3台机器配置)  

        vi  /etc/profile

       export SCALA_HOME=/home/bigdata/scala

       export PATH=$PATH:$SCALA_HOME/bin

       source /etc/profile

      2.5 检測是否配置成功

      scala -version

      Scala code runner version 2.9.3 -- Copyright 2002-2011, LAMP/EPFL

        表示成功安装

      2.6  远程拷贝到其他机:(结构文件夹和master一致)

       scp -r  /home/bigdata/scala  root@192.168.119.129:/home/bigdata/

       scp -r  /home/bigdata/scala  root@192.168.119.130:/home/bigdata/

    配置spark

      3. 1 下载spark 1.0.0   http://spark.apache.org/downloads.html

      3.2  复制包到 spark-1.0.0-bin-hadoop1.tgz 

          文件夹为:/home/bigdata/

      3.3  进入文件夹 /home/bigdata/

         tar -zxf spark-1.0.0-bin-hadoop1.tgz

         mv  spark-1.0.0-bin-hadoop1  spark-hadoop1

         得到  /home/bigdata/spark-hadoop1 (配置路径)

         

       

      3.4   配置用户环境变量 (分别配置3台机器)

       vi  ~/.bash_profile

       export SPARK_HOME=/home/bigdata/spark-hadoop1

       export PATH=$PATH:$SPARK_HOME/bin

       source ~/.bash_profile

       3.5 conf 中设置scala 

       cd  /home/bigdata/spark-hadoop1/conf

       cp spark-env.sh.template spark-env.sh

       vi  spark-env.sh

       加入 

       export JAVA_HOME=/home/bigdata/jdkJdk安装路径)

       export SCALA_HOME=/home/bigdata/scala(scala 安装路径)

       3.6 拷贝到其他机器

      scp -r /home/bigdata/spark-hadoop1 root@slave1:/home/bigdata/

      scp -r /home/bigdata/spark-hadoop1 root@slave2:/home/bigdata/

    启动hadoop集群 

    启动spark 集群

      在master 机进入文件夹 /home/bigdata/spark-hadoop1/sbin

       sh start-all.sh  

     jps

    5704 DataNode

    6021 TaskTracker

    5587 NameNode

    5898 JobTracker

    5810 SecondaryNameNode

    6374 Worker

    6457 Jps

    6239 Master

    启动web訪问页面  http://master:8080/


     进入 /home/bigdatat//spark-hadoop1/bin/     spark-shell



      參考:点击打开链接

  • 相关阅读:
    MSSQL 跨数据库连接
    powerdesigner逆向工程,从数据库导出PDM
    JS面向对象的程序设计
    数据脚本
    JDK安装与环境变量配置
    sql: 去除数据库表中tab、空格、回车符等特殊字符的解决方法
    用SQL语句获得一个存储过程返回的表
    百度云下载速度慢解决方法
    【WCF全析(一)】--服务协定及消息模式
    【WCF全析(二)】--服务配置部署详解
  • 原文地址:https://www.cnblogs.com/mfrbuaa/p/3822126.html
Copyright © 2011-2022 走看看