zoukankan      html  css  js  c++  java
  • centos+scala2.11.4+hadoop2.3+spark1.3.1环境搭建

    一、Java安装

    1、安装包准备:

    首先到官网下载jdk,http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html,我下载jdk-7u79-linux-x64.tar.gz,下载到主目录

    2、解压安装包

    通过终端在/usr/local目录下新建java文件夹,命令行:

    sudo mkdir /usr/local/java

    然后将下载到压缩包拷贝到java文件夹中,命令行:

    进入jdk压缩包所在目录

    cp jdk-7u79-linux-x64.tar.gz /usr/local/java

    然后进入java目录,命令行:

    cd /usr/local/java

    解压压缩包,命令行:

    sudo tar xvf jdk-7u79-linux-x64.tar.gz

    然后可以把压缩包删除,命令行:

    sudo rm jdk-7u79-linux-x64.tar.gz

    3、设置jdk环境变量

    这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

    sudo vi /etc/profile

    打开之后在末尾添加

    export JAVA_HOME=/usr/local/java/jdk1.7.0_79
    export JRE_HOME=/usr/local/java/jdk1.7.0_79/jre
    export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
    export PATH=$JAVA_HOME/bin: $PATH

    使profile生效

    source /etc/profile

    4、检验是否安装成功

    在终端

    java -version

    显示如下

    java version "1.7.0_79"
    Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
    Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)

    PS:后来发现直接rpm包jdk-7u79-linux-x64.rpm桌面双击安装也OK,^_^

    二、scala2.11.4安装

    1、安装包准备:

    首先到官网下载scala,http://www.scala-lang.org/,下载scala-2.11.4.tgz,并复制到/usr/bib

    2、解压安装包

    tar -zxf scala-2.11.4.tgz

    3、设置scala环境变量

    这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

    sudo vi /etc/profile

    打开之后在末尾添加

    export SCALA_HOME=/usr/lib/scala-2.11.4
    export PATH=$SCALA_HOME/bin:$PATH

    使profile生效

    source /etc/profile

    4、检验是否安装成功

    在终端

    scala -version

    显示如下

    Scala code runner version 2.11.4 -- Copyright 2002-2013, LAMP/EPFL

    三、hadoop2.3安装

    1、安装包准备:

    hadoop版本有点混乱,除了http://hadoop.apache.org/有众多版本之外,还有Cloudera公司的CDH版本,请从观望下载hadoop-2.3.0.tar.gz或者下载CDH版本hadoop-2.3.0-cdh5.0.0.tar.gz,本文环境是在hadoop-2.3.0-cdh5.0.0.tar.gz之上建立。

    2、解压安装包

    下载安装包之后复制到/usr目录。

    tar -zxf hadoop-2.3.0-cdh5.0.0.tar.gz
    解压后生成hadoop-2.3.0-cdh5.0.0,重命名为hadoop-2.3.0。

    3、配置环境

    这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

    sudo vi /etc/profile

    打开之后在末尾添加

    export HADOOP_HOME=/home/zero/hadoop/hadoop-2.3.0
    export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

    使profile生效

    source /etc/profile

    3、建立hadoop用户

    useradd hadoop

    passwd hadoop

    3、配置SSH免登录

    su  hadoop  //切换到hadoop用户目录下

    ssh-keygen-t rsa(一路回车 生成密钥)

    cd/home/hadoop/.ssh/

    scp  id_rsa.pub hadoop@slave1:/home/hadoop/.ssh/

    mv id_rsa.pub authorized_keys

    四、spark1.3.1安装

    1、安装包准备:

    spark官网下载spark-1.3.1-bin-hadoop2.3.tgz。

    2、解压安装包

    下载安装包之后复制到/usr目录。

    tar -zxf spark-1.3.1-bin-hadoop2.3.tgz
    解压后生成spark-1.3.1-bin-hadoop2.3,重命名为spark-1.3.1-hadoop2.3。

    3、配置环境

    这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

    sudo vi /etc/profile

    打开之后在末尾添加

    export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3
    export PATH=$SPARK_HOME/bin:$PATH

    
    

    使profile生效

    source /etc/profile

    4、配置环境

    这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量

    sudo vi /etc/profile

    打开之后在末尾添加

    export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3
    export PATH=$SPARK_HOME/bin:$PATH

    
    

    使profile生效

    source /etc/profile

    配置Spark环境变量

    cd $SPARK_HOME/conf
    cp spark-env.sh.template spark-env.sh

    vi spark-env.sh 添加以下内容:

    export JAVA_HOME=/usr/local/java-1.7.0_79
    export HADOOP_HOME=/usr/hadoop-2.3.0
    export HADOOP_CONF_DIR=/etc/hadoop/conf
    export SCALA_HOME=/usr/lib/scala-2.11.4
    export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3
    export SPARK_MASTER_IP=127.0.0.1
    export SPARK_MASTER_PORT=7077
    export SPARK_MASTER_WEBUI_PORT=8099
     
    export SPARK_WORKER_CORES=3 //每个Worker使用的CPU核数
    export SPARK_WORKER_INSTANCES=1 //每个Slave中启动几个Worker实例
    export SPARK_WORKER_MEMORY=10G //每个Worker使用多大的内存
    export SPARK_WORKER_WEBUI_PORT=8081 //Worker的WebUI端口号
    export SPARK_EXECUTOR_CORES=1 //每个Executor使用使用的核数
    export SPARK_EXECUTOR_MEMORY=1G //每个Executor使用的内存
     

    export SPARK_CLASSPATH=/usr/spark-1.3.1-hadoop2.3/lib/sequoiadb-driver-1.12.jar:/usr/spark-1.3.1-hadoop2.3/lib/spark-sequoiadb_2.11.2-1.12.jar  //使用巨衫数据库
    export SPARK_CLASSPATH=$SPARK_CLASSPATH:$CLASSPATH
    export LD_LIBRARY_PATH=${LD_LIBRARY_PATH}:$HADOOP_HOME/lib/nativ

    配置Slave

    cp slaves.template slaves
    vi slaves 添加以下内容:
    localhost

    5、启动Spark  Master

    cd $SPARK_HOME/sbin/
    ./start-master.sh

    6、启动Spark  Slave

    cd $SPARK_HOME/sbin/
    ./start-slaves.sh

  • 相关阅读:
    循环控制Goto、Break、Continue
    linux多进/线程编程(6)——进程间通信之信号
    linux多进/线程编程(5)——进程间通信之mmap
    docker学习笔记(6)——docker场景问题汇总(centos7 由于内核版本低带来的一系列问题,docker彻底卸载,安装、启动日志报错分析)
    c/c++ 日常积累
    broken pipe 报错分析和解决办法
    c/c++ 常见字符串处理函数总结 strlen/sizeof strcpy/memcpy/strncpy strcat/strncat strcmp/strncmp sprintf/sscanf strtok/split/getline atoi/atof/atol
    docker学习笔记(5)——docker场景问题汇总(docker权限问题、docker文件目录、查看docker历史日志文件)
    linux多进/线程编程(4)——进程间通信之pipe和fifo
    linux多进/线程编程(3)——wait、waitpid函数和孤儿、僵尸进程
  • 原文地址:https://www.cnblogs.com/eastjade/p/4777974.html
Copyright © 2011-2022 走看看