zoukankan      html  css  js  c++  java
  • spark 单机版安装

    1.安装jdk

    解压jdk安装包到任意目录:

    cd /home/tom
    $ tar -xzvf jdk-8u73-linux-x64.tar.gz
    $ sudo vim /etc/profile

    编辑/etc/profile文件,在最后加上java环境变量:

    export JAVA_HOME=/home/tom/jdk1.8.0_73/
    export JRE_HOME=/home/tom/jdk1.8.0_73/jre
    export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
    export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

    保存并更新 /etc/profile :

    $ source /etc/profile

    查看是否成功:

    $ java -version

    2.配置ssh localhost

    确保安装好ssh:

    $ sudo apt-get update
    $ sudo apt-get install openssh-server
    $ sudo /etc/init.d/ssh start

    生成并添加密钥:

    $ ssh-keygen -t rsa
    $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    $ chmod 0600 ~/.ssh/authorized_keys

    如果已经生成过密钥,只需执行后两行命令。测试ssh localhost

    $ ssh localhost
    $ exit

    3.安装hadoop2.6.0

    解压hadoop2.6.0到任意目录:

    $ cd /home/tom
    $ wget http://apache.claz.org/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz
    $ tar -xzvf hadoop-2.6.0.tar.gz

    编辑 /etc/profile 文件,在最后加上java环境变量:

    export HADOOP_HOME=/home/tom/hadoop-2.6.0
    export HADOOP_INSTALL=$HADOOP_HOME
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME
    export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
    export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

    编辑 $HADOOP_HOME/etc/hadoop/hadoop-env.sh 文件

    $ vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh

    在最后加上:

    export JAVA_HOME=/home/tom/jdk1.8.0_73/

    修改Configuration文件:

    $ cd $HADOOP_HOME/etc/hadoop

    修改 core-site.xml :

    <configuration>
    <property>
      <name>fs.default.name</name>
        <value>hdfs://localhost:9000</value>
    </property>
    </configuration>

    修改 hdfs-site.xml :

    <configuration>
    <property>
     <name>dfs.replication</name>
     <value>1</value>
    </property>
    
    <property>
      <name>dfs.name.dir</name>
        <value>file:///home/tom/hadoopdata/hdfs/namenode</value>
    </property>
    
    <property>
      <name>dfs.data.dir</name>
        <value>file:///home/tom/hadoopdata/hdfs/datanode</value>
    </property>
    </configuration>

    第一个是dfs的备份数目,单机用1份就行,后面两个是namenode和datanode的目录。

    修改 mapred-site.xml :

    <configuration>
     <property>
      <name>mapreduce.framework.name</name>
       <value>yarn</value>
     </property>
    </configuration>

    修改 yarn-site.xml :

    <configuration>
     <property>
      <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
     </property>
    </configuration>

    修改hosts配置文件

    vi /etc/hosts在最末尾加上
    127.0.0.0.1 $hostname

    初始化hadoop:

      cd $hadoop_home/bin

    $ hdfs namenode -format

    启动

    $ $HADOOP_HOME/sbin/start-all.sh

    停止

    $ $HADOOP_HOME/sbin/stop-all.sh

    检查WebUI,浏览器打开端口: http://localhost :8088

    • port 8088: cluster and all applications

    • port 50070: Hadoop NameNode

    • port 50090: Secondary NameNode

    • port 50075: DataNode

    hadoop运行后可使用 jps 命令查看,得到结果:

    10057 Jps
    9611 ResourceManager
    9451 SecondaryNameNode
    9260 DataNode
    9102 NameNode
    9743 NodeManager

    4.安装scala

    解压scala安装包到任意目录:

    $ cd /home/tom
    $ tar -xzvf scala-2.10.6.tgz
    $ sudo vim /etc/profile

    在 /etc/profile 文件的末尾添加环境变量:

    export SCALA_HOME=/home/tom//scala-2.10.6
    export PATH=$SCALA_HOME/bin:$PATH

    保存并更新 /etc/profile :

    $ source /etc/profile

    查看是否成功:

    $ scala -version

    5.安装Spark

    解压spark安装包到任意目录:

    $ cd /home/tom
    $ tar -xzvf spark-1.6.0-bin-hadoop2.6.tgz
    $ mv spark-1.6.0-bin-hadoop2.6 spark-1.6.0
    $ sudo vim /etc/profile

    在 /etc/profile 文件的末尾添加环境变量:

    export SPARK_HOME=/home/tom/spark-1.6.0
    export PATH=$SPARK_HOME/bin:$PATH

    保存并更新 /etc/profile :

    $ source /etc/profile

    在conf目录下复制并重命名 spark-env.sh.template 为 spark-env.sh :

    $ cp spark-env.sh.template spark-env.sh
    $ vim spark-env.sh

    在 spark-env.sh 中添加:

    export JAVA_HOME=/home/tom/jdk1.8.0_73/
    export SCALA_HOME=/home/tom//scala-2.10.6
    export SPARK_MASTER_IP=localhost
    export SPARK_WORKER_MEMORY=4G

    启动

    $ $SPARK_HOME/sbin/start-all.sh

    停止

    $ $SPARK_HOME/sbin/stop-all.sh

    测试Spark是否安装成功:

    $ $SPARK_HOME/bin/run-example SparkPi

    得到结果:

    Pi is roughly 3.14716

    检查WebUI,浏览器打开端口: http://localhost :8080

    在spark上执行task

    spark-submit --master spark://10.10.5.246:7077 --name WordCountByscala --class luozt_scala.spark.wordcount --executor-memory 1G --total-executor-cores 2 /home/luozt/spark/spark0824.jar  /home/luozt/spark/README.md 

  • 相关阅读:
    Value '0000-00-00' can not be represented as java.sql.Date
    mysql建表设置两个默认CURRENT_TIMESTAMP的技巧
    PowerDesigner 的mysql PDM 的COMMENT注释
    tomcat配置及优化
    Tomcat7调优及JVM性能优化for Linux环境
    maven混淆Java代码
    通过Maven配置测试环境和开发环境连接不同的数据库
    删除电脑中用强制删除不能删除的bat命令脚本
    在Linux中设置共享目录
    ftp以及smb的配置
  • 原文地址:https://www.cnblogs.com/luo-mao/p/5941708.html
Copyright © 2011-2022 走看看