zoukankan      html  css  js  c++  java
  • linux CentOS7 安装spark

        上次安装了scala-2.11.8,这次安装spark-2.1.0版本

      1、下载spark-2.1.0

        打开terminal 进入当前用户目录 /home/sks

        wget http://d3kbcqa49mib13.cloudfront.net/spark-2.1.0-bin-hadoop2.6.tgz

        

      2、解压

        tar -zxvf spark-2.1.0-bin-hadoop2.6.tgz

         

        把spark-2.1.0-bin-hadoop2.6文件夹拷贝到 /usr/local/spark中,没有目录创建

        mkdir -p /usr/local/spark

        cp -r spark-2.1.0-bin-hadoop2.6 /usr/local/spark

        

      3、设置环境变量

        进入根目录:cd ~

        

        增加以下内容:

        

        export SPARK_HOME=/usr/local/spark/spark-2.1.0-bin-hadoop2.6
        export PATH=$PATH:$SPARK_HOME/bin

        

        输入:source .bash_profile 

        使环境变量快速生效

        

      4、验证安装成功

        输入spark-shell

        

        

        说明安装成功

       5、修改log4j

        看到上面提示信息中有warn

        

         由于Spark core的默认日志级别是warn,所以看到信息不多,现在将Spark安装目录的conf文件夹下

         首先进入conf目录,

        复制一个文件 cp log4j.properties.template log4j.properties

        然后进入log4j.properties 并将log4j.logger.org.apache.spark.repl.Main=INFO  (把原来的WARN改为INFO,保存即可)

        

        然后重新打开spark-shell,可以看到更多的打印信息

         

        

        

  • 相关阅读:
    vue 初始化项目模板报错
    092117-6265-01.dmp 蓝屏日志文件
    电信流氓注入JS
    DISM
    node.js
    Adobe ZXPInstaller 报错 Installation failed because of a file operation error.
    Microsoft Edge 针对 Web 开发人员更新日志
    What's new in Safari 11.0
    CSS Filter
    accept-language
  • 原文地址:https://www.cnblogs.com/shaosks/p/9242536.html
Copyright © 2011-2022 走看看