zoukankan      html  css  js  c++  java
  • Hadoop安装—Spark安装

    Spark安装首先要先安装上Hadoop,然后才可以安装Spark。

    Spark官网下载:http://spark.apache.org/downloads.html

    需要注意的是:Spark对应的hadoop版本,然后上传至虚拟机

    安装步骤:

    1、加压文件,tar -zxvf spark-2.3.0-bin-hadoop2.7.tgz

      配置环境变量,

      

    2、拷贝配置文件,目录为./spark/config

      cp spark-env.sh.template  spark-env.sh

    3、编辑文件,vi spark-env.sh,在最后增加如下内容:

      export SPARK_DIST_CLASSPATH=$(/home/wdd/hadoop-2.9.0/bin/hadoop classpath)

      指定spark和hadoop进行关联

    4、需要注意的是,所属组和所有者,如下图:

      

    5、简单使用,计算pi的值

       ./spark-2.3.0-bin-hadoop2.7/bin/run-example SparkPi 2>&1 | grep "Pi is roughly"

        

      

       

  • 相关阅读:
    动态规划精讲(一)LC最长公共子序列
    0-1背包
    折线分割平面
    母牛的故事
    数塔
    70. 爬楼梯
    文件修改的两种方式
    文件处理练习
    文件处理
    购物车理解
  • 原文地址:https://www.cnblogs.com/wind-man/p/8748560.html
Copyright © 2011-2022 走看看