zoukankan      html  css  js  c++  java
  • Spark-环境安装

    01.Spark--安装Spark

    01.下载安装包 spark-2.1.0-bin-hadoop2.7.tgz

    以下是Spark的官方下载地址:

    https://www.apache.org/dyn/closer.lua/spark/spark-2.3.0/spark-2.3.0-bin-hadoop2.7.tgz
    

    02.解压文件到/soft目录下

    [centos@s101 /soft/spark/conf]$cd ..
    [centos@s101 /soft/spark/conf]$ls
    [centos@s101 /soft/spark/conf]$cd ..
    [centos@s101 /soft]$ls -al
    [centos@s101 /soft]$tar -xzvf spark-2.1.0-bin-hadoop2.7.tgz -C /soft/
    [centos@s101 /soft]
    

    03.创建软连接

    创建软连接后,编译各种文件配置以及后期进行版本升级和替换非常方便

    [centos@s101 /soft]ln -s /soft/spark-2.1.0-bin-hadoop2.7 /soft/spark
    [centos@s101 /soft]cat /etc/profile
    

    04.配置环境变量

    编辑/etc/profile环境变量文件:

    [centos@s101 /soft]sudo /etc/profile
    

    在文件末尾添加如下内容:

    #spark
    export SPARK_HOME=/soft/spark
    export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
    
    注意:将Spark的bin目录和sbin目录都添加到环境变量path中,而且Linux使用“:”作为分隔符。

    05.环境变量生效

    $>source /etc/profile
    

    06.进入Spark-shell命令

    [centos@s101 /soft/spark/bin]$ spark-shell
    

    07.体验Spark-shell

    因为Spark使用的scala语言,因此同Scala的使用完全一致。

    $scala>1 + 1
    输出结果
    2
    

  • 相关阅读:
    python处理excel文件
    Python datetime模块
    OrderedDict 有序字典以及读取json串时如何保持原有顺序
    ansible 学习笔记
    nginx的location和rewrite
    实体机重装系统
    热词
    教育
    生活
    1、两数之和
  • 原文地址:https://www.cnblogs.com/SteveDZC/p/13597002.html
Copyright © 2011-2022 走看看