zoukankan      html  css  js  c++  java
  • Spark Shell及Spark2.2和Spark1.6的对比

    2019-12-12  09:37:43

    Spark Shell

    Spark-shell是Spark自带的交互式Shell程序,方便用户进行交互式编程,可以在命令下编写Scala程序执行Spark

    Spark-shell多用于测试 Spark-Shell启动有两种模式 local模式和Cluster模式

    Local模式:

    ps: 必须进入到Spark安装目录中bin目录下
    spark-shell 
    启动的就是本地模式,local模式仅在本机启动一个SparkSubmit进程,没有集群建立联系,虽然进程中有SparkSubmit但是不会被提交到集群
    

    Cluster模式:

    必须进入到Spark安装目录中bin目录下
    spark-shell 
    --master spark://hadoop01:7077 
    --executor-memory  512M 
    --total-executor-cores 1
    ps: --master必须有的一条命令  后面的两条是可以没有的
    

      

    退出Shell:

    1.使用 :quit  退出shell
    2.使用 ctrl+c 退出shell  
    ps:使用ctrl+c 退出shell 可能会出现 后台占用端口的情况
       查看监听端口  netstat -apn | grep 4040  只要有这个端口占用的进程就杀死
    

     

     Spark2.2shell和Spark1.6shell的对比

    1)Spark2.2

     2)Spark1.6

     说明:Spark2.X版本shell中有两个内置对象

    SparkContext  ——> 变量名:sc

    SparkSession  ——>变量名:spark

    SparkSession不能单独拿出来解释,2.x之后spark将SQLContext和HiveContext进行整合提供一种全新的创建方式SparkSession

    Spark1.6版本shell中有两个内置对象

    SparkContext  ——>变量名:sc

    SQLContext  ——>变量名:sqlcontext

     

     

     

  • 相关阅读:
    显示AVI的第一桢
    视频采集,存成avi
    视频捕获
    如何将Wav文件做到EXE文件里
    图形整体拉出效果
    3.2 指数型生成函数
    3.1 普通型生成函数
    诡异的楼梯 HDU
    A strange lift HDU
    胜利大逃亡 HDU
  • 原文地址:https://www.cnblogs.com/yumengfei/p/12027506.html
Copyright © 2011-2022 走看看