zoukankan      html  css  js  c++  java
  • 启动spark shell详解

    spark-shell是Spark自带的交互式Shell程序,方便用户进行交互式编程,用户可以在该命令行下用scala编写spark程序。

    启动spark shell:

    /usr/local/spark-2.1.0-bin-hadoop2.6/bin/spark-shell --master spark://L1:7077,L2:7077  --executor-memory 2g  --total-executor-cores 2
    
    • 1

    参数说明:

    --master spark://L1:7077,L2:7077     指定Master的地址
    --executor-memory 2g 指定每个worker可用内存为2G
    --total-executor-cores 2 指定整个集群使用的cup核数为2个
    
    • 1
    • 2
    • 3

    注意

    如果启动spark shell时没有指定master地址,但是也可以正常启动spark shell和执行spark shell中的程序,其实是启动了spark的local模式,该模式仅在本机启动一个进程,没有与集群建立联系。

    /usr/local/spark-2.1.0-bin-hadoop2.6/bin/spark-shell 
    --master spark://L1:7077,L2:7077  
    --executor-memory 2g  
    --total-executor-cores 2
    这样启动spark shell,指定了master的地址,那么就会将任务提交到集群,开始时sparkSubmit(客户端)
    要连接Master,并申请计算资源(内存和核数),Master进行资源调度(就是让那些Worker启动Executor),
    在准备工作时,这些进程都已经创建好了。
    
    • 1
    • 2
    • 3
    • 4
    • 5
    • 6
    • 7

    启动spark shell后,查看UI管理界面,会发现Application ID多了一个正在运行的spark shell进程。

    在这里插入图片描述

  • 相关阅读:
    数组中的每一个对象执行一次方法:makeObjectsPerformSelector
    $.each() each
    JQ js选择节点操作
    Sublime Text 3 快捷键
    TotoiseSVN的基本使用方法
    Hbuilder快捷键
    获取网页内容区域各种高/宽汇总
    TP操作
    xhr接收php://output的二进制文件,并转换成excel表格
    Go语言的%d,%p,%v等占位符的使用
  • 原文地址:https://www.cnblogs.com/ExMan/p/14308621.html
Copyright © 2011-2022 走看看