zoukankan      html  css  js  c++  java
  • spark集群启动步骤及web ui查看

    集群启动步骤:先启动HDFS系统,在启动spark集群,最后提交jar到spark集群执行。

    1.hadoop启动
    cd /home/***/hadoop-2.7.4/sbin
    start-all.sh

    3.spark启动
    cd /home/***/spark-2.2.0/sbin
    start-all.sh

    4.spark提交
    cd /home/***/spark-2.2.0/bin
    spark-submit --master local --class com.helloworld.kmeans /home/***/xsd11.jar

    web ui登录查看方式

    1.查看hadoop UI
    http://192.168.1.***:50070

    All Applications 界面(yarn UI:8088)
    http://192.168.1.***:8088/cluster

    2.查看sparkUI(先要启动./bin/spark-shell)

    集群模式:18088
    单机模式:4044
    日志服务器
    7077

    小结:如果要在UI界面查看job执行情况,要把配置spark-history,把eventlog打开,程序运行完可以查看已经finished的job。

  • 相关阅读:
    【Python】异常处理
    【Python】写入文件
    【Python】从文件中读取数据
    【Python】导入类
    【Python】继承
    【Python】使用类和实例
    SQL HAVING
    SQL GROUP BY
    SQL ORDER BY
    SQL CREATE INDEX
  • 原文地址:https://www.cnblogs.com/moonlightml/p/8862566.html
Copyright © 2011-2022 走看看