zoukankan      html  css  js  c++  java
  • 010 Spark中的监控----日志聚合的配置,以及REST Api

    一:History日志聚合的配置

    1.介绍

      Spark的日志聚合功能不是standalone模式独享的,是所有运行模式下都会存在的情况

      默认情况下历史日志是保存到tmp文件夹中的

      

    2.参考官网的知识点位置

      

    3.修改spark-defaults.conf

      

    4.修改env.sh

      

    5.在HDFS上新建/spark-history

      bin/hdfs dfs -mkdir /spark-history

    6.启动历史服务

      sbin/start-history-server.sh

      

    7.测试  

      webUI: http://192.168.187.146:18080/
      local模式:bin/spark-shell
      standalone模式:bin/spark-shell --master spark://linux-hadoop3.ibeifeng.com:7070

    8.local模式的测试

      bin/spark-shell

      然后输入程序。

      在

      

    9.standalone模式

      bin/spark-shell --master spark://linux-hadoop3.ibeifeng.com:7070

      输入程序

      

    二:RestApi

      返回应用程序的执行结果。

    1.关于RestApi的官网

      也是属于monitor的部分

      

    2.介绍

      专门用于获取历史应用的执行结果

      用法: http://<server-url>:18080/api/v1

    3.使用

      http://linux-hadoop3.ibeifeng.com:18080/api/v1/applications

      

    4.进一步使用

      http://linux-hadoop3.ibeifeng.com:18080/api/v1/applications/app-20170206042834-0000/jobs

      

      

  • 相关阅读:
    Scrum会议5
    小组项目alpha发布的评价
    第二阶段冲刺记录三
    第二阶段冲刺记录二
    第13周学习进度
    第二阶段冲刺记录1
    《人月神话》阅读笔记01
    第12周学习进度
    意见汇总
    双人结对,四则运算(三阶段)
  • 原文地址:https://www.cnblogs.com/juncaoit/p/6379006.html
Copyright © 2011-2022 走看看