zoukankan      html  css  js  c++  java
  • 010 Spark中的监控----日志聚合的配置,以及REST Api

    一:History日志聚合的配置

    1.介绍

      Spark的日志聚合功能不是standalone模式独享的,是所有运行模式下都会存在的情况

      默认情况下历史日志是保存到tmp文件夹中的

      

    2.参考官网的知识点位置

      

    3.修改spark-defaults.conf

      

    4.修改env.sh

      

    5.在HDFS上新建/spark-history

      bin/hdfs dfs -mkdir /spark-history

    6.启动历史服务

      sbin/start-history-server.sh

      

    7.测试  

      webUI: http://192.168.187.146:18080/
      local模式:bin/spark-shell
      standalone模式:bin/spark-shell --master spark://linux-hadoop3.ibeifeng.com:7070

    8.local模式的测试

      bin/spark-shell

      然后输入程序。

      在

      

    9.standalone模式

      bin/spark-shell --master spark://linux-hadoop3.ibeifeng.com:7070

      输入程序

      

    二:RestApi

      返回应用程序的执行结果。

    1.关于RestApi的官网

      也是属于monitor的部分

      

    2.介绍

      专门用于获取历史应用的执行结果

      用法: http://<server-url>:18080/api/v1

    3.使用

      http://linux-hadoop3.ibeifeng.com:18080/api/v1/applications

      

    4.进一步使用

      http://linux-hadoop3.ibeifeng.com:18080/api/v1/applications/app-20170206042834-0000/jobs

      

      

  • 相关阅读:
    All about Python
    All about TestComplete
    All about Ranorex
    围观大神们的博客
    CRP实施方法论(转)
    启发式测试策略模型(Heuristic Test Strategy Model,简称HTSM)(转)
    soapUI学习笔记---断言的小使用(转)
    soapUI学习笔记--用例字段参数化(转)
    常用功能测试点汇总(转)
    记一次性能测试实践1
  • 原文地址:https://www.cnblogs.com/juncaoit/p/6379006.html
Copyright © 2011-2022 走看看