zoukankan      html  css  js  c++  java
  • Hadoop HPROF 的使用

    我们编写的MapReduce程序不一定都是高效的,我们需要确定MapReduce的瓶颈在什么地方。Hadoop框架提供对HPROF的支持,HPROF能够跟踪CPU、堆的使用以及线程的生命周期,对于确定程序的瓶颈能够提供很大的帮助。

    为了使用HPROF我们需要在JobConf中进行一些设置,具体操作如下:

    JobConf jobConf = new JobConf(conf);

        jobConf.setProfileEnabled(true);//开启HPROF

    jobConf.setProfileParams("-agentlib:hprof=depth=8,cpu=sampl     es,heap=sites,force=n,""thread=y,verbose=n,file=%s");

        //这里面8指堆栈调用深度,可以由用户指定

    jobConf.setProfileTaskRange(true"0-5");

        //需要profile的Map Task的ID

    jobConf.setProfileTaskRange(false"0-5");

    //需要profile的Reduce Task的ID

    通过上面的设置,就可以开启HPROFMapReduce Job完成后可以在提交作业的目录下看到多个Profile文件。打开每一个profile文件,在文件的最底部我们可以看到最重要的两个统计,一个是对象所占用的内存,一个是堆栈调用所消耗的时间。


    内存对象统计以及产生该对象的堆栈调用(由大到小排序)

                                      堆栈调用所消耗时间的排序(由大到小排序)

    下面是排名第一的303703的堆栈调用,基本可以看出函数调用的顺序,如下图所示:


  • 相关阅读:
    RabbitMQ 集群与高可用配置
    ManifoldJS
    Top JavaScript Frameworks, Libraries & Tools and When to Use Them
    AngularJS 的安全Apply
    node js 常用模块
    微软发布了ASP.NET WebHooks预览版
    leaflet 了解
    messagepcak 资料
    fastBinaryJSON
    jQuery的图像裁剪插件Jcrop
  • 原文地址:https://www.cnblogs.com/javawebsoa/p/3108951.html
Copyright © 2011-2022 走看看