zoukankan      html  css  js  c++  java
  • Spark累加器(Accumulator)陷阱及解决办法

    Accumulator简介

    Accumulator是spark提供的累加器,顾名思义,该变量只能够增加。

    只有driver能获取到Accumulator的值(使用value方法),Task只能对其做增加操作(使用 +=)。你也可以在为Accumulator命名(不支持Python),这样就会在spark web ui中显示,可以帮助你了解程序运行的情况。

    Accumulator使用

    使用示例

    举个最简单的accumulator的使用例子:

    //在driver中定义
    
    val accum = sc.accumulator(0, "Example Accumulator")
    
    //在task中进行累加
    
    sc.parallelize(1 to 10).foreach(x=> accum += 1)
    
    //在driver中输出
    
    accum.value
    
    //结果将返回10
    
    res: 10

    累加器的错误用法

    val accum= sc.accumulator(0, "Error Accumulator")
    
    val data = sc.parallelize(1 to 10)
    
    //用accumulator统计偶数出现的次数,同时偶数返回0,奇数返回1
    
    val newData = data.map{x => {
    
    if(x%2 == 0){
    
    accum += 1
    
    0
    
    }else 1
    
    }}
    
    //使用action操作触发执行
    
    newData.count
    
    //此时accum的值为5,是我们要的结果
    
    accum.value
    
    //继续操作,查看刚才变动的数据,foreach也是action操作
    
    newData.foreach(println)
    
    //上个步骤没有进行累计器操作,可是累加器此时的结果已经是10了
    
    //这并不是我们想要的结果
    
    accum.value

    原因分析

    官方对这个问题的解释如下描述:

    For accumulator updates performed inside actions only, Spark guarantees that each task’s update to the accumulator will only be applied once, i.e. restarted tasks will not update the value. In transformations, users should be aware of that each task’s update may be applied more than once if tasks or job stages are re-executed.

    我们都知道,spark中的一系列transform操作会构成一串长的任务链,此时需要通过一个action操作来触发,accumulator也是一样。因此在一个action操作之前,你调用value方法查看其数值,肯定是没有任何变化的。

    所以在第一次count(action操作)之后,我们发现累加器的数值变成了5,是我们要的答案。

    之后又对新产生的的newData进行了一次foreach(action操作),其实这个时候又执行了一次map(transform)操作,所以累加器又增加了5。最终获得的结果变成了10。


    这里写图片描述

    解决办法

    看了上面的分析,大家都有这种印象了,那就是使用累加器的过程中只能使用一次action的操作才能保证结果的准确性。

    事实上,还是有解决方案的,只要将任务之间的依赖关系切断就可以了。什么方法有这种功能呢?你们肯定都想到了,cache,persist。调用这个方法的时候会将之前的依赖切除,后续的累加器就不会再被之前的transfrom操作影响到了。



    val accum= sc.accumulator(0, "Error Accumulator")
    
    val data = sc.parallelize(1 to 10)
    
    //代码和上方相同
    
    val newData = data.map{x => {...}}
    
    //使用cache缓存数据,切断依赖。
    
    newData.cache.count
    
    //此时accum的值为5
    
    accum.value
    
    newData.foreach(println)
    
    //此时的accum依旧是5
    
    accum.value

    总结

    使用Accumulator时,为了保证准确性,只使用一次action操作。如果需要使用多次则使用cache或persist操作切断依赖。

    转自:http://www.jianshu.com/p/1b7c9a63bc7c

    在《spark快速大数据分析》一书里,作者提到转换操作中的累加器最好是在调试中使用,而真正使用的话最好是行动操作中!



     
  • 相关阅读:
    献给 Python 开发人员的 25 个最佳 GitHub 代码库!
    6 drf-认证权限解析频率
    4: drf视图组件
    3 drf请求与响应
    十三:Django框架学习之auth模块
    十二:django中间件学习之拓展1
    git光速从入门到精通
    mac系统下的mysql安装(ver.8.0.20)
    python小练习——2048
    docker下overlay2占用空间过大,清理docker占用空间
  • 原文地址:https://www.cnblogs.com/bonelee/p/6038999.html
Copyright © 2011-2022 走看看