zoukankan      html  css  js  c++  java
  • ssg-2015.06.15~2015.06.18 总结

    1. 目前 ssg内公司内部 spark streaming 处理数据源是kafka
    2. 目前遇到最大的问题是,会延迟,例如我们配置1分钟让窗口计算一次,很有可能随着数据量大,我们计算时间会超过1分钟,这样就会导致卡死在哪里,streaming一直累计算出不了结果,而且从监控还看不出有问题,只有从结果监控发现结果出不来。
      解决方案:增加kafka的partition配置,配合streaming的线程数,可以加快执行速度
    3. 使用createStream接受消息,升级kafka的API后遇到receiver无声无色地死掉的情况
      解决方案:改为KafkaUtils.createDirectStream
      要配置kafka的参数:metadata.broker.list
      val kafkaParams = Map[String, String](
      “zookeeper.connect” -> zkQuorum, “group.id” -> group,
      “zookeeper.connection.timeout.ms” -> “10000”,
      “metadata.broker.list”->”ip:9092”,
      “auto.offset.reset” -> “smallest”)
      auto.offset.reset,这个参数是,切换groupid之后,重头开始获取数据
      val registerDS = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, topicset).map(_._2)
    4. yarn分配executor时,会比较集中在一些机器上,如下面的图,集中到026上面了。
      这里写图片描述
      解决方案:目前还没有找问题解决方案,属于yarn的分配策略
    5. 对于连接池,为了提高效率,方面复用,可以通过广播变量方式
      解决方案:广播变量不可以实现,在streaming中,而且executor之间传递这个,是需要序列化的,序列化一个已经连接的东西,是不行的,实际上是每个executor都去连接一下db, 最后结果不大,产生的连接数也不会多,
      这样每个RDD都要去建立连接,insert DB。如果rdd过多,每次去连接是很浪费资源的,那缩减RDD的数量,当结果集很小的时候,通过reparation来处理,这样的话,就只有一个RDD在连接db。连接池解决资源复用的问题,根本上还是要控制发起连接的RDD数量,建议参考:http://blog.csdn.net/kntao/article/details/45364761
    6. kafka的partition数量和什么有关系?
      解决方案:kafka的partition数量跟broker ×每个broker中的partition 有关 ,默认 不配置 每个broker partition是1
    7. spark streming运行时候报错“DStream checkpointing has been enabled but the DStreams with their functions are not serializable”
      代码截图:这里写图片描述
      解决方案:通过跟群里面人讨论,发现getFilterEachUserData(),第一个参数sqlContext是没有序列化的,去掉第一个参数后,不再包此错误
    8. spark streaming 不能toDF?
      代码截图:
      这里写图片描述
      解决方案:filter 方法中,p不是rdd,要想转成rdd需要使用transform这个方法
      修改后代码截图:
      这里写图片描述
    9. 群中有人说spark streaming中不能同时使用广播变量和checkpoint?
      解决方案:这个问题需要有待核实
    10. Couldn’t find leader offsets for Set ([luwc_test,0],[luwc_test,1])
      异常问题截图:
      这里写图片描述
      解决方案:要在kafka集群的hosts要配到spark的Driver的hosts里面去,用zk管kafka的话,是可以获取到Partition信息的,但是解析地址会失败,把hosts配成一致就可以了,直接用domain是不行的
    11. spark 编译源码 增加hive模块
      解决方案:export MAVEN_OPTS=”-Xmx2g -XX:MaxPermSize=512M -XX:ReservedCodeCacheSize=512m”
      mvn -Pyarn -Phadoop-2.3 -Dhadoop.version=2.3.0-cdh5.1.0 -Phive -Dhive-version=0.12.0-cdh5.1.0 -Phive-thriftserver -Pspark-ganglia-lgpl -DskipTests clean package
      OR
      ./make-distribution.sh –name 2.3.0 –tgz -Phadoop-2.3 -Dhadoop.version=2.3.0-cdh5.1.0 -Pyarn -Phive -Dhive-version=0.12.0-cdh5.1.0 -Phive-thriftserver -Pspark-ganglia-lgpl -DskipTests clean package

    版权声明:本文为博主原创文章,未经博主允许不得转载。

  • 相关阅读:
    微信小程序------代码构成
    微信小程序------开发测试
    H5中 input消除默认,取消在手机上的点击高亮效果
    html5 WebSocket
    js和jquery如何获取图片真实的宽度和高度_javascript技巧
    如何解决Provisional headers are shown问题(转)
    JQuery怎样返回前一页
    tp5 通过IP获取对应ip的城市
    php 将富文本编辑后的内容转义为不带HTML标签的字符
    tp5 分页样式
  • 原文地址:https://www.cnblogs.com/stark-summer/p/4829775.html
Copyright © 2011-2022 走看看