zoukankan      html  css  js  c++  java
  • Apache kylin原理

    Apache kylin原理

    2018年02月06日 19:08:26 zhangxiaomei1952 阅读数 907

    本文主要介绍了Apache Kylin是如何将Hive表中的数据转化为HBase的KV结构,并简单介绍了Kylin的SQL查询是如何转化为HBase的Scan操作。

    Apache Kylin 是什么

    Apache Kylin是一个开源的、基于Hadoop生态系统的OLAP查询引擎,能够通过SQL接口对十亿、甚至百亿行的超大数据集实现秒级的多维分析查询。

    OLAP 是什么

    即联机分析处理:以复杂的分析型查询为主,需要扫描,聚合大量数据。

    Kylin如何实现超大数据集的秒级多维分析查询

    预计算

    对于超大数据集的复杂查询,既然现场计算需要花费较长时间,那么根据空间换时间的原理,我们就可以提前将所有可能的计算结果计算并存储下来,从而实现超大数据集的秒级多维分析查询。

    Kylin的预计算是如何实现的

    将数据源Hive表中的数据按照指定的维度和指标 由计算引擎MapReduce离线计算出所有可能的查询结果(即Cube)存储到HBase中。

    Kylin 架构

    Cube 和 Cuboid是什么

    简单地说,一个cube就是一个Hive表的数据按照指定维度与指标计算出的所有组合结果。

    其中每一种维度组合称为cuboid,一个cuboid包含一种具体维度组合下所有指标的值。

    如下图,整个立方体称为1个cube,立方体中每个网格点称为1个cuboid,图中(A,B,C,D)和(A,D)都是cuboid,特别的,(A,B,C,D)称为Base cuboid。cube的计算过程是逐层计算的,首先计算Base cuboid,然后计算维度数依次减少,逐层向下计算每层的cuboid。

    图1

    Cuboid 的维度和指标如何转换为HBase的KV结构

    简单的说Cuboid的维度会映射为HBase的Rowkey,Cuboid的指标会映射为HBase的Value。如下图所示: 图2

    如上图原始表所示:Hive表有两个维度列yearcity,有一个指标列price

    如上图预聚合表所示:我们具体要计算的是yearcity这两个维度所有维度组合(即4个cuboid)下的sum(priece)指标,这个指标的具体计算过程就是由MapReduce完成的。

    如上图字典编码所示:为了节省存储资源,Kylin对维度值进行了字典编码。图中将beijingshanghai依次编码为0和1。

    如上图HBase KV存储所示:在计算cuboid过程中,会将Hive表的数据转化为HBase的KV形式。Rowkey的具体格式是cuboid id + 具体的维度值(最新的Rowkey中为了并发查询还加入了ShardKey),以预聚合表内容的第2行为例,其维度组合是(year,city),所以cuboid id就是00000011,cuboid是8位,具体维度值是1994和shanghai,所以编码后的维度值对应上图的字典编码也是11,所以HBase的Rowkey就是0000001111,对应的HBase Value就是sum(priece)的具体值。

    所有的cuboid计算完成后,会将cuboid转化为HBase的KeyValue格式生成HBase的HFile,最后将HFile load进cube对应的HBase表中。

    Cube 构建过程

    1 从Hive表生成Base Cuboid

    在实际的cube构建过程中,会首先根据cube的Hive事实表和维表生成一张大宽表,然后计算大宽表列的基数,建立维度字典,估算cuboid的大小,建立cube对应的HBase表,再计算base cuboid。

    计算base cuboid就是一个MapReduce作业,其输入是上面提到的Hive大宽表,输出是的key是各种维度组合,value是Hive大宽表中指标的值。

    
     
    1. org.apache.kylin.engine.mr.steps.BaseCuboidJob

    2.  
    3. map 阶段生成key-value的代码如下:

    4.  
    5. protected void outputKV(Context context) throws IOException, InterruptedException {

    6. intermediateTableDesc.sanityCheck(bytesSplitter);

    7.  
    8. byte[] rowKey = buildKey(bytesSplitter.getSplitBuffers());

    9. outputKey.set(rowKey, 0, rowKey.length);

    10.  
    11. ByteBuffer valueBuf = buildValue(bytesSplitter.getSplitBuffers());

    12. outputValue.set(valueBuf.array(), 0, valueBuf.position());

    13. context.write(outputKey, outputValue);

    14. }

    15.  
    16. 所有计算cuboid的reduce阶段代码都一样,见下面。

    2 从Base Cuboid 逐层计算 Cuboid。

    从base cuboid 逐层计算每层的cuboid,也是MapReduce作业,map阶段每层维度数依次减少,reduce阶段对指标进行聚合。

    
     
    1. org.apache.kylin.engine.mr.steps.CuboidReducer public void reduce(Text key, Iterable<Text> values, Context context) throws IOException, InterruptedException {

    2. aggs.reset(); //MeasureAggregators 根据每种指标的不同类型对指标进行聚合

    3.  
    4. for (Text value : values) {

    5. codec.decode(ByteBuffer.wrap(value.getBytes(), 0, value.getLength()), input);

    6. if (cuboidLevel > 0) { // Base Cuboid 的 cuboidLevel 是0

    7. aggs.aggregate(input, needAggr); //指标进行进一步聚合

    8. } else {

    9. aggs.aggregate(input);

    10. }

    11. }

    12. aggs.collectStates(result);

    13.  
    14. ByteBuffer valueBuf = codec.encode(result);

    15.  
    16. outputValue.set(valueBuf.array(), 0, valueBuf.position());

    17. context.write(key, outputValue);

    3 Cuboid 转化为HBase的HFile。

    主要就是数据格式的转化。详情请参考: Hive 数据 bulkload 导入 HBase

    不同类型的指标是如何进行聚合的

    每种不同的指标都会有对应的聚合算法,所有指标聚合的基类是org.apache.kylin.measure.MeasureAggregator。其核心方法如下:

    
     
    1. abstract public void reset();

    2. //不同类型的指标算法会实现该方法

    3. abstract public void aggregate(V value);

    4.  
    5. abstract public V getState();

    以最简单的long类型的sum指标为例:

    
     
    1. public class LongSumAggregator extends MeasureAggregator<LongMutable> {

    2.  
    3. LongMutable sum = new LongMutable();

    4.  
    5. @Override

    6. public void reset() {

    7. sum.set(0);

    8. }

    9.  
    10. @Override

    11. public void aggregate(LongMutable value) {

    12. sum.set(sum.get() + value.get());

    13. }

    14.  
    15. @Override

    16. public LongMutable getState() {

    17. return sum;

    18. }

    19. }

    SQL查询是如何转化为HBase的Scan操作的

    还是以图2举例,假设查询SQL如下:

    
     
    1. select year, sum(price)

    2. from table

    3. where city = "beijing"

    4. group by year

    这个SQL涉及维度yearcity,所以其对应的cuboid是00000011,又因为city的值是确定的beijing,所以在Scan HBase时就会Scan Rowkey以00000011开头且city的值是beijing的行,取到对应指标sum(price)的值,返回给用户。

    总结

    本文主要介绍了Apache Kylin是如何将Hive表中的数据转化为HBase的KV结构,并简单介绍了Kylin的SQL查询是如何转化为HBase的Scan操作。希望对大家有所帮助。

  • 相关阅读:
    Semaphore使用
    不可变对象
    Java锁--Lock实现原理(底层实现)
    Lambda Expressions and Functional Interfaces: Tips and Best Practices
    注解的作用
    linux命令大全
    linux &和&&,|和||
    SpringCloud 商品架构例子(一)
    springcloud starter(一)
    dubbo(一)
  • 原文地址:https://www.cnblogs.com/grj001/p/12224297.html
Copyright © 2011-2022 走看看