zoukankan      html  css  js  c++  java
  • 1-apache druid架构、原理、执行流程

    1、前言

      从druid的0.11版本开始,我就开始关注它,每一次的版本的更新,druid都会使用户体验、性能更好,从以前手写配置文件到可视化的界面操作,从实时节点进行任务提交到现在的索引服务等

      流处理:

          日志监控(Flume) ----> 消息中间件(kafka、MQ)  ----> 流处理(spark streaming/Flink)

          为了使指标开发更加简单,我们一般不会直接采用Spark core或者Flink DataStream API进行计算,譬如很多时候都会通过样例类的方式,将其转化为table,然后利用SQL进行指标开发。

          但是每一次的版本升级,我们如果要添加一些新的指标,那么只能更改原始代码或者重新跑一个任务

          并且有的时候,数据分析师往往需要的是自主查询,自己定义指标、自己去开发指标!!

      由于以上的困境,druid帮我们解决了很大一部分,当然它并非完美,在后面我会提到!

      在此之前,我先抛出两个概念:

        OLTP:

              对数据的增删改查等操作,主要用于传统的关系数据库。

        OLAP:

              数据按不同维度的聚合,维度的下钻,上卷等,主要用于数据仓库。

    2、druid

          概念:
              主要是解决低延迟下实时数据摄入与查询的平台,本质是一个数据存储,但是数据仍然是保存在(hdfs、文件系统等)中。

          特点:

              ①列式存储格式:

                可以将列作为索引,为仅查看几列的查询提供了巨大的速度提升

              ②高可用、高并发:

              ①集群扩展、缩小、删除、宕机都不会停止服务,全天候运行
              ②HA、sql的并行化执行、可扩展、容灾等
              ③支持1000+的并发用户,并提供隔离机制支持多租户模式(多租户就是并发互不影响)

              ④低延迟

                 Druid采用了列式存储、倒排索引、位图索引等关键技术,能够在亚秒级别内完成海量数据的过滤、聚合以及多维分析等操作。

              ⑤存储时候聚合:

                 无论是实时数据消费还是批量数据处理,Druid在基于DataSource结构存储数据时即可选择对任意的指标列进行聚合操作


                 聚合:提前做好sum,count等操作

    3、druid架构

        官网图:

            

        总体可以分为:四个节点 +  三个依赖

        四个节点:

            实时节点(Realtime Node):

                实时摄入数据,对于旧的数据周期性的生成segment数据文件,上传到deep storage中

                为了避免单点故障,索引服务(Indexer)的主从架构已经逐渐替代了实时节点,所以现在的实时节点,其实里面包含了很多角色:

                  作用:可以通过索引服务的API,写数据导入任务,用以新增、删除、合并Segment等。是一个主从架构:


                  统治节点(overlord):

                                  类似于Yarn ResourceManager : 负责集群资源的管理和分配

                                 监视数据服务器上的MiddleManager进程,将提取任务分配给MiddleManager

                  中间管理者(middle manager):

                                  类似于Yarn NodeManager : 负责单个节点资源的管理和分配

                                  新数据提取到群集中的过程。他们负责从外部数据源读取并发布新的段

                  苦工(peon):

                                   类似于Yarn container :负责具体任务的执行

                                    Peon进程是由MiddleManagers产生的任务执行引擎。
                                    每个Peon运行一个单独的JVM,并负责执行单个任务。

                                    Peon总是与生成它们的MiddleManager在同一主机上运行              

                  Router(路由:可选):

                                    可在Druid代理,统治节点和协调器之前提供统一的API网关

                 注:统治节点和中间管理者的通信是通过zookeeper完成的


             历史节点(Historical Node):

                 加载已生成的segment数据文件,以供数据查询

                 启动或者受到协调节点通知的时候,通过druid_rules表去查找需要加载的数据,然后检查自身的本地缓存中已存在的Segment数据文件,
                 然后从DeepStorage中下载其他不在本地的Segment数据文件,后加载到内存!!!再提供查询。

             查询节点(Broker Node):

                 对外提供数据查询服务,并同时从实时节点与历史节点查询数据,合并后返回给调用方

                   缓存:
                  外部:第三方的一些缓存系统
                  内部:在历史节点或者查询节点做缓存

             协调节点(Coodinator Node):

                负责历史节点的数据负载均衡,以及通过规则(Rule)管理数据的生命周期

                ①通过从MySQL读取元数据信息,来决定深度存储上哪些数据段应该在那个历史节点中被加载,
                ②通过ZK感知历史节点,历史节点增加,会自动分配相关的Segment,历史节点删除,会将原本在这台节点上的Segment分配给其他的历史节点

                注:Coordinator是定期运行的,并且运行间隔可以通过配置参数配置

        三个依赖:

            1) Mysql:

                存储关于Druid中的metadata,规则数据,配置数据等,
                主要包含以下几张表:
                  "druid_config”(通常是空的),
                  “druid_rules”(协作节点使用的一些规则信息,比如哪个segment从哪个node去load)
                  “druid_segments”(存储 每个segment的metadata信息);

            2 )Deep storage:

                存储segments,Druid目前已经支持本地磁盘,NFS挂载磁盘,HDFS,S3等。

            3) ZooKeeper:

                ①查询节点通过Zk来感知实时节点和历史节点的存在,提供查询服务。
                ②协调节点通过ZK感知历史节点,实现负载均衡
                ③统治节点、协调节点的lead选举

    4、实时Segment数据文件的流动:

          生成:

            ①实时节点(中间管理者)会周期性的将同一时间段生成的数据合并成一个Segment数据文件,并上传到DeepStorage中。        

            ②Segment数据文件的相关元数据信息保存到MetaStore中(如mysql,derby等)。        

            ③协调节点定时(默认1分钟)从MetaSotre中获取到Segment数据文件的相关元信息后,将按配置的规则分配到符合条件的历史节点中。        

            ④协调节点会通知一个历史节点去读        

            ⑤历史节点收到协调节点的通知后,会从DeepStorage中拉取该Segment数据文件到本地磁盘,并通过zookeeper向集群声明可以提供查询了。

            ⑥实时节点会丢弃该Segment数据文件,并通过zookeeper向集群声明不在提供该Sgment的查询服务。               //其实第四步已经可以提供查询服务了
            ⑦而对于全局数据来说,查询节点(Broker Node)会同时从实时节点与历史节点分别查询,对结果整合后返回用户。

          查询:

            查询首先进入Broker,按照时间进行查询划分
            确定哪些历史记录和 MiddleManager正在为这些段提供服务
            Historical / MiddleManager进程将接受查询,对其进行处理并返回结果

    5、DataSource

          Druid中的数据存储在被称为datasource中,类似RDMS中的table!!!

          

          每个datasource按照时间划分。每个时间范围称为一个chunk(一般都是以天分区,则一个chunk为一天)!!! //也可以按其他属性划分

          在chunk中数据被分为一个或多个segment,每个segment都是一个单独的文件,通常包含几百万行数据

          注:这些segment是按照时间组织成的chunk,所以在按照时间查询数据时,效率非常高。

          数据分区:

            任何分布式存储/计算系统,都需要对数据进行合理的分区,从而实现存储和计算的均衡,以及数据并行化。

            而Druid本身处理的是事件数据,每条数据都会带有一个时间戳,所以很自然的就可以使用时间进行分区。

            为什么一个chunk中的数据包含多个segment!!!????原因就是二级分区

          二级分区:

            很可能每个chunk的数据量是不均衡的,而Duid为了解决这种问题,提供了“二级分区”,每一个二级分区称为一个Shard(分片)
            其实chunk、datasource都是抽象的,实际的就是每个分区就是一个Shard,每个Shard只包含一个Segment!!!,因为Segment是Shard持久化的结果

            Druid目前支持两种Shard策略:

            Hash(基于维值的Hash)
            Range(基于某个维度的取值范围)

            譬如:

              2000-01-01,2000-01-02中的每一个分区都是一个Shard
              2000-01-02的数据量比较多,所以有两个Shard,分为partition0、partition1。每个分区都是一个Shard

              Shard经过持久化之后就称为了Segment,Segment是数据存储、复制、均衡(Historical的负载均衡)和计算的基本单元了。
              Segment具有不可变性,一个Segment一旦创建完成后(MiddleManager节点发布后)就无法被修改,
              只能通过生成一个新的Segment来代替旧版本的Segment。  

           Segment内部存储结构:

              Segment内部采用列式存储          //并不是说每列都是一个独立的文件,而是说每列有独立的数据结构,所有列都会存储在一个文件中

              Segment中的数据类型主要分为三种:

                时间戳
                维度列
                指标列

              对于时间戳列和指标列,实际存储是一个数组

              对于维度列不会像指标列和时间戳这么简单,因为它需要支持filter和group by:

              所以Druid使用了字典编码(Dictionary Encoding)和位图索引(Bitmap Index)来存储每个维度列。每个维度列需要三个数据结构:

                  1、需要一个字典数据结构,将维值(维度列值都会被认为是字符串类型)映射成一个整数ID。
                  2、使用上面的字典编码,将该列所有维值放在一个列表中。
                  3、对于列中不同的值,使用bitmap数据结构标识哪些行包含这些值。       //位图索引,这个需要记住

                  注:使用Bitmap位图索引可以执行快速过滤操作(找到符合条件的行号,以减少读取的数据量)


              Druid针对维度列之所以使用这三个数据结构,是因为:

                  使用字典将字符串映射成整数ID,可以紧凑的表示结构2和结构3中的值。
                  使用Bitmap位图索引可以执行快速过滤操作(找到符合条件的行号,以减少读取的数据量),因为Bitmap可以快速执行AND和OR操作。
                  对于group by和TopN操作需要使用结构2中的列值列表

                  实例:

                    1. 使用字典将列值映射为整数
                      {
                        "Justin Bieher":0,
                        "ke$ha":1
                      }
                    2. 使用1中的编码,将列值放到一个列表中

                      [0,0,1,1]

                    3. 使用bitmap来标识不同列值

                      value = 0: [1,1,0,0] //1代表该行含有该值,0标识不含有
                      value = 1: [0,0,1,1]

                      因为是一个稀疏矩阵,所以比较好压缩!!
                      Druid而且运用了Roaring Bitmap能够对压缩后的位图直接进行布尔运算,可以大大提高查询效率和存储效率(不需要解压缩)

           Segment命名:

                  如果一个Datasource下有几百万个Segment文件,我们又如何快速找出我们所需要的文件呢?答案就是通过文件名称快速索引查找。

                  Segment的命名包含四部分:

                      数据源(Datasource)、时间间隔(包含开始时间和结束时间两部分)、版本号和分区(Segment有分片的情况下才会有)。

                      eg:wikipedia_2015-09-12T00:00:00.000Z_2015-09-13T00:00:00.000Z_2019-09-09T10:06:02.498Z

                        wikipedia: Datasource名称
                        开始时间: 2015-09-12T00:00:00.000Z      //该Segment所存储最早的数据,时间格式是ISO 8601
                        结束时间: 2015-09-13T00:00:00.000Z      //该segment所存储最晚的数据,时间格式是ISO 8601
                        版本号: 2019-09-09T10:06:02.498Z         //此Segment的启动时间,因为Druid支持批量覆盖操作,
                                                 //当批量摄入与之前相同数据源、相同时间间隔数据时,数据就会被覆盖,这时候版本号就会被更新
                            分片号: 从0开始,如果分区号为0,可以省略 //分区的表现其实就是分目录

                  注:单机形式运行Druid,这样Druid生成的Segment文件都在${DRUID_HOME}/var/druid/segments 目录下
                  注:为了保证Druid的查询效率,每个Segment文件的大小建议在300MB~700MB之间
                  注:版本号的意义:

                        在druid,如果您所做的只是追加数据,那么每个时间chunk只会有一个版本。

                        但是当您覆盖数据时,因为druid通过首先加载新数据(但不允许查询)来处理这个问题,一旦新数据全部加载,
                        切换所有新查询以使用这些新数据。然后它在几分钟后掉落旧段!!!

            存储聚合:

                  无论是实时数据消费还是批量数据处理,Druid在基于DataSource机构存储数据时即可选择对任意的指标列进行聚合操作:

                  1、基于维度列:相同的维度列数据会进行聚合
                  2、基于时间段:某一时间段的所有行会进行聚合,时间段可以通过queryGranularity参数指定

                  聚合:提前做好sum,count等操作

            Segment生命周期:

                  在元数据存储中!每个Segment都会有一个used字段,标记该段是否能用于查询

                  is_Published:

                      当Segment构建完毕,就将元数据存储在元数据存储区中,此Segment为发布状态

                  is_available:

                      如果Segment当前可用于查询(实时任务或历史进程),则为true。

                  is_realtime:

                      如果是由实时任务产生的,那么会为true,但是一段时间之后,也会变为false

                  is_overshadowed:

                      标记该段是否已被其他段覆盖!处于此状态的段很快就会将其used标志自动设置为false。

    下一篇博客会用这个给大家做一个实例,让大家更好的了解!!!

  • 相关阅读:
    Android Studio生成APK自动追加版本号
    jquery.nicescroll.min.js滚动条使用方法
    Guid.NewGuid().ToString()生成唯一码js
    解决移动端H5海报滑动插件适应大部分手机问题 手机端高度自适应
    SouthidcEditor编辑器如何支持上传png图片
    谈灰色行业网站建设需要注意的事项
    33个免费的电子商务图标集
    WebKit的已实施srcset图像响应属性
    免费清新浅色图标集
    闪光的不一定是金子:设计数据的一种常见误解
  • 原文地址:https://www.cnblogs.com/lihaozong2013/p/11655594.html
Copyright © 2011-2022 走看看