zoukankan      html  css  js  c++  java
  • impala入门

    一、概述

    Impala 是参照google 的新三篇论文Dremel(大批量数据查询工具)的开源实现,功能类似shark(依赖于hive)和Drill(apache),impala 是clouder 公司主导开发并开源,基于
    hive并使用内存进行计算,兼顾数据仓库,具有实时,批处理,多并发等优点。是使用cdh 的首选PB 级大数据实时查询分析引擎。(也可以单独安装使用,但一般都是和CDH一起使用;)
    
    参考:
    https://www.cloudera.com/products/open-source/apache-hadoop/impala.html
    
    http://impala.apache.org/


    Impala可以直接在存储在HDFS,HBase或Amazon Simple Storage Service(S3)中的Apache Hadoop数据上提供快速,交互式的SQL查询。 除了使用相同的统一存储平台,
    Impala和Apache Hive一样还使用相同的元数据,SQL语法(Hive SQL),ODBC驱动程序和用户界面(Hue中的Impala查询UI)。
    
    Impala是用于查询大数据的工具的补充。 Impala不会替代基于MapReduce的批处理框架,如Hive。 基于MapReduce的Hive和其他框架最适用于长时间运行的批处理作业,
    例如涉及批处理Extract,Transform和Load(ETL)类型作业的工作。


    二、impala架构

    image


    Impala属于无主模型,没有再使用缓慢的 Hive+MapReduce批处理,而是通过使用与商用并行关系数据库中类似的分布式查询引擎(由Query Planner、Query Coordinator和
    Query Exec Engine三部分组成),可以直接从HDFS或HBase中用SELECT、JOIN和统计函数查询数据,从而大大降低了延迟。
    
    由于impala是基于hive的,impala表的元数据信息依然存储在Hive Metastore中;


    Statestore Daemon

    该进程负责搜集集群中Impalad进程节点的健康状况,它通过创建多个线程来处理Impalad的注册订阅,并与各节点保持心跳连接,不断地将健康状况的结果转发给所有的
    Impalad进程节点。一个Impala集群只需一个statestored进程节点,当某一节点不可用时,该进程负责将这一信息传递给所有的Impalad进程节点,再有新的查询时不会把请
    求发送到不可用的Impalad节点上。
    
    statestored也是允许挂掉的,不会影响集群运行,因为impalad节点之间也会保持通信,但是当statestored和某一部分impalad都挂掉了,就会出问题,因为没有了statestored,
    而impalad节点之间并不能识别出是否有某些impalad挂了,依然会与挂掉的impalad通信,此时就会出问题;


    Catalog Daemon

    把impala表的metadata分发到各个impalad 中,说他是基于hive 的,所以就需要metadata数据分到impalad 中,以前没有此进程,就是手动来进行同步的。虽然之后加入了,
    但是也没有那么智能,并不是保证所有的数据都能同步,比如你插入一些数据,他可以把数据发到其他节点,但是比如创建表ddl 语句,建议去手动做一下。接收来自
    statestore 的所有请求,当impala deamon节点插入或者查询数据时候(数据改变的时候),他把自己的操作结果汇报给state deamon,然后state store 请求catelog deamon,告知重
    新更新元数据信息给impalad 中,所以catalog deamon 与statedeamon 放到一台机器上,而且不建议在此机器上再去安装impala deamon 进程,避免造成提供查询造成集群管
    理出问题;


    Impala Daemon

    与DataNode运行在同一节点上,是Impala的核心组件,在每个节点上这个进程的名称为Impalad。该进程负责读写数据文件;接受来自Impala-shell、Hue、JDBC、ODBC等客
    户端的查询请求(接收查询请求的Impalad为Coordinator),Coordinator通过JNI调用java前端解释SQL查询语句,生成查询计划树,再通过调度器把执行计划分发给具有相应
    数据的其它节点分布式并行执行,并将各节点的查询结果返回给中心协调者节点Coordinator,再由该节点返回给客户端。同时Impalad会与State Store保持通信,以了解其
    他节点的健康状况和负载。


    Impalad 里面的三个组件

    impalad:
    impala statestore 和catalog server两个角色,就具备集群调节的功能;
    真正的工作就是在impalad节点上,客户端执行查询的时候可以选一个impalad节点来执行,此时这个节点的内存要配置大一些,因为最后要汇总查询结果;
    当选定impalad节点后,此节点上的Query coordinato进程会进行协调,找到与此查询相关的数据块在哪些机器节点上,然后由每个节点的Query executor进程负责查询;
    也可以写一个轮询或者权重算法,当有查询任务时,负载到一批impalad节点上,解决高并发问题;
    
    
    Query planner(查询解析器):
    接收来自SQL APP和ODBC等的查询,然后将查询转换为许多子查询(执行计划),相当于一个代理;
    
    Query coordinator(中心协调节点):
    将这些子查询分发到各个节点上
    
    Query executor(查询执行器):
    真正负责子查询的执行,然后返回子查询的结果,这些中间结果经过聚集之后最终返回给用户。


    三、impala安装

    安装就不说了,对于熟悉CDH的朋友来说,是很简单的,完全图形化操作;

    一般有两种方式:

    1、cloudermanager安装(建议)

    方便、快捷

    2、手动安装(不建议)

    没试过,估计有坑


    四、impala shell

    外部shell:

    外部shell也就是在Linux命令行里配合"impala-shell"命令使用的;
    
    -h (--help) 帮助
    -v (--version) 查询版本信息-V(--verbose) 启用详细输出
    --quiet 关闭详细输出
    -p 显示执行计划
    -i hostname(--impalad=hostname) 指定连接主机 格式hostname:port 默认端口21000
    -r(--refresh_after_connect)刷新所有元数据,全量刷新,不太建议使用,当数据量大的时候很慢,还可能导致某些节点出问题。
    -q query(--query=query) 从命令行执行查询,不进入impala-shell
    -d default_db(--database=default_db) 指定数据库
    -B(--delimited)去格式化输出
        --output_delimiter=character 指定分隔符
        --print_header 打印列名
    -f query_file(--query_file=query_file)执行查询文件,也就是执行SQL文件,文件内容以分号分隔
    -o filename(--output_file filename) 结果输出到指定文件
    -c 查询执行失败时继续执行,也就是跳过失败的sql语句
    -k(--kerberos) 使用kerberos安全加密方式运行impala-shell
    -l 启用LDAP认证
    -u 启用LDAP时,指定用户名Impala Shell


    内部shell:

    内部sell,也就是使用“impala-shell”命令连接进impala后使用的;
    
    help 帮助选项
    connect <hostname:port> 连接到某个impalad 实例,默认端口21000 
    refresh <tablename> 增量刷新元数据库 
    invalidate metadata 全量刷新元数据库,性能消耗较大
    explain <sql> 显示查询执行计划、步骤信息
    set explain_level 设置显示级别( 0,1,2,3),越高信息越详细
    shell <shell> 不退出impala-shell执行Linux命令
        impala>shell ls /home
    profile (查询完成后执行) 查询最近一次查询的底层信息


    五、web监控

    impala提供了StateStore和Catalog进程的web监控页面;

    StateStore:

    http://ip:25020


    Catalog:

    http://ip:25010
  • 相关阅读:
    如何在SQL/400中计算两日期间的天数
    委托、事件与Observer设计模式
    C# 杂项
    泛型学习(二)
    委托
    操作符重载 (operator)
    一个解决方案多个项目
    将方法绑定到委托
    事件
    密封方法 密封类(sealed)
  • 原文地址:https://www.cnblogs.com/weiyiming007/p/11981686.html
Copyright © 2011-2022 走看看