zoukankan      html  css  js  c++  java
  • hive学习1(hive基本概念)

    hive基本概念

    hive简介

    hive是什么

    Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。

    为什么使用hive

    1)简单易上手。提供了类sql查询语言HQL,提供快速开发的能力。

    2)避免了去写MapReduce,减少开发人员的学习成本。

    3)统一的元数据管理(HCalalog)。可与pig,presto等共享。

    4)为超大数据集设计的计算/扩展能力。MR作为计算引擎,HDFS作为存储系统。

    hive的特点

    • 可扩展
      Hive可以自由的扩展集群的规模,一般情况下不需要重启服务。

    • 延展性
      Hive支持用户自定义函数,用户可以根据自己的需求来实现自己的函数。

    • 容错
      良好的容错性,节点出现问题SQL仍可完成执行。

    hive的系统架构

    hive基本组成

    1)用户接口

    • CLI,JDBC/ODBC,WebUI

    2)元数据存储(matastore)

    • 默认存储在自带的数据库derby中,线上使用时一般换为MySQL

    3)驱动器(Driver)

    • 解析器,编译器,优化器,执行器

    4)Hadoop

    • 用MR计算,用HDFS存储

    hive各组件基本功能

    • 用户接口主要由三个:CLI、JDBC/ODBC和WebGUI。其中,CLI为shell命令行;JDBC/ODBC是Hive的JAVA实现,与传统数据库JDBC类似;WebGUI是通过浏览器访问Hive

    • 元数据存储:Hive 将元数据存储在数据库中。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。

    • 解释器、编译器、优化器完成 HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有 MapReduce 调用执行。

    Hive与SQL的比较

    1)查询语言

    • hive使用类SQL的HQL
    • sql使用sql

    2)数据存储位置

    • hive是将数据存储在HDFS中
    • sql可以将数据保存在块设备或者本地文件系统中

    3)数据格式

    • Hive 中没有定义专门的数据格式,数据格式可以由用户指定,用户定义数据格式需要指定三个属性:列分隔符(通常为空格、” ”、”x001″)、行分隔符(” ”)以及读取文件数据的方法(Hive 中默认有三个文件格式 TextFile,SequenceFile 以及 RCFile)
    • 数据库中,不同的数据库有不同的存储引擎,定义了自己的数据格式

    4)数据更新

    • Hive 中不支持对数据的改写和添加,所有的数据都是在加载的时候中确定好的
    • sql支持数据更新

    5)执行延迟

    • hive延迟性高
    • sql延迟性低

    6)扩展性

    • hive扩展性好
    • sql扩展性有限

    7)索引

    • hive和sql都支持索引

    8)分区

    hive和sql都支持分区

    hive的数据存储

    • hive的所有数据存储基于hadoop的HDFS,hive没有专门的数据存储格式(可支持Text,SequenceFile,ParquetFile,RCFILE等)

    • 在创建表时,指定Hive 数据的列分隔符和行分隔符,Hive 就可以解析数据

    • 存储结构主要包括:数据库、文件、表、视图、索引

    • Hive 中包含以下数据模型:DB、Table,External Table,Partition,Bucket

    1) db:在hdfs中表现为${hive.metastore.warehouse.dir}目录下一个文件夹

    2) table:在hdfs中表现所属db目录下一个文件夹
    3) external table:外部表, 与table类似,不过其数据存放位置可以在任意指定路径。普通表:删除表后,hdfs上的文件都删了;外部表删除后, hdfs上的文件没有删除, 只是把文件删除了
    4) partition:在hdfs中表现为table目录下的子目录
    5) bucket:桶, 在hdfs中表现为同一个表目录下根据hash散列之后的多个文件, 会根据不同的文件把数据放到不同的文件中

  • 相关阅读:
    让Vim查找字符忽略大小写
    How to Add a User to Sudoers on Ubuntu
    Docker 批量删除images
    解决 Laradock 安装时候出现 Can't open /home/laradock/.nvm/nvm.sh 的问题
    Add User To Docker Group In Ubuntu Linux
    Parted分区和创建逻辑卷LVM
    How To List Users and Groups on Linux
    How to Install Node.js and NPM on Mac OS
    linux中的alias命令详解
    Hadoop数据类型
  • 原文地址:https://www.cnblogs.com/wujiadong2014/p/6058552.html
Copyright © 2011-2022 走看看