zoukankan      html  css  js  c++  java
  • HIVE的高级操作

    二、视图

    1、Hive 的视图和关系型数据库的视图区别

    和关系型数据库一样,Hive 也提供了视图的功能,不过请注意,Hive 的视图和关系型数据库的数据还是有很大的区别:

      (1)只有逻辑视图,没有物化视图;

      (2)视图只能查询,不能 Load/Insert/Update/Delete 数据;

      (3)视图在创建时候,只是保存了一份元数据,当查询视图的时候,才开始执行视图对应的 那些子查询

    2、Hive视图的创建语句

    create view view_cdt as select * from cdt;

    3、Hive视图的查看语句

    show views;
    desc view_cdt;-- 查看某个具体视图的信息

    4、Hive视图的使用语句

    select * from view_cdt;

    5、Hive视图的删除语句

    drop view view_cdt;

    三、函数

    1、内置函数

    具体可看http://www.cnblogs.com/qingyunzong/p/8744593.html

    (1)查看内置函数

    show functions;

    (2)显示函数的详细信息

    desc function substr;

    (3)显示函数的扩展信息

    desc function extended substr;

    2、自定义函数UDF

    当 Hive 提供的内置函数无法满足业务处理需要时,此时就可以考虑使用用户自定义函数。

    UDF(user-defined function)作用于单个数据行,产生一个数据行作为输出。(数学函数,字 符串函数)

    UDAF(用户定义聚集函数 User- Defined Aggregation Funcation):接收多个输入数据行,并产 生一个输出数据行。(count,max)

    UDTF(表格生成函数 User-Defined Table Functions):接收一行输入,输出多行(explode)

    (1) 简单UDF示例

    A. 导入hive需要的jar包,自定义一个java类继承UDF,重载 evaluate 方法

    ToLowerCase.java

    复制代码
    import org.apache.hadoop.hive.ql.exec.UDF;
    
    public class ToLowerCase extends UDF{
        
        // 必须是 public,并且 evaluate 方法可以重载
        public String evaluate(String field) {
        String result = field.toLowerCase();
        return result;
        }
        
    }
    复制代码

    B. 打成 jar 包上传到服务器

    C. 将 jar 包添加到 hive 的 classpath

    add JAR /home/hadoop/udf.jar;

    D. 创建临时函数与开发好的 class 关联起来

    0: jdbc:hive2://hadoop3:10000> create temporary function tolowercase as 'com.study.hive.udf.ToLowerCase';

    E. 至此,便可以在 hql 在使用自定义的函数

    0: jdbc:hive2://hadoop3:10000> select tolowercase('HELLO');

    (2) JSON数据解析UDF开发

    现有原始 json 数据(rating.json)如下

    {"movie":"1193","rate":"5","timeStamp":"978300760","uid":"1"}

    {"movie":"661","rate":"3","timeStamp":"978302109","uid":"1"}

    {"movie":"914","rate":"3","timeStamp":"978301968","uid":"1"}

    {"movie":"3408","rate":"4","timeStamp":"978300275","uid":"1"}

    {"movie":"2355","rate":"5","timeStamp":"978824291","uid":"1"}

    {"movie":"1197","rate":"3","timeStamp":"978302268","uid":"1"}

    {"movie":"1287","rate":"5","timeStamp":"978302039","uid":"1"}

    {"movie":"2804","rate":"5","timeStamp":"978300719","uid":"1"}

    {"movie":"594","rate":"4","timeStamp":"978302268","uid":"1"}

    现在需要将数据导入到 hive 仓库中,并且最终要得到这么一个结果:

    该怎么做、???(提示:可用内置 get_json_object 或者自定义函数完成)

    A. get_json_object(string json_string, string path)

    返回值: string  

    说明:解析json的字符串json_string,返回path指定的内容。如果输入的json字符串无效,那么返回NULL。  这个函数每次只能返回一个数据项。

    0: jdbc:hive2://hadoop3:10000> select get_json_object('{"movie":"594","rate":"4","timeStamp":"978302268","uid":"1"}','$.movie');

    创建json表并将数据导入进去

    0: jdbc:hive2://hadoop3:10000> create table json(data string);
    No rows affected (0.983 seconds)
    0: jdbc:hive2://hadoop3:10000> load data local inpath '/home/hadoop/json.txt' into table json;
    No rows affected (1.046 seconds)
    0: jdbc:hive2://hadoop3:10000> 

     

    0: jdbc:hive2://hadoop3:10000> select 
    . . . . . . . . . . . . . . .> get_json_object(data,'$.movie') as movie 
    . . . . . . . . . . . . . . .> from json;

    B. json_tuple(jsonStr, k1, k2, ...)

    参数为一组键k1,k2……和JSON字符串,返回值的元组。该方法比 get_json_object 高效,因为可以在一次调用中输入多个键

    复制代码
    0: jdbc:hive2://hadoop3:10000> select 
    . . . . . . . . . . . . . . .>   b.b_movie,
    . . . . . . . . . . . . . . .>   b.b_rate,
    . . . . . . . . . . . . . . .>   b.b_timeStamp,
    . . . . . . . . . . . . . . .>   b.b_uid   
    . . . . . . . . . . . . . . .> from json a 
    . . . . . . . . . . . . . . .> lateral view json_tuple(a.data,'movie','rate','timeStamp','uid') b as b_movie,b_rate,b_timeStamp,b_uid;
    复制代码

    (3) Transform实现

    Hive 的 TRANSFORM 关键字提供了在 SQL 中调用自写脚本的功能。适合实现 Hive 中没有的 功能又不想写 UDF 的情况

    具体以一个实例讲解。

    Json 数据: {"movie":"1193","rate":"5","timeStamp":"978300760","uid":"1"}

    需求:把 timestamp 的值转换成日期编号

    1、先加载 rating.json 文件到 hive 的一个原始表 rate_json

    create table rate_json(line string) row format delimited;
    load data local inpath '/home/hadoop/rating.json' into table rate_json;

    2、创建 rate 这张表用来存储解析 json 出来的字段:

    create table rate(movie int, rate int, unixtime int, userid int) row format delimited fields
    terminated by '	';

    解析 json,得到结果之后存入 rate 表:

    复制代码
    insert into table rate select
    get_json_object(line,'$.movie') as moive,
    get_json_object(line,'$.rate') as rate,
    get_json_object(line,'$.timeStamp') as unixtime,
    get_json_object(line,'$.uid') as userid
    from rate_json;
    复制代码

    3、使用 transform+python 的方式去转换 unixtime 为 weekday

    先编辑一个 python 脚本文件

    按 Ctrl+C 复制代码
    按 Ctrl+C 复制代码

    保存文件 然后,将文件加入 hive 的 classpath:

    hive>add file /home/hadoop/weekday_mapper.py;
    hive> insert into table lastjsontable select transform(movie,rate,unixtime,userid)
    using 'python weekday_mapper.py' as(movie,rate,weekday,userid) from rate;

    创建最后的用来存储调用 python 脚本解析出来的数据的表:lastjsontable

    create table lastjsontable(movie int, rate int, weekday int, userid int) row format delimited
    fields terminated by '	';

    最后查询看数据是否正确

    select distinct(weekday) from lastjsontable;
  • 相关阅读:
    HDUOJ---2152
    HDUOJ ---悼念512汶川大地震遇难同胞——来生一起走
    HDUOJ --2566
    HDUOJ ----1709
    HDUOJ---1171
    HDUOJ ------1398
    catalan---卡特兰数(小结)
    向前字典排序
    HDUOJ--Holding Bin-Laden Captive!
    HDUOJ----Ignatius and the Princess III
  • 原文地址:https://www.cnblogs.com/dll102/p/12055776.html
Copyright © 2011-2022 走看看