zoukankan      html  css  js  c++  java
  • Hbase 学习笔记4----原理

    MapReduce 中如何处理HBase中的数据?如何读取HBase数据给Map?如何将结果存储到HBase中?

    Mapper类:包括一个内部类(Context)和四个方法(setup,map,cleanup,run);
              setup,cleanup用于管理Mapper生命周期中的资源。setup -> map -> cleanup , run方法执行了这个过程;
              map方法用于对一次输入的key/value对进行map动作,对应HBase操作也就是一行的处理;


    job的配置:
        1.  TableInputFormat完成了什么功能?
             (1)通过设置conf.set(TableInputFormat.INPUT_TABLE,"udc_sell");设定HBase的输入表;
                       设置conf.set(TableInputFormat.SCAN, TableMRUtil.convertScanToString(scan));设定对HBase输入表的scan方式;
                               
             (2)通过TableInputFormat.setConf(Configration conf)方法初始化scan对象;
                scan对象是从job中设置的对象,以字符串的形式传给TableInputFormat,在TableInputFormat内部将scan字符创转换为scan对象         
               * TableMapReduceUtily有两个方法:convertScanToString和convertStringToScan作用?
                将scan实例转换为Base64字符串  和将Base64字符串还原为scan实例;
              
             (3)TableInputFormat继承了TableInputFormatBase实现了InputFormat抽象类的两个抽象方法:
                getSplits()和createRecordReader()方法:



                 A:getSplits()断定输入对象的切分原则:对于TableInputFormatBase,会遍历HBase相应表的所有HRegion,每一 个HRegion都会被分成一个split

                所以切分的块数是与表中HRegion的数目是相同的;
                 InputSplit split = new TableSplit(table.getTableName(),splitStart, splitStop, regionLocation); 

                 在split中只会记载HRegion的其实rowkey和终止rowkey,具体的去读取这篇区域的数据是createRecordReader()实现的
                 计算出来的每一个分块都将被作为一个map Task的输入;
                     Q:但是分出的块分给那台机器的那个task去执行Map,即jobTracker如何调度任务给taskTracker?
                     A:  需要进一步了解Map的本地化运行机制和jobTracker的调度算法;(可能是就近原则)
                     对于一个map任务,jobtracker会考虑tasktracker的网络位置,并选取一个距离其输入分片文件最近的tasktracker。在最理 想 的情况下,任务是数据本地化的(data- local),也就是任务运行在输入分片所在的节点上。同样,任务也可能是机器本地化的:任务和输入分片在同一个机架,但不在同 一个节点上。
                          reduce任务,jobtracker简单滴从待运行的reduce任务列表中选取下一个来运行,用不着考虑数据段饿本地化。



    B:createRecordReader()按照必然格式读取响应数据:接收split块,返回读取记录的结果;  
                     public RecordReader<ImmutableBytesWritable, Result> createRecordReader(InputSplit split, TaskAttemptContext context){
                     
                    }
                    trr.init()返回的是这个分块的起始rowkey的记录;
               RecordReader将一个split解析成<key,value>对的形式提供给map函数,key就是rowkey,value就是对应的一行数据;
               RecordReader用于在划分中读取<Key,Value>对。RecordReader有五个虚方法,分别是:
                                              initialize:初始化,输入参数包括该Reader工作的数据划分InputSplit和Job的上下文context;
                                              nextKey:得到输入的下一个Key,如果数据划分已经没有新的记录,返回空;
                                              nextValue:得到Key对应的Value,必须在调用nextKey后调用;
                                              getProgress:得到现在的进度;
                                              close:来自java.io的Closeable接口,用于清理RecordReader。



       2.   job.setInputFormatClass(TableInputFormat.class);         
                                           
       3.   TableMapReduceUtil.initTableReducerJob("daily_result", DailyReduce.class, job); 
            使用了该方法就不需要再单独定义 
            initTableReducerJob()方法完成了一系列操作:
                    (1). job.setOutputFormatClass(TableOutputFormat.class); 设置输出格式;
                    (2). conf.set(TableOutputFormat.OUTPUT_TABLE, table); 设置输出表;
                    (3). 初始化partition

  • 相关阅读:
    在IDEA上本地更新同步Git中的更改
    protobuf的序列化和反序列化
    关于Pytorch报警告:Warning: indexing with dtype torch.uint8 is now deprecated, please use a dtype torch.bool instead
    990. 等式方程的可满足性
    死锁
    事务隔离
    Lab-1
    软件测试homework3
    TCP/UDP网络连接的固定写法
    软件测试Homework 2
  • 原文地址:https://www.cnblogs.com/hellochennan/p/5372612.html
Copyright © 2011-2022 走看看