zoukankan      html  css  js  c++  java
  • HBASE--MapReduce

    1、查看 HBase 的 MapReduce 任务的执行

    $ bin/hbase mapredcp

    2、执行环境变量的导入

    $ export HBASE_HOME= ~/hadoop_home/hbase-1.2.6
    $ export HADOOP_HOME= ~/hadoop_home
    $ export HADOOP_CLASSPATH=`${HBASE_HOME}/bin/hbase mapredcp`
    本句的环境变量可以不用加入 ~/.profile里面

    不过要在哪个shell里执行哪个才能用jar包

    3) 运行官方的 MapReduce 任务
    -- 案例一:统计 Student 表中有多少行数据
    cd /home/hadoop/hadoop_home/hbase-1.2.6

    (文件夹路径环境变量,只是使用没有配置,所以进入此路径下)

    $ yarn jar lib/hbase-server-1.2.6.jar rowcounter student

    案例二:使用 MapReduce 将本地数据导入到 HBase
    (1) 在本地创建一个 tsv 格式的文件:fruit.tsv

    1001 Apple Red
    1002 Pear Yellow
    1003 PineappleYellow

    尖叫提示:上面的这个数据不要从文中直接复制,有格式错误
    (2)

    创建 HBase 表

    hbase(main):001:0> create 'fruit','info
    (3) 在 HDFS 中创建 input_fruit 文件夹并上传 fruit.tsv 文件

    $ hdfs dfs -mkdir /input_fruit/
    $ hdfs dfs -put fruit.tsv /input_fruit/
    (4) 执行 MapReduce 到 HBase 的 fruit 表中
    cd /home/hadoop/hadoop_home/hbase-1.2.6

    $ yarn jar lib/hbase-server-1.2.6.jar importtsv
    -Dimporttsv.columns=HBASE_ROW_KEY,info:name,info:color fruit
    hdfs://master:9000/input_fruit
    (5) 使用 scan 命令查看导入后的结果

    hbase(main):001:0> scan ‘fruit
    2.5.2、自定义 HBase-MapReduce1
    目标:将 fruit 表中的一部分数据,通过 MR 迁入到 fruit_mr 表中。
    分步实现:
    1) 构建 ReadFruitMapper 类,用于读取 fruit 表中的数据
    package com.yjsj.hbase_mr;
    import java.io.IOException;
    import org.apache.hadoop.hbase.Cell;
    import org.apache.hadoop.hbase.CellUtil;

    import org.apache.hadoop.hbase.client.Put;
    import org.apache.hadoop.hbase.client.Result;
    import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
    import org.apache.hadoop.hbase.mapreduce.TableMapper;
    import org.apache.hadoop.hbase.util.Bytes;
    public class ReadFruitMapper extends TableMapper<ImmutableBytesWritable, Put> {
      @Override
      protected void map(ImmutableBytesWritable key, Result value, Context context)
      throws IOException, InterruptedException {
        //将 fruit 的 name 和 color 提取出来,相当于将每一行数据读取出来放入到 Put 对象中。
        Put put = new Put(key.get());
        //遍历添加 column 行
        for(Cell cell: value.rawCells()){
          //添加/克隆列族:info
          if("info".equals(Bytes.toString(CellUtil.cloneFamily(cell)))){
            //添加/克隆列:name
            if("name".equals(Bytes.toString(CellUtil.cloneQualifier(cell)))){
              //将该列 cell 加入到 put 对象中
              put.add(cell);
            //添加/克隆列:color
            }else if("color".equals(Bytes.toString(CellUtil.cloneQualifier(cell)))){
              //向该列 cell 加入到 put 对象中
              put.add(cell);
            }
          }
        }

        //将从 fruit 读取到的每行数据写入到 context 中作为 map 的输出
        context.write(key, put);
      }
    }

    2) 构建 WriteFruitMRReducer 类,用于将读取到的 fruit 表中的数据写入到 fruit_mr 表中

    package com.yjsj.hbase_mr;
    import java.io.IOException;
    import org.apache.hadoop.hbase.client.Put;
    import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
    import org.apache.hadoop.hbase.mapreduce.TableReducer;
    import org.apache.hadoop.io.NullWritable;
    public class WriteFruitMRReducer extends TableReducer<ImmutableBytesWritable, Put,
    NullWritable> {
      @Override
      protected void reduce(ImmutableBytesWritable key, Iterable<Put> values, Context context)
      throws IOException, InterruptedException {
        //读出来的每一行数据写入到 fruit_mr 表中
        for(Put put: values){
          context.write(NullWritable.get(), put);
        }
      }
    }

    3) 构建 Fruit2FruitMRRunner extends Configured implements Tool 用于组装运行 Job
    任务
    class Txt2FruitRunner extends Configured implements Tool {

      //组装 Job
      public int run(String[] args) throws Exception {

        //得到 Configuration
        Configuration conf = this.getConf();
        //创建 Job 任务
        Job job = Job.getInstance(conf, this.getClass().getSimpleName());
        job.setJarByClass(Fruit2FruitMRRunner.class);
        //配置 Job
        Scan scan = new Scan();
        scan.setCacheBlocks(false);
        scan.setCaching(500);
        //设置 Mapper,注意导入的是 mapreduce 包下的,不是 mapred 包下的,后者是老
        版本
        TableMapReduceUtil.initTableMapperJob(
          "fruit", //数据源的表名
          scan, //scan 扫描控制器
          ReadFruitMapper.class,//设置 Mapper 类
          ImmutableBytesWritable.class,//设置 Mapper 输出 key 类型
          Put.class,//设置 Mapper 输出 value 值类型
          job//设置给哪个 JOB
        );
        //设置 Reducer
        TableMapReduceUtil.initTableReducerJob("fruit_mr", WriteFruitMRReducer.class,
        job);
        //设置 Reduce 数量,最少 1 个
        job.setNumReduceTasks(1);
        boolean isSuccess = job.waitForCompletion(true);

        if(!isSuccess){
          throw new IOException("Job running with error");
        }
        return isSuccess ? 0 : 1;
      }

    4) 主函数中调用运行该 Job 任务

    public static void main( String[] args ) throws Exception{
      Configuration conf = HBaseConfiguration.create();


      conf = HBaseConfiguration.create();
      conf.set("hbase.zookeeper.quorum", "master,node1,node2");
      conf.set("hbase.zookeeper.property.clientPort", "2181");
      conf.set("hbase.master", "master:60000");


      int status = ToolRunner.run(conf, new Fruit2FruitMRRunner(), args);
      System.exit(status);
    }

    :加入zookeeper代码
    conf = HBaseConfiguration.create();
    conf.set("hbase.zookeeper.quorum", "master,node1,node2");
    conf.set("hbase.zookeeper.property.clientPort", "2181");
    conf.set("hbase.master", "master:60000");

    5) 打包运行任务(参考java打包,而且打包需要zip 格式一下)

    $ ~/hadoop_home/bin/yarn jar ~/hadoop_home/TestHbase.jar
    com.yjsj.hbase.mr1.Fruit2FruitMRRunner

    尖叫提示:运行任务前,如果待数据导入的表不存在,则需要提前创建之。
    尖叫提示:maven 打包命令:-P local clean package 或-P dev clean package install(将第三方
    jar 包一同打包,需要插件:maven-shade-plugin)

    2.5.3、自定义HBase-MapReduce2
    目标:实现将 HDFS 中的数据写入到 HBase 表中
    分步实现:
    1) 构建 ReadFruitFromHDFSMapper 于读取 HDFS 中的文件数据

    package com.yjsj.hbase_mr2;
    import java.io.IOException;
    import org.apache.hadoop.hbase.client.Put;
    import org.apache.hadoop.hbase.io.ImmutableBytesWritable;

    import org.apache.hadoop.hbase.util.Bytes;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    public class ReadFruitFromHDFSMapper extends Mapper<LongWritable, Text,
    ImmutableBytesWritable, Put> {
    @Override
    protected void map(LongWritable key, Text value, Context context) throws IOException,
    InterruptedException {
    //从 HDFS 中读取的数据
    String lineValue = value.toString();
    //读取出来的每行数据使用 进行分割,存于 String 数组
    String[] values = lineValue.split(" ");
    //根据数据中值的含义取值
    String rowKey = values[0];
    String name = values[1];
    String color = values[2];
    //初始化 rowKey
    ImmutableBytesWritable rowKeyWritable = new
    ImmutableBytesWritable(Bytes.toBytes(rowKey));
    //初始化 put 对象
    Put put = new Put(Bytes.toBytes(rowKey));
    //参数分别:列族、列、值

    put.add(Bytes.toBytes("info"), Bytes.toBytes("name"), Bytes.toBytes(name));
    put.add(Bytes.toBytes("info"), Bytes.toBytes("color"), Bytes.toBytes(color));
    context.write(rowKeyWritable, put);
    }
    }

    2) 构建 WriteFruitMRFromTxtReducer 类

    package com.yjsj.hbase_mr2;
    import java.io.IOException;
    import org.apache.hadoop.hbase.client.Put;
    import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
    import org.apache.hadoop.hbase.mapreduce.TableReducer;
    import org.apache.hadoop.io.NullWritable;
    public class WriteFruitMRFromTxtReducer extends TableReducer<ImmutableBytesWritable, Put,
    NullWritable> {
    @Override
    protected void reduce(ImmutableBytesWritable key, Iterable<Put> values, Context context)
    throws IOException, InterruptedException {
    //读出来的每一行数据写入到 fruit_hdfs 表中
    for(Put put: values){
    context.write(NullWritable.get(), put);
    }
    }
    }

    3) 创建 Txt2FruitRunner 组装 Job

    class Txt2FruitRunner extends Configured implements Tool {

    public int run(String[] args) throws Exception {
    //得到 Configuration
    Configuration conf = this.getConf();
    //创建 Job 任务
    Job job = Job.getInstance(conf, this.getClass().getSimpleName());
    job.setJarByClass(Txt2FruitRunner.class);
    Path inPath = new Path("hdfs://master:9000/input_fruit/fruit.tsv");
    FileInputFormat.addInputPath(job, inPath);
    //设置 Mapper
    job.setMapperClass(ReadFruitFromHDFSMapper.class);
    job.setMapOutputKeyClass(ImmutableBytesWritable.class);
    job.setMapOutputValueClass(Put.class);
    //设置 Reducer
    TableMapReduceUtil.initTableReducerJob("fruit_hdfs", WriteFruitMRFromTxtReducer.class, job);
    //设置 Reduce 数量,最少 1 个
    job.setNumReduceTasks(1);
    boolean isSuccess = job.waitForCompletion(true);
    if(!isSuccess){
    throw new IOException("Job running with error");
    }
    return isSuccess ? 0 : 1;
    }

    4) 调用执行 Job

    public static void main(String[] args) throws Exception {
    Configuration conf = HBaseConfiguration.create();

    conf = HBaseConfiguration.create();
    conf.set("hbase.zookeeper.quorum", "master,node1,node2");
    conf.set("hbase.zookeeper.property.clientPort", "2181");
    conf.set("hbase.master", "master:60000");


    int status = ToolRunner.run(conf, new Txt2FruitRunner(), args);
    System.exit(status);
    }

    注:
    conf = HBaseConfiguration.create();
    conf.set("hbase.zookeeper.quorum", "master,node1,node2");
    conf.set("hbase.zookeeper.property.clientPort", "2181");
    conf.set("hbase.master", "master:60000");

    5) 打包运行(参考java打包,而且打包需要zip 格式一下)

    $ ~/hadoop_home/bin/yarn jar ~/softwares/jars/hbase-0.0.1-SNAPSHOT.jar
    com.z.hbase.mr2.Txt2FruitRunner

    尖叫提示:运行任务前,如果待数据导入的表不存在,则需要提前创建之。
    尖叫提示:maven 打包命令:-P local clean package 或-P dev clean package install(将第三方
    jar 包一同打包,需要插件:maven-shade-plugin)

    2.6、与 Hive 的集成
    2.6.1、HBase 与 Hive 的对比
    1) Hive
    (1) 数据仓库
    Hive 的本质其实就相当于将 HDFS 中已经存储的文件在 Mysql 中做了一个双射关系,以方
    便使用 HQL 去管理查询。
    (2) 用于数据分析、清洗
    Hive 适用于离线的数据分析和清洗,延迟较高。
    (3) 基于 HDFS、MapReduce
    Hive 存储的数据依旧在 DataNode 上,编写的 HQL 语句终将是转换为 MapReduce 代码执行。
    2) HBase
    (1) 数据库
    是一种面向列存储的非关系型数据库。
    (2) 用于存储结构化和非结构话的数据 适用于单表非关系型数据的存储,不适合做关联查

    (3) 基于 HDFS
    数据持久化存储的体现形式是 Hfile,存放于 DataNode 中,被 ResionServer 以 region 的形式
    进行管理。
    (4) 延迟较低,接入在线业务使用
    面对大量的企业数据,HBase 可以直线单表大量数据的存储,同时提供了高效的数据访问速
    度。
    2.6.2、HBase 与 Hive 集成使用
    尖叫提示:HBase 与 Hive 的集成在最新的两个版本中无法兼容。所以,我们只能含着泪勇
    敢的重新编译:hive-hbase-handler-1.2.2.jar!!好气!!
    环境准备
    因为我们后续可能会在操作 Hive 的同时对 HBase 也会产生影响,所以 Hive 需要持有操作
    HBase 的 Jar,那么接下来拷贝 Hive 所依赖的 Jar 包(或者使用软连接的形式)。



  • 相关阅读:
    概述和HTTP请求 和 响应处理
    编写一个函数,在页面上输出一个N行M列的表格,表格内容填充1~100的随机数字
    js简介及js基本数据类型
    浅谈 Java线程状态转换及控制
    浅谈 Java多线程
    浅谈 ArrayList 及其扩容机制
    Java 中 static 的作用
    合并两个有序数组
    贪心算法——换酒问题
    查找——二分查找
  • 原文地址:https://www.cnblogs.com/pursue339/p/10540538.html
Copyright © 2011-2022 走看看