zoukankan      html  css  js  c++  java
  • Hadoop的mapreduce开发过程,我遇到的错误集锦(持续更新)

    1.Text包导错了。

    将import com.sun.jersey.core.impl.provider.entity.XMLJAXBElementProvider.Text;

    改为import org.apache.hadoop.io.Text;

    .

    2.本地编译环境和生产环境中的java版本不匹配。有可能是jdk不匹配,也可能是jre不匹配。都匹配就不会有这个问题

    3.map与reduce都要是分别重载Mapper和Reducer类。不能是自己定义的方法

    4.Job的写法问题:

      第一种写法:Mapper、Reducer、JobRunner等自定义的类均写到单独的类文件中,如:

          

          第一种写法:Mapper、Reducer、JobRunner等自定义的类均写到一个类文件中,那么

        总结:不管哪种写法,在hadoop2.5.2中,其他的版本我没试,不知道,不过吴超老师在handoop1.1.2中写的代码好像没写这句,也执行成功了!

                 可能是1x与2x的区别吧。有空再测试一下

        job.setJarByClass(你的组装、提交的类名字.class);是必不可少的
            Configuration conf=new Configuration();
            Job job=new Job(conf, JobRunner.class.getSimpleName());
    job.setJarByClass(JobRunner.class);

    5.自定义封装数据类型中,实现Writable接口或者WritableComparator接口时候。

               实现序列化write()和反序列化readfields()方法中

               封装数据中的属性的序列化和反序列化的前后顺序要相对应!如下:

           @Override
        public void readFields(DataInput in) throws IOException {
            this.upPackNum=in.readLong();
            this.downPackNum=in.readLong();
            this.upPayLoad=in.readLong();
            this.downPayLoad=in.readLong();
        }
        @Override
        public void write(DataOutput out) throws IOException {
            out.writeLong(upPackNum);
            out.writeLong(downPackNum);
            out.writeLong(upPayLoad);
            out.writeLong(downPayLoad);
        }
  • 相关阅读:
    HttpRunner3.X
    基于C++的ByteBuf封装
    关于matlab的配色
    关于样本方差的无偏估计
    使用Python求解Nonogram
    菜鸡的一些力扣记录
    LeetCode链表练习
    C语言中的链表
    Python中的链表简介
    Nebula Graph 源码解读系列 | Vol.03 Planner 的实现
  • 原文地址:https://www.cnblogs.com/felixzh/p/4697076.html
Copyright © 2011-2022 走看看