zoukankan      html  css  js  c++  java
  • Hadoop--序列化

    序列化:

    对象的序列化用于将一个对象编码成字节流,以及从字节流中重新构建对象。

    将一个对象编码成一个字节流称为序列化该对象。

    序列化三种主要的用途:

    1.作为一种持久化格式。

    2.作为一种通信的数据格式。

    3.作为一种拷贝、克隆机制。

    分布式处理中主要用了上面2种,持久化格式和通信数据格式。

    Hadoop序列化机制:

    Hadoop序列化机制是调用的write方法将对象序列化到流中,调用readFiles方法进行反序列化。

    java序列化机制与Hadoop序列化机制区别:

    java:反序列化过程中不断的创建新对象。

    Hadoop:反序列化的工程中,可以服用对象,也就是说在同一个对象上得到多个反序列化的结果。

    减少了java对象的分配和回收,提高了应用的效率。

    Hadoop序列化机制的特征

    1.紧凑:Hadoop中最稀缺的资源是宽带,所以紧凑的序列化机制可以充分的利用宽带。

    2.快速:通信时大量使用序列化机制,因此,需要减少序列化和反序列化的开销。

    3.可扩展:随着通信协议的升级而可升级。

    4.互操作:支持不同开发语言的通信。

    Hadoop Writable机制

    Hadoop通过Writable接口实现的序列化机制。

    接口提供连个方法,write和readFiles。

    Hadoop还包含另外几个重要的序列化接口,WritableCompareable、RawComparator、WritableComparator。

    Writable

    类PersonWritable继承自WritableComparable,所以类中要实现write和readFiles两个方法。

    代码来自私塾在线,TestCompression工程中。

    代码:

    package com.test;
    
    import java.io.DataInput;
    import java.io.DataOutput;
    import java.io.IOException;
    
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.io.WritableComparable;
    
    public class PersonWritable implements WritableComparable<PersonWritable> {
    
    	Text name = new Text();
    	Text sex = new Text();
    	IntWritable age = new IntWritable();
    
    	public PersonWritable() {
    		set("tom", "man", 12);
    	}
    
    	public void set(String name, String sex, int age) {
    		this.name = new Text(name);
    		this.sex = new Text(sex);
    		this.age = new IntWritable(age);
    	}
    
    	public PersonWritable(String name, String sex, int age) {
    		set(name, sex, age);
    	}
    
    	@Override
    	public String toString() {
    		return "PersonWritable [name=" + name.toString() + ", sex="
    				+ sex.toString() + ", age=" + age.get() + "]";
    	}
    
    	@Override
    	public int hashCode() {
    		final int prime = 31;
    		int result = 1;
    		result = prime * result + ((age == null) ? 0 : age.hashCode());
    		result = prime * result + ((name == null) ? 0 : name.hashCode());
    		result = prime * result + ((sex == null) ? 0 : sex.hashCode());
    		return result;
    	}
    
    	@Override
    	public boolean equals(Object obj) {
    		if (this == obj)
    			return true;
    		if (obj == null)
    			return false;
    		if (getClass() != obj.getClass())
    			return false;
    		PersonWritable other = (PersonWritable) obj;
    		if (age == null) {
    			if (other.age != null)
    				return false;
    		} else if (!age.equals(other.age))
    			return false;
    		if (name == null) {
    			if (other.name != null)
    				return false;
    		} else if (!name.equals(other.name))
    			return false;
    		if (sex == null) {
    			if (other.sex != null)
    				return false;
    		} else if (!sex.equals(other.sex))
    			return false;
    		return true;
    	}
    
    	@Override
    	public void readFields(DataInput arg0) throws IOException {
    		name.readFields(arg0);
    		sex.readFields(arg0);
    		age.readFields(arg0);
    	}
    
    	@Override
    	public void write(DataOutput arg0) throws IOException {
    		name.write(arg0);
    		sex.write(arg0);
    		age.write(arg0);
    	}
    
    	@Override
    	public int compareTo(PersonWritable o) {
    
    		int result = name.compareTo(o.name);
    		if (result != 0) {
    			return result;
    		}
    
    		int result1 = sex.compareTo(o.sex);
    		if (result1 != 0) {
    			return result1;
    		}
    
    		int result2 = age.compareTo(o.age);
    
    		if (result2 != 0) {
    			return result2;
    		}
    		return result2;
    	}
    
    }
    


    序列化与反序列化话工具类;

    package com.test.myselfwritable;
    
    import java.io.ByteArrayInputStream;
    import java.io.ByteArrayOutputStream;
    import java.io.DataInputStream;
    import java.io.DataOutputStream;
    import java.io.IOException;
    
    import org.apache.hadoop.io.Writable;
    
    public class HadoopSerializationUtil {
    
    
    	public static byte[] serialize(Writable writable) throws IOException {
    		// create bytes ByteArrayOutputStream
    		ByteArrayOutputStream out = new ByteArrayOutputStream();
    		// create DataOutputStream 
    		DataOutputStream dataout = new DataOutputStream(out);
    		// call write method
    		writable.write(dataout);
    		dataout.close();
    		// bytes 
    		return out.toByteArray();
    	}
    
    	public static void deserialize(Writable writable, byte[] bytes)
    			throws Exception {
    
    		// create ByteArrayInputStream
    		ByteArrayInputStream in = new ByteArrayInputStream(bytes);
    		// create DataInputStream
    		DataInputStream datain = new DataInputStream(in);
    		// read fields
    		writable.readFields(datain);
    		datain.close();
    	}
    
    }
    


    测试类:

    package com.test;
    
    import java.io.IOException;
    
    import org.apache.hadoop.util.StringUtils;
    
    import com.test.myselfwritable.HadoopSerializationUtil;
    
    public class Test {
    
    	public static void main(String[] args) throws Exception {
    
    		// test serilizable
    
    		System.out.println("test1");
    
    		PersonWritable personWritable = new PersonWritable("tom", "man", 13);
    		// begin serialztion
    		byte[] result = HadoopSerializationUtil.serialize(personWritable);
    		System.out.print(StringUtils.byteToHexString(result));
    
    		System.out.println("test2");
    
    		PersonWritable personWritable1 = new PersonWritable();
    		HadoopSerializationUtil.deserialize(personWritable1, result);
    
    		System.out.print(personWritable1.toString());
    
    	}
    }
    

    内容来源:

    《Hadoop 技术内幕》

  • 相关阅读:
    SDUT 1570 C 旅行(DFS)
    SDUT 1269 走迷宫(BFS)
    求连通分量个数
    Codeforces Round #237 (Div. 2)
    FZU 2150 Fire Game(BFS)
    HDU 2045 不容易系列之(3)—— LELE的RPG难题(递推)
    LeetCode 155. Min Stack
    【ZZ】终于有人把云计算、大数据和人工智能讲明白了!
    学习笔记之Microsoft Office 365
    【ZZ】技能表合集
  • 原文地址:https://www.cnblogs.com/pangblog/p/3310679.html
Copyright © 2011-2022 走看看