• 读取和反序列化Hadoop二进制文件


    问题描述

    Hadoop在运行MR时,经常要将一些中间结果存到本地,为了节省存储空间,Hadoop采用序列化机制(Hadoop的序列化机制和Java的有所不同)将数据保存为二进制文件,此时若需要观察中间结果文件进行调试,就需要将二进制文件进行反序列化为可读的字符。此篇文章只展示反序列化的代码流程,不分析其中原理。

    反序列化代码

    因为Hadoop采用的序列化机制是独有的,所以在编写反序列化代码之前需要导入hadoop/share/hadoop/common下的jar包。

    1. 反序列化单数据文件

    当序列化文件里只包含一种数据类型的数据时,用以下代码。

    注:反序列化前需要知道该数据反序列化前的数据类型

    package readHadoopFile;
    
    import java.io.File;
    import java.io.FileWriter;
    import java.io.IOException;
    
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.SequenceFile;
    import org.apache.hadoop.io.SequenceFile.Reader;
    import org.apache.hadoop.io.Writable;
    import org.apache.hadoop.util.ReflectionUtils;
    import org.apache.mahout.common.HadoopUtil;
    import org.apache.mahout.math.Vector;
    import org.apache.mahout.math.hadoop.similarity.cooccurrence.Vectors;
    
    public class transformFile {
    	public static void main(String[] args) throws IllegalArgumentException, IOException {
    		String path = null;
    		//numUsers.bin只包含一个int型的数据
        	path = "~\temp\preparePreferenceMatrix\numUsers.bin";
    		int num = HadoopUtil.readInt(new Path(path), new Configuration());
    		System.out.println(num); #2487348
    		
    		
    		//maxValues.bin包含的数据类型是向量
    		path = "C:\Users\User\Desktop\推荐算法\分布式推荐\temp\maxValues.bin";
    		Vector maxValues = Vectors.read(new Path(path), new Configuration());
    		System.out.println(maxValues);
    		
    	}
    
    }
    
    

    2. 反序列化Key-Value类型的数据文件

    当序列化文件里的数据是Key-Value类型时,此时可以不必知晓序列化前的数据类型,代码如下。

    package readHadoopFile;
    
    import java.io.File;
    import java.io.FileWriter;
    import java.io.IOException;
    
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.SequenceFile;
    import org.apache.hadoop.io.SequenceFile.Reader;
    import org.apache.hadoop.io.Writable;
    import org.apache.hadoop.util.ReflectionUtils;
    import org.apache.mahout.common.HadoopUtil;
    import org.apache.mahout.math.Vector;
    import org.apache.mahout.math.hadoop.similarity.cooccurrence.Vectors;
    
    public class transformFile {
    	public static void main(String[] args) throws IllegalArgumentException, IOException {
    		String path = null;
    		
    		//读取Hadoop上的序列化文件
    		path = "~\temp\partialMultiply2";
    		FileSystem fs=FileSystem.get(new Configuration());
    		Reader reader=new SequenceFile.Reader(fs.getConf(), Reader.file(new Path(path)));
    		Writable key = (Writable) ReflectionUtils.newInstance(reader.getKeyClass(), fs.getConf());
    		Writable value = (Writable) ReflectionUtils.newInstance(reader.getValueClass(), fs.getConf());
    		
    		System.out.println(key);
    		File file = new File("~\temp\partialMultiply2.trans");
    		FileWriter fw = new FileWriter(file);
    		String kv = null;
    		//将反序列化后的值写到另一个文件里
    		while(reader.next(key,value)) {
    			kv=key.toString()+"="+value.toString()+"
    ";
    			fw.write(kv);
    		}		
    		fw.close();		
    	}
    
    }
    
    
    
  • 相关阅读:
    广告效果滚动
    判断背景图片是否加载成功
    css3创建多边形clip属性,可用来绘制不规则图形了
    不允许用户选中文本的两种方法
    栈类模板设计及应用
    HDOJ 题目类型
    极大团数量模板
    HDU 1522 Marriage is Stable 稳定婚姻匹配
    字符串类设计与应用
    正向与反向拓扑排序的区别(hdu 1285 确定比赛名次和hdu 4857 逃生)
  • 原文地址:https://www.cnblogs.com/liminghuang/p/10065770.html
Copyright © 2020-2023  润新知