• Hadoop(四)--数据压缩


    一、数据压缩

    1.1、概述

    压缩技术能够有效减少底层存储系统(HDFS)读写字节数。压缩提高了网络带宽和磁盘空间的效率。在运行MR程序时,I/O操作、网络数据传输、 Shuffle和Merge要花大量的时间,尤其是数据规模很大和工作负载密集的情况下,因此,使用数据压缩显得非常重要。

    鉴于磁盘I/O和网络带宽是Hadoop的宝贵资源,数据压缩对于节省资源、最小化磁盘I/O和网络传输非常有帮助。可以在任意MapReduce阶段启用压缩。不过,尽管压缩与解压操作的CPU开销不高,其性能的提升和资源的节省并非没有代价。

    压缩策略和原则

    压缩是提高Hadoop运行效率的一种优化策略。

    通过对Mapper、Reducer运行过程的数据进行压缩,以减少磁盘IO,提高MR程序运行速度。

    注意:采用压缩技术减少了磁盘IO,但同时增加了CPU运算负担。所以,压缩特性运用得当能提高性能,但运用不当也可能降低性能。

    压缩基本原则

    (1)运算密集型的job,少用压缩

    (2)IO密集型的job,多用压缩

    1.2、MR支持的压缩编码

    image

    为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器

    image

    压缩性能的比较:

    image

    http://google.github.io/snappy/

    On a single core of a Core i7 processor in 64-bit mode, Snappy compresses at about 250 MB/sec or more and decompresses at about 500 MB/sec or more.

    1.3、压缩方式选择

    1.3.1、Gzip压缩

    优点:压缩率比较高,而且压缩/解压速度也比较快;Hadoop本身支持,在应用中处理Gzip格式的文件就和直接处理文本一样;大部分Linux系统都自带Gzip命令,使用方便。

    缺点:不支持Split。

    应用场景:当每个文件压缩之后在130M以内的(1个块大小内),都可以考虑用Gzip压缩格式。例如说一天或者一个小时的日志压缩成一个Gzip文件。

    1.3.2、Bzip2压缩

    优点:支持Split;具有很高的压缩率,比Gzip压缩率都高;Hadoop本身自带,使用方便。

    缺点:压缩/解压速度慢。

    应用场景:适合对速度要求不高,但需要较高的压缩率的时候;或者输出之后的数据比较大,处理之后的数据需要压缩存档减少磁盘空间并且以后数据用得比较少的情况;或者对单个很大的文本文件想压缩减少存储空间,同时又需要支持Split,而且兼容之前的应用程序的情况。

    1.3.3、Lzo压缩

    优点:压缩/解压速度也比较快,合理的压缩率;支持Split,是Hadoop中最流行的压缩格式;可以在Linux系统下安装lzop命令,使用方便。

    缺点:压缩率比Gzip要低一些;Hadoop本身不支持,需要安装;在应用中对Lzo格式的文件需要做一些特殊处理(为了支持Split需要建索引,还需要指定InputFormat为Lzo格式)。

    应用场景:一个很大的文本文件,压缩之后还大于200M以上的可以考虑,而且单个文件越大,Lzo优点越越明显。

    1.3.4、Snappy压缩

    优点:高速压缩速度和合理的压缩率。

    缺点:不支持Split;压缩率比Gzip要低;Hadoop本身不支持,需要安装。

    应用场景:当MapReduce作业的Map输出的数据比较大的时候,作为Map到Reduce的中间数据的压缩格式;或者作为一个MapReduce作业的输出和另外一个MapReduce作业的输入。

    1.4、压缩位置选择

    image

    1.5、压缩参数配置

    参数 默认值 阶段 建议

    io.compression.codecs   (在core-site.xml中配置)

    org.apache.hadoop.io.compress.DefaultCodec

    org.apache.hadoop.io.compress.GzipCodec

    org.apache.hadoop.io.compress.BZip2Codec

    输入压缩

    Hadoop使用文件扩展名判断是否支持某种编解码器

    mapreduce.map.output.compress(在mapred-site.xml中配置)

    false

    mapper输出

    这个参数设为true启用压缩

    mapreduce.map.output.compress.codec(在mapred-site.xml中配置)

    org.apache.hadoop.io.compress.DefaultCodec

    mapper输出

    企业多使用LZO或Snappy编解码器在此阶段压缩数据

    mapreduce.output.fileoutputformat.compress(在mapred-site.xml中配置)

    false

    reducer输出

    这个参数设为true启用压缩

    mapreduce.output.fileoutputformat.compress.codec(在mapred-site.xml中配置)

    org.apache.hadoop.io.compress. DefaultCodec

    reducer输出

    使用标准工具或者编解码器,如gzip和bzip2

    mapreduce.output.fileoutputformat.compress.type(在mapred-site.xml中配置)

    RECORD

    reducer输出

    SequenceFile输出使用的压缩类型:NONE和BLOCK

    1.6、压缩实操案例

    CompressionCodec有两个方法可以用于轻松地压缩或解压缩数据。

    要想对正在被写入一个输出流的数据进行压缩,我们可以使用createOutputStream(OutputStreamout)方法创建一个CompressionOutputStream,将其以压缩格式写入底层的流。

    要想对从输入流读取而来的数据进行解压缩,则调用createInputStream(InputStreamin)函数,从而获得一个CompressionInputStream,从而从底层的流读取未压缩的数据。

    package com.dianchou.mr.compress;
    
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IOUtils;
    import org.apache.hadoop.io.compress.CompressionCodec;
    import org.apache.hadoop.io.compress.CompressionCodecFactory;
    import org.apache.hadoop.io.compress.CompressionInputStream;
    import org.apache.hadoop.io.compress.CompressionOutputStream;
    import org.apache.hadoop.util.ReflectionUtils;
    
    import java.io.*;
    
    /**
     * @author lawrence
     * @create 2021-01-27
     */
    public class CompressTest {
        public static void main(String[] args) {
            try {
                //压缩
                //compress("D:/hadoop/web.log","org.apache.hadoop.io.compress.GzipCodec");
                //compress("D:/hadoop/web.log","org.apache.hadoop.io.compress.DefaultCodec");
                //compress("D:/hadoop/web.log","org.apache.hadoop.io.compress.BZip2Codec");
    
                //解压缩
                //decompress("D:\hadoop\web.log.bz2");
                //decompress("D:\hadoop\web.log.deflate");
                decompress("D:\hadoop\web.log.gz");
            } catch (Exception e) {
                e.printStackTrace();
            }
        }
    
        /**
         * 压缩
         */
        public static void compress(String fileName,String method) throws IOException, ClassNotFoundException {
            //1.获取输入流
            FileInputStream fis = new FileInputStream(new File(fileName));
    
            Class codecClass = Class.forName(method);
            CompressionCodec codec = (CompressionCodec) ReflectionUtils.newInstance(codecClass, new Configuration());
    
            //2.获取输出流
            FileOutputStream fos = new FileOutputStream(new File(fileName + codec.getDefaultExtension()));
            CompressionOutputStream cos = codec.createOutputStream(fos);
    
            //3.流的对拷
            IOUtils.copyBytes(fis, cos, 1024*1024*5, false);
    
            //4.关闭资源
            cos.close();
            fos.close();
            fis.close();
        }
    
        /**
         * 解压缩
         */
        public static void decompress(String fileName) throws IOException {
            //校验是否能解压缩
            CompressionCodecFactory factory = new CompressionCodecFactory(new Configuration());
            CompressionCodec codec = factory.getCodec(new Path(fileName));
    
            if (codec == null) {
                System.out.println("cannot find codec for file " + fileName);
                return;
            }
    
            //获取输入流
            CompressionInputStream cis = codec.createInputStream(new FileInputStream(new File(fileName)));
    
            //获取输出流
            FileOutputStream fos = new FileOutputStream(new File(fileName + ".decode"));
    
            //流的对拷
            IOUtils.copyBytes(cis, fos, 1024*1024*5, false);
    
            //关闭资源
            fos.close();
            cis.close();
        }
    }
    

    1.7、Map输出端及Reduce输出端采用压缩

    即使你的MapReduce的输入输出文件都是未压缩的文件,你仍然可以对Map任务的中间结果输出做压缩,因为它要写在硬盘并且通过网络传输到Reduce节点,对其压缩可以提高很多性能,这些工作只要设置两个属性即可

    package com.dianchou.mr.wordcount;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.io.compress.BZip2Codec;
    import org.apache.hadoop.io.compress.CompressionCodec;
    import org.apache.hadoop.io.compress.DefaultCodec;
    import org.apache.hadoop.io.compress.GzipCodec;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.CombineTextInputFormat;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    import java.io.IOException;
    
    
    public class WordcountDriver {
        public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
    
            // 输入输出路径需要根据自己电脑上实际的输入输出路径设置
            args = new String[]{"D:\hadoop\wordcount-input", "D:\hadoop\wordcount-output-compress"};
    
            // 1 获取配置信息以及封装任务
            Configuration configuration = new Configuration();
            Job job = Job.getInstance(configuration);
    
            // 开启map端输出压缩
            configuration.setBoolean("mapreduce.map.output.compress", true);
            // 设置map端输出压缩方式
            configuration.setClass("mapreduce.map.output.compress.codec", BZip2Codec.class, CompressionCodec.class);
    
            // 2 设置jar加载路径
            job.setJarByClass(WordcountDriver.class);
    
            // 3 设置map和reduce类
            job.setMapperClass(WordcountMapper.class);
            job.setReducerClass(WordcountReducer.class);
    
            // 4 设置map输出kv类型
            job.setMapOutputKeyClass(Text.class);
            job.setMapOutputValueClass(IntWritable.class);
    
            // 5 设置最终输出kv类型
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(IntWritable.class);
    
            // 6 设置输入和输出路径
            FileInputFormat.setInputPaths(job, new Path(args[0]));
            FileOutputFormat.setOutputPath(job, new Path(args[1]));
    
            // 设置reduce端输出压缩开启
            FileOutputFormat.setCompressOutput(job, true);
    
            // 设置压缩的方式
            FileOutputFormat.setOutputCompressorClass(job, BZip2Codec.class);
    	    //FileOutputFormat.setOutputCompressorClass(job, GzipCodec.class);
    	    //FileOutputFormat.setOutputCompressorClass(job, DefaultCodec.class);
    
            // 7 提交
            boolean result = job.waitForCompletion(true);
            System.exit(result ? 0 : 1);
    
        }
    }
    
    
    作者:Lawrence

    -------------------------------------------

    个性签名:独学而无友,则孤陋而寡闻。做一个灵魂有趣的人!

    扫描上面二维码关注我
    如果你真心觉得文章写得不错,而且对你有所帮助,那就不妨帮忙“推荐"一下,您的“推荐”和”打赏“将是我最大的写作动力!
    本文版权归作者所有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接.
  • 相关阅读:
    mysql之innodb_buffer_pool
    PBO项目的组织
    03 【PMP】组织结构类型的优缺点和适用范围包括哪些
    02 【PMP】项目管理系统、PMIS、工作授权系统、配置管理系统、变更管理
    01 【PMP】组织结构类型
    手工sql注入简单入门
    新建oracle用户
    linux测试环境搭建步骤
    1、python接口测试requests
    No module named pip 安装工具提示没有pip模块时,解决办法
  • 原文地址:https://www.cnblogs.com/hujinzhong/p/14333859.html
Copyright © 2020-2023  润新知