• Hadoop3.x-MapReduce


    MapReduce概述

    MapReduce定义

    MapReduce是一个分布式运算程序的编程框架,是用户开发“基于Hadoop的数据分析应用”的核心框架。
    MapReduce核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个Hadoop集群上。

    MapReduce优缺点

    优点

    • MapReduce易于编程
      它简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的PC机器上运行。也就是说你写一个分布式程序,跟写一个简单的串行程序是一模一样的。就是因为这个特点使得MapReduce编程变得非常流行。
    • 良好的扩展性
      当你的计算资源不能得到满足的时候,你可以通过简单的增加机器来扩展它的计算能力。
    • 高容错性
      MapReduce设计的初衷就是使程序能够部署在廉价的PC机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由Hadoop内部完成的。
    • 适合PB级以上海量数据的离线处理
      可以实现上千台服务器集群并发工作,提供数据处理能力。
      缺点
    • 不擅长实时计算
      MapReduce无法像MySQL一样,在毫秒或者秒级内返回结果。
    • 不擅长流式计算
      流式计算的输入数据是动态的,而MapReduce的输入数据集是静态的,不能动态变化。这是因为MapReduce自身的设计特点决定了数据源必须是静态的。
    • 不擅长DAG(有向无环图)计算
      多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce并不是不能做,而是使用后,每个MapReduce作业的输出结果都会写入到磁盘,会造成大量的磁盘IO,导致性能非常的低下。

    MapReduce核心思想

    image

    (1)分布式的运算程序往往需要分成至少2个阶段。
    (2)第一个阶段的MapTask并发实例,完全并行运行,互不相干。
    (3)第二个阶段的ReduceTask并发实例互不相干,但是他们的数据依赖于上一个阶段的所有MapTask并发实例的输出。
    (4)MapReduce编程模型只能包含一个Map阶段和一个Reduce阶段,如果用户的业务逻辑非常复杂,那就只能多个MapReduce程序,串行运行。
    总结:分析WordCount数据流走向深入理解MapReduce核心思想。

    MapReduce进程

    一个完整的MapReduce程序在分布式运行时有三类实例进程:
    (1)MrAppMaster:负责整个程序的过程调度及状态协调。
    (2)MapTask:负责Map阶段的整个数据处理流程。
    (3)ReduceTask:负责Reduce阶段的整个数据处理流程。

    常用数据序列化类型常用数据序列化类型

    image

    MapReduce编程规范

    用户编写的程序分成三个部分:Mapper、Reducer和Driver。
    image
    image

    WordCount案例实操

    本地测试
    1)需求
    在给定的文本文件中统计输出每一个单词出现的总次数

    2)需求分析
    按照MapReduce编程规范,分别编写Mapper,Reducer,Driver。
    image

    3)环境准备
    (1)创建maven工程,MapReduceDemo
    (2)在pom.xml文件中添加如下依赖

    <dependencies>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>3.1.3</version>
        </dependency>
        <dependency>
            <groupId>junit</groupId>
            <artifactId>junit</artifactId>
            <version>4.12</version>
        </dependency>
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-log4j12</artifactId>
            <version>1.7.30</version>
        </dependency>
    </dependencies>
    

    (2)在项目的src/main/resources目录下,新建一个文件,命名为“log4j.properties”,在文件中填入。

    log4j.rootLogger=INFO, stdout  
    log4j.appender.stdout=org.apache.log4j.ConsoleAppender  
    log4j.appender.stdout.layout=org.apache.log4j.PatternLayout  
    log4j.appender.stdout.layout.ConversionPattern=%d %p [%c] - %m%n  
    log4j.appender.logfile=org.apache.log4j.FileAppender  
    log4j.appender.logfile.File=target/spring.log  
    log4j.appender.logfile.layout=org.apache.log4j.PatternLayout  
    log4j.appender.logfile.layout.ConversionPattern=%d %p [%c] - %m%n
    

    (3)创建包名:com.atguigu.mapreduce.wordcount

    4)编写程序
    (1)编写Mapper类

    package com.atguigu.mapreduce.wordcount;
    import java.io.IOException;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    
    public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{
    	
    	Text k = new Text();
    	IntWritable v = new IntWritable(1);
    	
    	@Override
    	protected void map(LongWritable key, Text value, Context context)	throws IOException, InterruptedException {
    		
    		// 1 获取一行
    		String line = value.toString();
    		
    		// 2 切割
    		String[] words = line.split(" ");
    		
    		// 3 输出
    		for (String word : words) {
    			
    			k.set(word);
    			context.write(k, v);
    		}
    	}
    }
    

    (2)编写Reducer类

    package com.atguigu.mapreduce.wordcount;
    import java.io.IOException;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    
    public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{
    
    int sum;
    IntWritable v = new IntWritable();
    
    	@Override
    	protected void reduce(Text key, Iterable<IntWritable> values,Context context) throws IOException, InterruptedException {
    		
    		// 1 累加求和
    		sum = 0;
    		for (IntWritable count : values) {
    			sum += count.get();
    		}
    		
    		// 2 输出
             v.set(sum);
    		context.write(key,v);
    	}
    }
    

    (3)编写Driver驱动类

    package com.atguigu.mapreduce.wordcount;
    import java.io.IOException;
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    public class WordCountDriver {
    
    	public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
    
    		// 1 获取配置信息以及获取job对象
    		Configuration conf = new Configuration();
    		Job job = Job.getInstance(conf);
    
    		// 2 关联本Driver程序的jar
    		job.setJarByClass(WordCountDriver.class);
    
    		// 3 关联Mapper和Reducer的jar
    		job.setMapperClass(WordCountMapper.class);
    		job.setReducerClass(WordCountReducer.class);
    
    		// 4 设置Mapper输出的kv类型
    		job.setMapOutputKeyClass(Text.class);
    		job.setMapOutputValueClass(IntWritable.class);
    
    		// 5 设置最终输出kv类型
    		job.setOutputKeyClass(Text.class);
    		job.setOutputValueClass(IntWritable.class);
    		
    		// 6 设置输入和输出路径
    		FileInputFormat.setInputPaths(job, new Path(args[0]));
    		FileOutputFormat.setOutputPath(job, new Path(args[1]));
    
    		// 7 提交job
    		boolean result = job.waitForCompletion(true);
    		System.exit(result ? 0 : 1);
    	}
    }
    

    5)本地测试
    (1)需要首先配置好HADOOP_HOME变量以及Windows运行依赖
    (2)在IDEA/Eclipse上运行程序

    提交到集群测试

    集群上测试
    (1)用maven打jar包,需要添加的打包插件依赖

    <build>
        <plugins>
            <plugin>
                <artifactId>maven-compiler-plugin</artifactId>
                <version>3.6.1</version>
                <configuration>
                    <source>1.8</source>
                    <target>1.8</target>
                </configuration>
            </plugin>
            <plugin>
                <artifactId>maven-assembly-plugin</artifactId>
                <configuration>
                    <descriptorRefs>
                        <descriptorRef>jar-with-dependencies</descriptorRef>
                    </descriptorRefs>
                </configuration>
                <executions>
                    <execution>
                        <id>make-assembly</id>
                        <phase>package</phase>
                        <goals>
                            <goal>single</goal>
                        </goals>
                    </execution>
                </executions>
            </plugin>
        </plugins>
    </build>
    

    注意:如果工程上显示红叉。在项目上右键->maven->Reimport刷新即可。

    (2)将程序打成jar包
    image

    (3)修改不带依赖的jar包名称为wc.jar,并拷贝该jar包到Hadoop集群的/opt/module/hadoop-3.1.3路径。

    (4)启动Hadoop集群

    [atguigu@hadoop102 hadoop-3.1.3]sbin/start-dfs.sh
    [atguigu@hadoop103 hadoop-3.1.3]$ sbin/start-yarn.sh
    

    (5)执行WordCount程序

    [atguigu@hadoop102 hadoop-3.1.3]$ hadoop jar  wc.jar
     com.atguigu.mapreduce.wordcount.WordCountDriver /user/atguigu/input /user/atguigu/output
    

    Hadoop序列化

    序列化概述

    1)什么是序列化
    序列化就是把内存中的对象,转换成字节序列(或其他数据传输协议)以便于存储到磁盘(持久化)和网络传输。 
    反序列化就是将收到字节序列(或其他数据传输协议)或者是磁盘的持久化数据,转换成内存中的对象。
    2)为什么要序列化
    一般来说,“活的”对象只生存在内存里,关机断电就没有了。而且“活的”对象只能由本地的进程使用,不能被发送到网络上的另外一台计算机。 然而序列化可以存储“活的”对象,可以将“活的”对象发送到远程计算机
    注释:比如说MapTask阶段中key,value传输到reduceTask端,很有可能,开启的MapTask和ReducerTask不在一个服务器上,需要序列化传输。
    3)为什么不用Java的序列化
    Java的序列化是一个重量级序列化框架(Serializable),一个对象被序列化后,会附带很多额外的信息(各种校验信息,Header,继承体系等),不便于在网络中高效传输。所以,Hadoop自己开发了一套序列化机制(Writable)。
    4)Hadoop序列化特点:
    (1)紧凑 :高效使用存储空间。
    (2)快速:读写数据的额外开销小。
    (3)互操作:支持多语言的交互。

    自定义bean对象实现序列化接口(Writable)

    在企业开发中往往常用的基本序列化类型不能满足所有需求,比如在Hadoop框架内部传递一个bean对象,那么该对象就需要实现序列化接口。
    具体实现bean对象序列化步骤如下7步。
    (1)必须实现Writable接口
    (2)反序列化时,需要反射调用空参构造函数,所以必须有空参构造

    public FlowBean() {
    	super();
    }
    

    (3)重写序列化方法

    @Override
    public void write(DataOutput out) throws IOException {
    	out.writeLong(upFlow);
    	out.writeLong(downFlow);
    	out.writeLong(sumFlow);
    }
    

    (4)重写反序列化方法

    @Override
    public void readFields(DataInput in) throws IOException {
    	upFlow = in.readLong();
    	downFlow = in.readLong();
    	sumFlow = in.readLong();
    }
    

    (5)注意反序列化的顺序和序列化的顺序完全一致

    (6)要想把结果显示在文件中,需要重写toString(),可用" "分开,方便后续用。

    (7)如果需要将自定义的bean放在key中传输,则还需要实现Comparable接口,因为MapReduce框中的Shuffle过程要求对key必须能排序。详见后面排序案例。

    @Override
    public int compareTo(FlowBean o) {
    	// 倒序排列,从大到小
    	return this.sumFlow > o.getSumFlow() ? -1 : 1;
    }
    

    注释:一般在传输到reducer之前Key一定要有序,所以一般的数据类型的key都是Hadoop框架自动排好序的(因为reducer处理相同的key的数据,所以它会遍历下一个看是否是相同的key,如果不是相同的,就重新进入一个reduce()方法,那么,如果乱序,就会很耽误reduceTask的执行效率),如果说bean对象作为key传输时,需要实现WritableComparable接口,通过CompareTo方法进行排序。

    序列化案例实操序列化案例实操

    1)需求
    统计每一个手机号耗费的总上行流量、总下行流量、总流量

    (1)输入数据格式:
    image

    (2)期望输出数据格式
    image

    2)需求分析
    image

    3)编写MapReduce程序
    (1)编写流量统计的Bean对象

    package com.atguigu.mapreduce.writable;
    
    import org.apache.hadoop.io.Writable;
    import java.io.DataInput;
    import java.io.DataOutput;
    import java.io.IOException;
    //1 继承Writable接口
    public class FlowBean implements Writable {
    
        private long upFlow; //上行流量
        private long downFlow; //下行流量
        private long sumFlow; //总流量
    
        //2 提供无参构造,为了反序列化
        public FlowBean() {
        }
    
        //3 提供三个参数的getter和setter方法
        public long getUpFlow() {
            return upFlow;
        }
    
        public void setUpFlow(long upFlow) {
            this.upFlow = upFlow;
        }
    
        public long getDownFlow() {
            return downFlow;
        }
    
        public void setDownFlow(long downFlow) {
            this.downFlow = downFlow;
        }
    
        public long getSumFlow() {
            return sumFlow;
        }
    
        public void setSumFlow(long sumFlow) {
            this.sumFlow = sumFlow;
        }
    
        public void setSumFlow() {
            this.sumFlow = this.upFlow + this.downFlow;
        }
    
        //4 实现序列化和反序列化方法,注意顺序一定要保持一致
        @Override
        public void write(DataOutput dataOutput) throws IOException {
            dataOutput.writeLong(upFlow);
            dataOutput.writeLong(downFlow);
            dataOutput.writeLong(sumFlow);
        }
    
        @Override
        public void readFields(DataInput dataInput) throws IOException {
            this.upFlow = dataInput.readLong();
            this.downFlow = dataInput.readLong();
            this.sumFlow = dataInput.readLong();
        }
    
        //5 重写ToString
        @Override
        public String toString() {
            return upFlow + "	" + downFlow + "	" + sumFlow;
        }
    }
    

    (2)编写Mapper类

    package com.atguigu.mapreduce.writable;
    
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    import java.io.IOException;
    
    public class FlowMapper extends Mapper<LongWritable, Text, Text, FlowBean> {
        private Text outK = new Text();
        private FlowBean outV = new FlowBean();
    
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    
            //1 获取一行数据,转成字符串
            String line = value.toString();
    
            //2 切割数据
            String[] split = line.split("	");
    
            //3 抓取我们需要的数据:手机号,上行流量,下行流量
            String phone = split[1];
            String up = split[split.length - 3];
            String down = split[split.length - 2];
    
            //4 封装outK outV
            outK.set(phone);
            outV.setUpFlow(Long.parseLong(up));
            outV.setDownFlow(Long.parseLong(down));
            outV.setSumFlow();
    
            //5 写出outK outV
            context.write(outK, outV);
        }
    }
    

    (3)编写Reducer类

    package com.atguigu.mapreduce.writable;
    
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    import java.io.IOException;
    
    public class FlowReducer extends Reducer<Text, FlowBean, Text, FlowBean> {
        private FlowBean outV = new FlowBean();
        @Override
        protected void reduce(Text key, Iterable<FlowBean> values, Context context) throws IOException, InterruptedException {
    
            long totalUp = 0;
            long totalDown = 0;
    
            //1 遍历values,将其中的上行流量,下行流量分别累加
            for (FlowBean flowBean : values) {
                totalUp += flowBean.getUpFlow();
                totalDown += flowBean.getDownFlow();
            }
    
            //2 封装outKV
            outV.setUpFlow(totalUp);
            outV.setDownFlow(totalDown);
            outV.setSumFlow();
    
            //3 写出outK outV
            context.write(key,outV);
        }
    }
    

    (4)编写Driver驱动类

    package com.atguigu.mapreduce.writable;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    import java.io.IOException;
    
    public class FlowDriver {
        public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
    
            //1 获取job对象
            Configuration conf = new Configuration();
            Job job = Job.getInstance(conf);
    
            //2 关联本Driver类
            job.setJarByClass(FlowDriver.class);
    
            //3 关联Mapper和Reducer
            job.setMapperClass(FlowMapper.class);
            job.setReducerClass(FlowReducer.class);
            
    //4 设置Map端输出KV类型
            job.setMapOutputKeyClass(Text.class);
            job.setMapOutputValueClass(FlowBean.class);
            
    //5 设置程序最终输出的KV类型
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(FlowBean.class);
            
    //6 设置程序的输入输出路径
            FileInputFormat.setInputPaths(job, new Path("D:\inputflow"));
            FileOutputFormat.setOutputPath(job, new Path("D:\flowoutput"));
            
    //7 提交Job
            boolean b = job.waitForCompletion(true);
            System.exit(b ? 0 : 1);
        }
    }
    

    MapReduce框架原理

    image

    InputFormat数据输入

    切片与MapTask并行度决定机制

    1)问题引出
    MapTask的并行度决定Map阶段的任务处理并发度,进而影响到整个Job的处理速度。
    思考:1G的数据,启动8个MapTask,可以提高集群的并发处理能力。那么1K的数据,也启动8个MapTask,会提高集群性能吗?MapTask并行任务是否越多越好呢?哪些因素影响了MapTask并行度?

    2)MapTask并行度决定机制
    数据块:Block是HDFS物理上把数据分成一块一块。数据块是HDFS存储数据单位。
    数据切片:数据切片只是在逻辑上对输入进行分片,并不会在磁盘上将其切分成片进行存储。数据切片是MapReduce程序计算输入数据的单位,一个切片会对应启动一个MapTask。

    数据切片与MapTask并行度决定机制

    image

    Job提交流程源码和切片源码详解

    1)Job提交流程源码详解

    waitForCompletion()
    
    submit();
    
    // 1建立连接
    	connect();	
    		// 1)创建提交Job的代理
    		new Cluster(getConfiguration());
    			// (1)判断是本地运行环境还是yarn集群运行环境
    			initialize(jobTrackAddr, conf); 
    
    // 2 提交job
    submitter.submitJobInternal(Job.this, cluster)
    
    	// 1)创建给集群提交数据的Stag路径
    	Path jobStagingArea = JobSubmissionFiles.getStagingDir(cluster, conf);
    
    	// 2)获取jobid ,并创建Job路径
    	JobID jobId = submitClient.getNewJobID();
    
    	// 3)拷贝jar包到集群
    copyAndConfigureFiles(job, submitJobDir);	
    	rUploader.uploadFiles(job, jobSubmitDir);
    
    	// 4)计算切片,生成切片规划文件
    writeSplits(job, submitJobDir);
    		maps = writeNewSplits(job, jobSubmitDir);
    		input.getSplits(job);
    
    	// 5)向Stag路径写XML配置文件
    writeConf(conf, submitJobFile);
    	conf.writeXml(out);
    
    	// 6)提交Job,返回提交状态
    status = submitClient.submitJob(jobId, submitJobDir.toString(), job.getCredentials());
    

    JOB提交源码流程解析

    image

    2)FileInputFormat切片源码解析(input.getSplits(job))

    image
    注释:Block大小不可以调节,切片大小,可以根据MaxSize,MinSize调节。

    FileInputFormat切片机制

    image

    FileInputFormat切片大小参数的配置

    image

    TextInputFormat

    1)FileInputFormat实现类
    思考:在运行MapReduce程序时,输入的文件格式包括:基于行的日志文件、二进制格式文件、数据库表等。那么,针对不同的数据类型,MapReduce是如何读取这些数据的呢?
    FileInputFormat常见的接口实现类包括:TextInputFormat、KeyValueTextInputFormat、NLineInputFormat、CombineTextInputFormat和自定义InputFormat等。
    2)TextInputFormat
    TextInputFormat是默认的FileInputFormat实现类。按行读取每条记录。键是存储该行在整个文件中的起始字节偏移量, LongWritable类型。值是这行的内容,不包括任何行终止符(换行符和回车符),Text类型。
    以下是一个示例,比如,一个分片包含了如下4条文本记录。

    Rich learning form
    Intelligent learning engine
    Learning more convenient
    From the real demand for more close to the enterprise
    每条记录表示为以下键/值对:
    (0,Rich learning form)
    (20,Intelligent learning engine)
    (49,Learning more convenient)
    (74,From the real demand for more close to the enterprise)
    

    CombineTextInputFormat切片机制

    框架默认的TextInputFormat切片机制是对任务按文件规划切片,不管文件多小,都会是一个单独的切片,都会交给一个MapTask,这样如果有大量小文件,就会产生大量的MapTask,处理效率极其低下。
    1)应用场景:
    CombineTextInputFormat用于小文件过多的场景,它可以将多个小文件从逻辑上规划到一个切片中,这样,多个小文件就可以交给一个MapTask处理。
    2)虚拟存储切片最大值设置
    CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);// 4m
    注意:虚拟存储切片最大值设置最好根据实际的小文件大小情况来设置具体的值。
    3)切片机制
    生成切片过程包括:虚拟存储过程和切片过程二部分。
    image
    (1)虚拟存储过程:
    将输入目录下所有文件大小,依次和设置的setMaxInputSplitSize值比较,如果不大于设置的最大值,逻辑上划分一个块。如果输入文件大于设置的最大值且大于两倍,那么以最大值切割一块;当剩余数据大小超过设置的最大值且不大于最大值2倍,此时将文件均分成2个虚拟存储块(防止出现太小切片)。
    例如setMaxInputSplitSize值为4M,输入文件大小为8.02M,则先逻辑上分成一个4M。剩余的大小为4.02M,如果按照4M逻辑划分,就会出现0.02M的小的虚拟存储文件,所以将剩余的4.02M文件切分成(2.01M和2.01M)两个文件。

    (2)切片过程:
    (a)判断虚拟存储的文件大小是否大于setMaxInputSplitSize值,大于等于则单独形成一个切片。
    (b)如果不大于则跟下一个虚拟存储文件进行合并,共同形成一个切片。
    (c)测试举例:有4个小文件大小分别为1.7M、5.1M、3.4M以及6.8M这四个小文件,则虚拟存储之后形成6个文件块,大小分别为:
    1.7M,(2.55M、2.55M),3.4M以及(3.4M、3.4M)
    最终会形成3个切片,大小分别为:
    (1.7+2.55)M,(2.55+3.4)M,(3.4+3.4)M

    CombineTextInputFormat案例实操
    1)需求
    将输入的大量小文件合并成一个切片统一处理。
    (1)输入数据
    准备4个小文件

    (2)期望
    期望一个切片处理4个文件
    2)实现过程
    (1)不做任何处理,运行1.8节的WordCount案例程序,观察切片个数为4。
    number of splits:4
    (2)在WordcountDriver中增加如下代码,运行程序,并观察运行的切片个数为3。
    (a)驱动类中添加代码如下:
    // 如果不设置InputFormat,它默认用的是TextInputFormat.class

    job.setInputFormatClass(CombineTextInputFormat.class);
    

    //虚拟存储切片最大值设置4m

    CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);
    
    	(b)运行如果为3个切片。
    

    number of splits:3
    (3)在WordcountDriver中增加如下代码,运行程序,并观察运行的切片个数为1。
    (a)驱动中添加代码如下:
    // 如果不设置InputFormat,它默认用的是TextInputFormat.class

    job.setInputFormatClass(CombineTextInputFormat.class);
    

    //虚拟存储切片最大值设置20m

    CombineTextInputFormat.setMaxInputSplitSize(job, 20971520);
    

    (b)运行如果为1个切片
    number of splits:1

    MapReduce工作流程

    image
    image

    MapTask过程

    • 首先有待处理文本数据,然后在客户端提交前,会根据获取的待处理数据信息的路径后,进行切片并生成切片规划文件。
    • job提交会生成三个主要文件,job.split,xx.jar,job.xml文件。
    • Yarn客户端进行job提交到Yarn集群,并在一个NodeManager节点上开启MrAppMaster,根据split文件决定开启多少个MapTask。
    • 在节点上开启MapTask,然后通过InputFormat进行读取数据,默认的情况下是TextInputFormat,通过RecordReader,读取数据,(里面还有isSplable方法),TextInputFormat里面的是NLineRecordReader方法,然后reader方法以(key,value)形式读出,key是数据的偏移量,value是一行数据。
    • 将数据读到Mapper中,Mapper调用map方法,对每一行数据执行相应的逻辑处理后,通过Context写出到outputColletor上,也就是环形缓冲区,在写进去之前,会通过默认的HashPartionor或者自定义分区,通过getPartitionor对每一行数据打上分区标签,为了每个相同分区到一个reducer中。
    • 环形缓冲区一边是存取索引,一边是真实得数据,他的大小默认为100M,如果达到80%的时候,会进行反向溢写,因为,如果要全部写到磁盘,再溢写,要等溢写完再写数据会很慢,所以留20%,在20%中间进行反向溢写,在溢写前,数据要得有序,一般Hadoop框架会自动排好序,为了后面写Reducer时保证相同key进行一次reducer,防止reducer为了判断下一条数据是否是相同Key而浪费太多时间和效率,所以默认是快排算法,快排是通过key索引进行排序,默认按照字典排序(快排是等快要溢写前排序,而不是一条一条排序)。
    • 文件溢写时,一般底层中,如果反向写数据的速度大于溢写,就要等待,等到溢写完毕,再反向写入数据
    • 如果溢写文件时,对数据逻辑不影响前提,为了减少reducer得计算,可以通过Combiner进行预聚合,一般是针对求和适合,平均值不适合。
    • 每次溢写文件,里面的不同分区都在一个文件中,然后会有多次溢写文件。
      然后每个溢写文件区内有序,所以将每个溢写采取归并排序(适合分区内有序)。
    • 如果还有大量可以预聚合的数据,也可以采用Combiner,一般设置后,这两次都会自动执行,最后写到磁盘。

    ReduceTask过程

    • 首先将拉取MapTask中相同分区的数据到一个reducer的内存缓存中,当数据到达一定阈值,便溢写到磁盘(可以不用等所有的MapTask都到,在拉取,可以开启推测执行,即是等到一部分的MapTask数据到reducer端聚合后再和剩下的MapTask的数据进行聚合)。
    • 要将拉取的数据进行全局的归并排序,因为进入reducer是要相同的key的,后面进行调用reduce方法,将数据聚合后通过TextOutputFormat,调用RecordWriter写出。

    Shuffle机制

    Map方法之后,Reduce方法之前的数据处理过程称之为Shuffle。
    image

    Partition分区
    image
    注意:根据源码可知,当不是自定义分区时,默认是HashPartitioner,但是于此同时,要设置numReduceTask个数,如果不设置,默认为1,源码中会不调用默认的HashPartitioner,而是走了 一个内部类,里面返回numReduceTask-1=0,即是0号分区,也就是数据只到一个分区中。

    image

    如果是自定义分区
    image

    Partition分区案例实操

    1)需求
    将统计结果按照手机归属地不同省份输出到不同文件中(分区)
    (1)输入数据
    image

    (2)期望输出数据
    手机号136、137、138、139开头都分别放到一个独立的4个文件中,其他开头的放到一个文件中。

    2)需求分析
    image

    3)在案例2.3的基础上,增加一个分区类

    package com.atguigu.mapreduce.partitioner;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Partitioner;
    
    public class ProvincePartitioner extends Partitioner<Text, FlowBean> {
    
        @Override
        public int getPartition(Text text, FlowBean flowBean, int numPartitions) {
            //获取手机号前三位prePhone
            String phone = text.toString();
            String prePhone = phone.substring(0, 3);
    
            //定义一个分区号变量partition,根据prePhone设置分区号
            int partition;
    
            if("136".equals(prePhone)){
                partition = 0;
            }else if("137".equals(prePhone)){
                partition = 1;
            }else if("138".equals(prePhone)){
                partition = 2;
            }else if("139".equals(prePhone)){
                partition = 3;
            }else {
                partition = 4;
            }
    
            //最后返回分区号partition
            return partition;
        }
    }
    

    4)在驱动函数中增加自定义数据分区设置和ReduceTask设置

    package com.atguigu.mapreduce.partitioner;
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    import java.io.IOException;
    
    public class FlowDriver {
    
        public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
    
            //1 获取job对象
            Configuration conf = new Configuration();
            Job job = Job.getInstance(conf);
    
            //2 关联本Driver类
            job.setJarByClass(FlowDriver.class);
    
            //3 关联Mapper和Reducer
            job.setMapperClass(FlowMapper.class);
            job.setReducerClass(FlowReducer.class);
    
            //4 设置Map端输出数据的KV类型
            job.setMapOutputKeyClass(Text.class);
            job.setMapOutputValueClass(FlowBean.class);
    
            //5 设置程序最终输出的KV类型
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(FlowBean.class);
    
            //8 指定自定义分区器
            job.setPartitionerClass(ProvincePartitioner.class);
    
            //9 同时指定相应数量的ReduceTask
            job.setNumReduceTasks(5);
    
            //6 设置输入输出路径
            FileInputFormat.setInputPaths(job, new Path("D:\inputflow"));
            FileOutputFormat.setOutputPath(job, new Path("D\partitionout"));
    
            //7 提交Job
            boolean b = job.waitForCompletion(true);
            System.exit(b ? 0 : 1);
        }
    }
    

    WritableComparable排序

    image
    image

    排序分类
    image

    自定义排序WritableComparable原理分析
    bean对象做为key传输,需要实现WritableComparable接口重写compareTo方法,就可以实现排序。

    @Override
    public int compareTo(FlowBean bean) {
    
    	int result;
    		
    	// 按照总流量大小,倒序排列
    	if (this.sumFlow > bean.getSumFlow()) {
    		result = -1;
    	}else if (this.sumFlow < bean.getSumFlow()) {
    		result = 1;
    	}else {
    		result = 0;
    	}
    
    	return result;
    }
    

    WritableComparable排序案例实操(全排序)

    1)需求
    根据案例2.3序列化案例产生的结果再次对总流量进行倒序排序。
    期望输出数据
    13509468723 7335 110349 117684
    13736230513 2481 24681 27162
    13956435636 132 1512 1644
    13846544121 264 0 264
    2)代码实现
    (1)FlowBean对象在在需求1基础上增加了比较功能

    package com.atguigu.mapreduce.writablecompable;
    
    import org.apache.hadoop.io.WritableComparable;
    import java.io.DataInput;
    import java.io.DataOutput;
    import java.io.IOException;
    
    public class FlowBean implements WritableComparable<FlowBean> {
    
        private long upFlow; //上行流量
        private long downFlow; //下行流量
        private long sumFlow; //总流量
    
        //提供无参构造
        public FlowBean() {
        }
    
        //生成三个属性的getter和setter方法
        public long getUpFlow() {
            return upFlow;
        }
    
        public void setUpFlow(long upFlow) {
            this.upFlow = upFlow;
        }
    
        public long getDownFlow() {
            return downFlow;
        }
    
        public void setDownFlow(long downFlow) {
            this.downFlow = downFlow;
        }
    
        public long getSumFlow() {
            return sumFlow;
        }
    
        public void setSumFlow(long sumFlow) {
            this.sumFlow = sumFlow;
        }
    
        public void setSumFlow() {
            this.sumFlow = this.upFlow + this.downFlow;
        }
    
        //实现序列化和反序列化方法,注意顺序一定要一致
        @Override
        public void write(DataOutput out) throws IOException {
            out.writeLong(this.upFlow);
            out.writeLong(this.downFlow);
            out.writeLong(this.sumFlow);
    
        }
    
        @Override
        public void readFields(DataInput in) throws IOException {
            this.upFlow = in.readLong();
            this.downFlow = in.readLong();
            this.sumFlow = in.readLong();
        }
    
        //重写ToString,最后要输出FlowBean
        @Override
        public String toString() {
            return upFlow + "	" + downFlow + "	" + sumFlow;
        }
    
        @Override
        public int compareTo(FlowBean o) {
    
            //按照总流量比较,倒序排列
            if(this.sumFlow > o.sumFlow){
                return -1;
            }else if(this.sumFlow < o.sumFlow){
                return 1;
            }else {
                return 0;
            }
        }
    }
    

    (2)编写Mapper类

    package com.atguigu.mapreduce.writablecompable;
    
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    import java.io.IOException;
    
    public class FlowMapper extends Mapper<LongWritable, Text, FlowBean, Text> {
        private FlowBean outK = new FlowBean();
        private Text outV = new Text();
    
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    
            //1 获取一行数据
            String line = value.toString();
    
            //2 按照"	",切割数据
            String[] split = line.split("	");
    
            //3 封装outK outV
            outK.setUpFlow(Long.parseLong(split[1]));
            outK.setDownFlow(Long.parseLong(split[2]));
            outK.setSumFlow();
            outV.set(split[0]);
    
            //4 写出outK outV
            context.write(outK,outV);
        }
    }
    

    (3)编写Reducer类

    package com.atguigu.mapreduce.writablecompable;
    
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    import java.io.IOException;
    
    public class FlowReducer extends Reducer<FlowBean, Text, Text, FlowBean> {
        @Override
        protected void reduce(FlowBean key, Iterable<Text> values, Context context) throws IOException, InterruptedException {
    
            //遍历values集合,循环写出,避免总流量相同的情况
            for (Text value : values) {
                //调换KV位置,反向写出
                context.write(value,key);
            }
        }
    }
    

    (4)编写Driver类

    package com.atguigu.mapreduce.writablecompable;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    import java.io.IOException;
    
    public class FlowDriver {
    
        public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
    
            //1 获取job对象
            Configuration conf = new Configuration();
            Job job = Job.getInstance(conf);
    
            //2 关联本Driver类
            job.setJarByClass(FlowDriver.class);
    
            //3 关联Mapper和Reducer
            job.setMapperClass(FlowMapper.class);
            job.setReducerClass(FlowReducer.class);
    
            //4 设置Map端输出数据的KV类型
            job.setMapOutputKeyClass(FlowBean.class);
            job.setMapOutputValueClass(Text.class);
    
            //5 设置程序最终输出的KV类型
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(FlowBean.class);
    
            //6 设置输入输出路径
            FileInputFormat.setInputPaths(job, new Path("D:\inputflow2"));
            FileOutputFormat.setOutputPath(job, new Path("D:\comparout"));
    
            //7 提交Job
            boolean b = job.waitForCompletion(true);
            System.exit(b ? 0 : 1);
        }
    }
    

    WritableComparable排序案例实操(区内排序)

    1)需求
    要求每个省份手机号输出的文件中按照总流量内部排序。
    2)需求分析
    基于前一个需求,增加自定义分区类,分区按照省份手机号设置。
    image
    3)案例实操

    (1)增加自定义分区类
    package com.atguigu.mapreduce.partitionercompable;
    
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Partitioner;
    
    public class ProvincePartitioner2 extends Partitioner<FlowBean, Text> {
    
        @Override
        public int getPartition(FlowBean flowBean, Text text, int numPartitions) {
            //获取手机号前三位
            String phone = text.toString();
            String prePhone = phone.substring(0, 3);
    
            //定义一个分区号变量partition,根据prePhone设置分区号
            int partition;
            if("136".equals(prePhone)){
                partition = 0;
            }else if("137".equals(prePhone)){
                partition = 1;
            }else if("138".equals(prePhone)){
                partition = 2;
            }else if("139".equals(prePhone)){
                partition = 3;
            }else {
                partition = 4;
            }
    
            //最后返回分区号partition
            return partition;
        }
    }
    (2)在驱动类中添加分区类
    // 设置自定义分区器
    job.setPartitionerClass(ProvincePartitioner2.class);
    // 设置对应的ReduceTask的个数
    job.setNumReduceTasks(5);
    

    Combiner合并

    image
    (6)自定义Combiner实现步骤

    (a)自定义一个Combiner继承Reducer,重写Reduce方法
    public class WordCountCombiner extends Reducer<Text, IntWritable, Text, IntWritable> {
    
        private IntWritable outV = new IntWritable();
    
        @Override
        protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
    
            int sum = 0;
            for (IntWritable value : values) {
                sum += value.get();
            }
         
            outV.set(sum);
         
            context.write(key,outV);
        }
    }
    (b)在Job驱动类中设置:  
    job.setCombinerClass(WordCountCombiner.class);
    

    Combiner合并案例实操
    1)需求
    统计过程中对每一个MapTask的输出进行局部汇总,以减小网络传输量即采用Combiner功能。
    (1)数据输入

    banzhang ni hao
    xihuan hadoop banzhang
    banzhang ni hao
    xihuan hadoop banzhang
    

    (2)期望输出数据
    期望:Combine输入数据多,输出时经过合并,输出数据降低。

    2)需求分析
    image

    3)案例实操-方案一

    (1)增加一个WordCountCombiner类继承Reducer
    package com.atguigu.mapreduce.combiner;
    
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    import java.io.IOException;
    
    public class WordCountCombiner extends Reducer<Text, IntWritable, Text, IntWritable> {
    
    private IntWritable outV = new IntWritable();
    
        @Override
        protected void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
    
            int sum = 0;
            for (IntWritable value : values) {
                sum += value.get();
            }
    
            //封装outKV
            outV.set(sum);
    
            //写出outKV
            context.write(key,outV);
        }
    }
    (2)在WordcountDriver驱动类中指定Combiner
    // 指定需要使用combiner,以及用哪个类作为combiner的逻辑
    job.setCombinerClass(WordCountCombiner.class);
    

    4)案例实操-方案二
    (1)将WordcountReducer作为Combiner在WordcountDriver驱动类中指定
    // 指定需要使用Combiner,以及用哪个类作为Combiner的逻辑
    job.setCombinerClass(WordCountReducer.class);
    运行程序,如下图所示
    image

    OutputFormat数据输出

    OutputFormat接口实现类

    image

    自定义OutputFormat案例实操
    1)需求
    过滤输入的log日志,包含atguigu的网站输出到e:/atguigu.log,不包含atguigu的网站输出到e:/other.log。
    (1)输入数据log.txt

    http://www.baidu.com
    http://www.google.com
    http://cn.bing.com
    http://www.atguigu.com
    http://www.sohu.com
    http://www.sina.com
    http://www.sin2a.com
    http://www.sin2desa.com
    http://www.sindsafa.com
    

    (2)期望输出数据
    image
    2)需求分析
    image
    3)案例实操
    (1)编写LogMapper类

    package com.atguigu.mapreduce.outputformat;
    
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    
    import java.io.IOException;
    
    public class LogMapper extends Mapper<LongWritable, Text,Text, NullWritable> {
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
            //不做任何处理,直接写出一行log数据
            context.write(value,NullWritable.get());
        }
    }
    

    (2)编写LogReducer类

    package com.atguigu.mapreduce.outputformat;
    
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    
    import java.io.IOException;
    
    public class LogReducer extends Reducer<Text, NullWritable,Text, NullWritable> {
        @Override
        protected void reduce(Text key, Iterable<NullWritable> values, Context context) throws IOException, InterruptedException {
            // 防止有相同的数据,迭代写出
            for (NullWritable value : values) {
                context.write(key,NullWritable.get());
            }
        }
    }
    

    (3)自定义一个LogOutputFormat类

    package com.atguigu.mapreduce.outputformat;
    
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.RecordWriter;
    import org.apache.hadoop.mapreduce.TaskAttemptContext;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    import java.io.IOException;
    
    public class LogOutputFormat extends FileOutputFormat<Text, NullWritable> {
        @Override
        public RecordWriter<Text, NullWritable> getRecordWriter(TaskAttemptContext job) throws IOException, InterruptedException {
            //创建一个自定义的RecordWriter返回
            LogRecordWriter logRecordWriter = new LogRecordWriter(job);
            return logRecordWriter;
        }
    }
    

    (4)编写LogRecordWriter类

    package com.atguigu.mapreduce.outputformat;
    
    import org.apache.hadoop.fs.FSDataOutputStream;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IOUtils;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.RecordWriter;
    import org.apache.hadoop.mapreduce.TaskAttemptContext;
    
    import java.io.IOException;
    
    public class LogRecordWriter extends RecordWriter<Text, NullWritable> {
    
        private FSDataOutputStream atguiguOut;
        private FSDataOutputStream otherOut;
    
        public LogRecordWriter(TaskAttemptContext job) {
            try {
                //获取文件系统对象
                FileSystem fs = FileSystem.get(job.getConfiguration());
                //用文件系统对象创建两个输出流对应不同的目录
                atguiguOut = fs.create(new Path("d:/hadoop/atguigu.log"));
                otherOut = fs.create(new Path("d:/hadoop/other.log"));
            } catch (IOException e) {
                e.printStackTrace();
            }
        }
    
        @Override
        public void write(Text key, NullWritable value) throws IOException, InterruptedException {
            String log = key.toString();
            //根据一行的log数据是否包含atguigu,判断两条输出流输出的内容
            if (log.contains("atguigu")) {
                atguiguOut.writeBytes(log + "
    ");
            } else {
                otherOut.writeBytes(log + "
    ");
            }
        }
    
        @Override
        public void close(TaskAttemptContext context) throws IOException, InterruptedException {
            //关流
            IOUtils.closeStream(atguiguOut);
            IOUtils.closeStream(otherOut);
        }
    }
    

    (5)编写LogDriver类

    package com.atguigu.mapreduce.outputformat;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    import java.io.IOException;
    
    public class LogDriver {
        public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
    
            Configuration conf = new Configuration();
            Job job = Job.getInstance(conf);
    
            job.setJarByClass(LogDriver.class);
            job.setMapperClass(LogMapper.class);
            job.setReducerClass(LogReducer.class);
    
            job.setMapOutputKeyClass(Text.class);
            job.setMapOutputValueClass(NullWritable.class);
    
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(NullWritable.class);
    
            //设置自定义的outputformat
            job.setOutputFormatClass(LogOutputFormat.class);
    
            FileInputFormat.setInputPaths(job, new Path("D:\input"));
            //虽然我们自定义了outputformat,但是因为我们的outputformat继承自fileoutputformat
            //而fileoutputformat要输出一个_SUCCESS文件,所以在这还得指定一个输出目录
            FileOutputFormat.setOutputPath(job, new Path("D:\logoutput"));
    
            boolean b = job.waitForCompletion(true);
            System.exit(b ? 0 : 1);
        }
    }
    

    MapReduce内核源码解析

    MapTask工作机制

    image
    (1)Read阶段:MapTask通过InputFormat获得的RecordReader,从输入InputSplit中解析出一个个key/value。
    (2)Map阶段:该节点主要是将解析出的key/value交给用户编写map()函数处理,并产生一系列新的key/value。
    (3)Collect收集阶段:在用户编写map()函数中,当数据处理完成后,一般会调用OutputCollector.collect()输出结果。在该函数内部,它会将生成的key/value分区(调用Partitioner),并写入一个环形内存缓冲区中。
    (4)Spill阶段:即“溢写”,当环形缓冲区满后,MapReduce会将数据写到本地磁盘上,生成一个临时文件。需要注意的是,将数据写入本地磁盘之前,先要对数据进行一次本地排序,并在必要时对数据进行合并、压缩等操作。
    溢写阶段详情:
    步骤1:利用快速排序算法对缓存区内的数据进行排序,排序方式是,先按照分区编号Partition进行排序,然后按照key进行排序。这样,经过排序后,数据以分区为单位聚集在一起,且同一分区内所有数据按照key有序。
    步骤2:按照分区编号由小到大依次将每个分区中的数据写入任务工作目录下的临时文件output/spillN.out(N表示当前溢写次数)中。如果用户设置了Combiner,则写入文件之前,对每个分区中的数据进行一次聚集操作。
    步骤3:将分区数据的元信息写到内存索引数据结构SpillRecord中,其中每个分区的元信息包括在临时文件中的偏移量、压缩前数据大小和压缩后数据大小。如果当前内存索引大小超过1MB,则将内存索引写到文件output/spillN.out.index中。
    (5)Merge阶段:当所有数据处理完成后,MapTask对所有临时文件进行一次合并,以确保最终只会生成一个数据文件。
    当所有数据处理完后,MapTask会将所有临时文件合并成一个大文件,并保存到文件output/file.out中,同时生成相应的索引文件output/file.out.index。
    在进行文件合并过程中,MapTask以分区为单位进行合并。对于某个分区,它将采用多轮递归合并的方式。每轮合并mapreduce.task.io.sort.factor(默认10)个文件,并将产生的文件重新加入待合并列表中,对文件排序后,重复以上过程,直到最终得到一个大文件。
    让每个MapTask最终只生成一个数据文件,可避免同时打开大量文件和同时读取大量小文件产生的随机读取带来的开销。

    ReduceTask工作机制

    image

    (1)Copy阶段:ReduceTask从各个MapTask上远程拷贝一片数据,并针对某一片数据,如果其大小超过一定阈值,则写到磁盘上,否则直接放到内存中。
    (2)Sort阶段:在远程拷贝数据的同时,ReduceTask启动了两个后台线程对内存和磁盘上的文件进行合并,以防止内存使用过多或磁盘上文件过多。按照MapReduce语义,用户编写reduce()函数输入数据是按key进行聚集的一组数据。为了将key相同的数据聚在一起,Hadoop采用了基于排序的策略。由于各个MapTask已经实现对自己的处理结果进行了局部排序,因此,ReduceTask只需对所有数据进行一次归并排序即可。
    (3)Reduce阶段:reduce()函数将计算结果写到HDFS上。

    ReduceTask并行度决定机制

    回顾:MapTask并行度由切片个数决定,切片个数由输入文件和切片规则决定。
    思考:ReduceTask并行度由谁决定?
    1)设置ReduceTask并行度(个数)
    ReduceTask的并行度同样影响整个Job的执行并发度和执行效率,但与MapTask的并发数由切片数决定不同,ReduceTask数量的决定是可以直接手动设置:
    // 默认值是1,手动设置为4
    job.setNumReduceTasks(4);
    2)实验:测试ReduceTask多少合适
    (1)实验环境:1个Master节点,16个Slave节点:CPU:8GHZ,内存: 2G
    (2)实验结论:
    表 改变ReduceTask(数据量为1GB)
    MapTask =16
    ReduceTask 1 5 10 15 16 20 25 30 45 60
    总时间 892 146 110 92 88 100 128 101 145 104
    3)注意事项
    image

    MapTask & ReduceTask源码解析

    1)MapTask源码解析流程

    =================== MapTask ===================
    context.write(k, NullWritable.get());   //自定义的map方法的写出,进入
    output.write(key, value);  
    	//MapTask727行,收集方法,进入两次 
    collector.collect(key, value,partitioner.getPartition(key, value, partitions));
    	HashPartitioner(); //默认分区器
    collect()  //MapTask1082行 map端所有的kv全部写出后会走下面的close方法
    	close() //MapTask732行
    	collector.flush() // 溢出刷写方法,MapTask735行,提前打个断点,进入
    sortAndSpill() //溢写排序,MapTask1505行,进入
    	sorter.sort()   QuickSort //溢写排序方法,MapTask1625行,进入
    mergeParts(); //合并文件,MapTask1527行,进入
    	
    collector.close(); //MapTask739行,收集器关闭,即将进入ReduceTask
    

    大致流程:首先进入的是collet中的getPartitioner,生成key/value的分区;然后调用collet的方法,将key,value序列化,为了防止跨节点,元数据的值并赋值,直到溢写或者数据写完;再开始溢写前排序,遍历partitions,对每个分区下的key进行排序;再开始溢写,生成溢写文件和索引;再开始对每个内部有序的分区归并,将归并结果作为最后文件写到磁盘,也是数据和索引。
    2)ReduceTask源码解析流程

    =================== ReduceTask ===================
    if (isMapOrReduce())  //reduceTask324行,提前打断点
    initialize()   // reduceTask333行,进入
    init(shuffleContext);  // reduceTask375行,走到这需要先给下面的打断点
            totalMaps = job.getNumMapTasks(); // ShuffleSchedulerImpl第120行,提前打断点
             merger = createMergeManager(context); //合并方法,Shuffle第80行
    			// MergeManagerImpl第232 235行,提前打断点
    			this.inMemoryMerger = createInMemoryMerger(); //内存合并
    			this.onDiskMerger = new OnDiskMerger(this); //磁盘合并
    rIter = shuffleConsumerPlugin.run();
    		eventFetcher.start();  //开始抓取数据,Shuffle第107行,提前打断点
    		eventFetcher.shutDown();  //抓取结束,Shuffle第141行,提前打断点
    		copyPhase.complete();   //copy阶段完成,Shuffle第151行
    		taskStatus.setPhase(TaskStatus.Phase.SORT);  //开始排序阶段,Shuffle第152行
    	sortPhase.complete();   //排序阶段完成,即将进入reduce阶段 reduceTask382行
    reduce();  //reduce阶段调用的就是我们自定义的reduce方法,会被调用多次
    	cleanup(context); //reduce完成之前,会最后调用一次Reducer里面的cleanup方法
    

    大致流程:首先,先获取nummapTask的个数,看要拉取多少个的Maptask的个数;初始化内存和磁盘准备工作;开始拉取数据,内存不够,存到磁盘,且状态为copy;再进入归并状态,即为sort,进行最后全局的数据归并;最后走我们自定义的reducer逻辑方法,状态为reduce。

    Join应用

    Reduce Join

    Reduce Join案例实操

    1)需求
    image
    image
    2)需求分析
    通过将关联条件作为Map输出的key,将两表满足Join条件的数据并携带数据所来源的文件信息,发往同一个ReduceTask,在Reduce中进行数据的串联。
    image

    3)代码实现

    (1)创建商品和订单合并后的TableBean类
    package com.atguigu.mapreduce.reducejoin;
    
    import org.apache.hadoop.io.Writable;
    
    import java.io.DataInput;
    import java.io.DataOutput;
    import java.io.IOException;
    
    public class TableBean implements Writable {
    
        private String id; //订单id
        private String pid; //产品id
        private int amount; //产品数量
        private String pname; //产品名称
        private String flag; //判断是order表还是pd表的标志字段
    
        public TableBean() {
        }
    
        public String getId() {
            return id;
        }
    
        public void setId(String id) {
            this.id = id;
        }
    
        public String getPid() {
            return pid;
        }
    
        public void setPid(String pid) {
            this.pid = pid;
        }
    
        public int getAmount() {
            return amount;
        }
    
        public void setAmount(int amount) {
            this.amount = amount;
        }
    
        public String getPname() {
            return pname;
        }
    
        public void setPname(String pname) {
            this.pname = pname;
        }
    
        public String getFlag() {
            return flag;
        }
    
        public void setFlag(String flag) {
            this.flag = flag;
        }
    
        @Override
        public String toString() {
            return id + "	" + pname + "	" + amount;
        }
    
        @Override
        public void write(DataOutput out) throws IOException {
            out.writeUTF(id);
            out.writeUTF(pid);
            out.writeInt(amount);
            out.writeUTF(pname);
            out.writeUTF(flag);
        }
    
        @Override
        public void readFields(DataInput in) throws IOException {
            this.id = in.readUTF();
            this.pid = in.readUTF();
            this.amount = in.readInt();
            this.pname = in.readUTF();
            this.flag = in.readUTF();
        }
    }
    
    (2)编写TableMapper类
    package com.atguigu.mapreduce.reducejoin;
    
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.InputSplit;
    import org.apache.hadoop.mapreduce.Mapper;
    import org.apache.hadoop.mapreduce.lib.input.FileSplit;
    
    import java.io.IOException;
    
    public class TableMapper extends Mapper<LongWritable,Text,Text,TableBean> {
    
        private String filename;
        private Text outK = new Text();
        private TableBean outV = new TableBean();
    
        @Override
        protected void setup(Context context) throws IOException, InterruptedException {
            //获取对应文件名称
            InputSplit split = context.getInputSplit();
            FileSplit fileSplit = (FileSplit) split;
            filename = fileSplit.getPath().getName();
        }
    
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    
            //获取一行
            String line = value.toString();
    
            //判断是哪个文件,然后针对文件进行不同的操作
            if(filename.contains("order")){  //订单表的处理
                String[] split = line.split("	");
                //封装outK
                outK.set(split[1]);
                //封装outV
                outV.setId(split[0]);
                outV.setPid(split[1]);
                outV.setAmount(Integer.parseInt(split[2]));
                outV.setPname("");
                outV.setFlag("order");
            }else {                             //商品表的处理
                String[] split = line.split("	");
                //封装outK
                outK.set(split[0]);
                //封装outV
                outV.setId("");
                outV.setPid(split[0]);
                outV.setAmount(0);
                outV.setPname(split[1]);
                outV.setFlag("pd");
            }
    
            //写出KV
            context.write(outK,outV);
        }
    }
    
    (3)编写TableReducer类
    package com.atguigu.mapreduce.reducejoin;
    
    import org.apache.commons.beanutils.BeanUtils;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    
    import java.io.IOException;
    import java.lang.reflect.InvocationTargetException;
    import java.util.ArrayList;
    
    public class TableReducer extends Reducer<Text,TableBean,TableBean, NullWritable> {
    
        @Override
        protected void reduce(Text key, Iterable<TableBean> values, Context context) throws IOException, InterruptedException {
    
            ArrayList<TableBean> orderBeans = new ArrayList<>();
            TableBean pdBean = new TableBean();
    
            for (TableBean value : values) {
    
                //判断数据来自哪个表
                if("order".equals(value.getFlag())){   //订单表
    
    			  //创建一个临时TableBean对象接收value
                    TableBean tmpOrderBean = new TableBean();
    
                    try {
                        BeanUtils.copyProperties(tmpOrderBean,value);
                    } catch (IllegalAccessException e) {
                        e.printStackTrace();
                    } catch (InvocationTargetException e) {
                        e.printStackTrace();
                    }
    
    			  //将临时TableBean对象添加到集合orderBeans
                    orderBeans.add(tmpOrderBean);
                }else {                                    //商品表
                    try {
                        BeanUtils.copyProperties(pdBean,value);
                    } catch (IllegalAccessException e) {
                        e.printStackTrace();
                    } catch (InvocationTargetException e) {
                        e.printStackTrace();
                    }
                }
            }
    
            //遍历集合orderBeans,替换掉每个orderBean的pid为pname,然后写出
            for (TableBean orderBean : orderBeans) {
    
                orderBean.setPname(pdBean.getPname());
    
    		   //写出修改后的orderBean对象
                context.write(orderBean,NullWritable.get());
            }
        }
    }
    
    (4)编写TableDriver类
    package com.atguigu.mapreduce.reducejoin;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    import java.io.IOException;
    
    public class TableDriver {
        public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
            Job job = Job.getInstance(new Configuration());
    
            job.setJarByClass(TableDriver.class);
            job.setMapperClass(TableMapper.class);
            job.setReducerClass(TableReducer.class);
    
            job.setMapOutputKeyClass(Text.class);
            job.setMapOutputValueClass(TableBean.class);
    
            job.setOutputKeyClass(TableBean.class);
            job.setOutputValueClass(NullWritable.class);
    
            FileInputFormat.setInputPaths(job, new Path("D:\input"));
            FileOutputFormat.setOutputPath(job, new Path("D:\output"));
    
            boolean b = job.waitForCompletion(true);
            System.exit(b ? 0 : 1);
        }
    }
    

    4)测试
    运行程序查看结果

    1004	小米	4
    1001	小米	1
    1005	华为	5
    1002	华为	2
    1006	格力	6
    1003	格力	3
    

    5)总结
    缺点:这种方式中,合并的操作是在Reduce阶段完成,Reduce端的处理压力太大,Map节点的运算负载则很低,资源利用率不高,且在Reduce阶段极易产生数据倾斜。
    解决方案:Map端实现数据合并。

    Map Join

    1)使用场景
    Map Join适用于一张表十分小、一张表很大的场景。

    2)优点
    思考:在Reduce端处理过多的表,非常容易产生数据倾斜。怎么办?
    在Map端缓存多张表,提前处理业务逻辑,这样增加Map端业务,减少Reduce端数据的压力,尽可能的减少数据倾斜。

    3)具体办法:采用DistributedCache
    (1)在Mapper的setup阶段,将文件读取到缓存集合中。
    (2)在Driver驱动类中加载缓存。
    //缓存普通文件到Task运行节点。

    job.addCacheFile(new URI("file:///e:/cache/pd.txt"));
    

    //如果是集群运行,需要设置HDFS路径

    job.addCacheFile(new URI("hdfs://hadoop102:8020/cache/pd.txt"));
    

    Map Join案例实操

    1)需求
    image
    image
    2)需求分析
    MapJoin适用于关联表中有小表的情形。
    image
    3)实现代码

    (1)先在MapJoinDriver驱动类中添加缓存文件
    package com.atguigu.mapreduce.mapjoin;
    
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    import java.io.IOException;
    import java.net.URI;
    import java.net.URISyntaxException;
    
    public class MapJoinDriver {
    
        public static void main(String[] args) throws IOException, URISyntaxException, ClassNotFoundException, InterruptedException {
    
            // 1 获取job信息
            Configuration conf = new Configuration();
            Job job = Job.getInstance(conf);
            // 2 设置加载jar包路径
            job.setJarByClass(MapJoinDriver.class);
            // 3 关联mapper
            job.setMapperClass(MapJoinMapper.class);
            // 4 设置Map输出KV类型
            job.setMapOutputKeyClass(Text.class);
            job.setMapOutputValueClass(NullWritable.class);
            // 5 设置最终输出KV类型
            job.setOutputKeyClass(Text.class);
            job.setOutputValueClass(NullWritable.class);
    
            // 加载缓存数据
            job.addCacheFile(new URI("file:///D:/input/tablecache/pd.txt"));
            // Map端Join的逻辑不需要Reduce阶段,设置reduceTask数量为0
            job.setNumReduceTasks(0);
    
            // 6 设置输入输出路径
            FileInputFormat.setInputPaths(job, new Path("D:\input"));
            FileOutputFormat.setOutputPath(job, new Path("D:\output"));
            // 7 提交
            boolean b = job.waitForCompletion(true);
            System.exit(b ? 0 : 1);
        }
    }
    
    (2)在MapJoinMapper类中的setup方法中读取缓存文件
    package com.atguigu.mapreduce.mapjoin;
    
    import org.apache.commons.lang.StringUtils;
    import org.apache.hadoop.fs.FSDataInputStream;
    import org.apache.hadoop.fs.FileSystem;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IOUtils;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    
    import java.io.BufferedReader;
    import java.io.IOException;
    import java.io.InputStreamReader;
    import java.net.URI;
    import java.util.HashMap;
    import java.util.Map;
    
    public class MapJoinMapper extends Mapper<LongWritable, Text, Text, NullWritable> {
    
        private Map<String, String> pdMap = new HashMap<>();
        private Text text = new Text();
    
        //任务开始前将pd数据缓存进pdMap
        @Override
        protected void setup(Context context) throws IOException, InterruptedException {
    
            //通过缓存文件得到小表数据pd.txt
            URI[] cacheFiles = context.getCacheFiles();
            Path path = new Path(cacheFiles[0]);
    
            //获取文件系统对象,并开流
            FileSystem fs = FileSystem.get(context.getConfiguration());
            FSDataInputStream fis = fs.open(path);
    
            //通过包装流转换为reader,方便按行读取
            BufferedReader reader = new BufferedReader(new InputStreamReader(fis, "UTF-8"));
    
            //逐行读取,按行处理
            String line;
            while (StringUtils.isNotEmpty(line = reader.readLine())) {
                //切割一行    
    //01	小米
                String[] split = line.split("	");
                pdMap.put(split[0], split[1]);
            }
    
            //关流
            IOUtils.closeStream(reader);
        }
    
        @Override
        protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    
            //读取大表数据    
    //1001	01	1
            String[] fields = value.toString().split("	");
    
            //通过大表每行数据的pid,去pdMap里面取出pname
            String pname = pdMap.get(fields[1]);
    
            //将大表每行数据的pid替换为pname
            text.set(fields[0] + "	" + pname + "	" + fields[2]);
    
            //写出
            context.write(text,NullWritable.get());
        }
    }
    

    数据清洗(ETL)

    “ETL,是英文Extract-Transform-Load的缩写,用来描述将数据从来源端经过抽取(Extract)、转换(Transform)、加载(Load)至目的端的过程。ETL一词较常用在数据仓库,但其对象并不限于数据仓库
    在运行核心业务MapReduce程序之前,往往要先对数据进行清洗,清理掉不符合用户要求的数据。清理的过程往往只需要运行Mapper程序,不需要运行Reduce程序。
    1)需求
    去除日志中字段个数小于等于11的日志。
    (1)输入数据
    (2)期望输出数据
    每行字段长度都大于11。

    2)需求分析
    需要在Map阶段对输入的数据根据规则进行过滤清洗。

    3)实现代码
    (1)编写WebLogMapper类

    package com.atguigu.mapreduce.weblog;
    import java.io.IOException;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    
    public class WebLogMapper extends Mapper<LongWritable, Text, Text, NullWritable>{
    	
    	@Override
    	protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    		
    		// 1 获取1行数据
    		String line = value.toString();
    		
    		// 2 解析日志
    		boolean result = parseLog(line,context);
    		
    		// 3 日志不合法退出
    		if (!result) {
    			return;
    		}
    		
    		// 4 日志合法就直接写出
    		context.write(value, NullWritable.get());
    	}
    
    	// 2 封装解析日志的方法
    	private boolean parseLog(String line, Context context) {
    
    		// 1 截取
    		String[] fields = line.split(" ");
    		
    		// 2 日志长度大于11的为合法
    		if (fields.length > 11) {
    			return true;
    		}else {
    			return false;
    		}
    	}
    }
    

    (2)编写WebLogDriver类

    package com.atguigu.mapreduce.weblog;
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.NullWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    public class WebLogDriver {
    	public static void main(String[] args) throws Exception {
    
    // 输入输出路径需要根据自己电脑上实际的输入输出路径设置
            args = new String[] { "D:/input/inputlog", "D:/output1" };
    
    		// 1 获取job信息
    		Configuration conf = new Configuration();
    		Job job = Job.getInstance(conf);
    
    		// 2 加载jar包
    		job.setJarByClass(LogDriver.class);
    
    		// 3 关联map
    		job.setMapperClass(WebLogMapper.class);
    
    		// 4 设置最终输出类型
    		job.setOutputKeyClass(Text.class);
    		job.setOutputValueClass(NullWritable.class);
    
    		// 设置reducetask个数为0
    		job.setNumReduceTasks(0);
    
    		// 5 设置输入和输出路径
    		FileInputFormat.setInputPaths(job, new Path(args[0]));
    		FileOutputFormat.setOutputPath(job, new Path(args[1]));
    
    		// 6 提交
             boolean b = job.waitForCompletion(true);
             System.exit(b ? 0 : 1);
    	}
    }
    

    MapReduce开发总结

    1)输入数据接口:InputFormat
    (1)默认使用的实现类是:TextInputFormat
    (2)TextInputFormat的功能逻辑是:一次读一行文本,然后将该行的起始偏移量作为key,行内容作为value返回。
    (3)CombineTextInputFormat可以把多个小文件合并成一个切片处理,提高处理效率。

    2)逻辑处理接口:Mapper
    用户根据业务需求实现其中三个方法:map() setup() cleanup ()

    3)Partitioner分区
    (1)有默认实现 HashPartitioner,逻辑是根据key的哈希值和numReduces来返回一个分区号;key.hashCode()&Integer.MAXVALUE % numReduces
    (2)如果业务上有特别的需求,可以自定义分区。

    4)Comparable排序
    (1)当我们用自定义的对象作为key来输出时,就必须要实现WritableComparable接口,重写其中的compareTo()方法。
    (2)部分排序:对最终输出的每一个文件进行内部排序。
    (3)全排序:对所有数据进行排序,通常只有一个Reduce。
    (4)二次排序:排序的条件有两个。

    5)Combiner合并
    Combiner合并可以提高程序执行效率,减少IO传输。但是使用时必须不能影响原有的业务处理结果。

    6)逻辑处理接口:Reducer
    用户根据业务需求实现其中三个方法:reduce() setup() cleanup()

    7)输出数据接口:OutputFormat
    (1)默认实现类是TextOutputFormat,功能逻辑是:将每一个KV对,向目标文本文件输出一行。
    (2)用户还可以自定义OutputFormat。

    Hadoop数据压缩

    概述
    1)压缩的好处和坏处
    压缩的优点:以减少磁盘IO、减少磁盘存储空间。
    压缩的缺点:增加CPU开销。
    2)压缩原则
    (1)运算密集型的Job,少用压缩
    (2)IO密集型的Job,多用压缩

    MR支持的压缩编码
    1)压缩算法对比介绍
    image
    2)压缩性能的比较
    image
    压缩方式选择
    压缩方式选择时重点考虑:压缩/解压缩速度、压缩率(压缩后存储大小)、压缩后是否可以支持切片。

    • Gzip压缩
      优点:压缩率比较高;
      缺点:不支持Split;压缩/解压速度一般;
    • Bzip2压缩
      优点:压缩率高;支持Split;
      缺点:压缩/解压速度慢。
    • Lzo压缩
      优点:压缩/解压速度比较快;支持Split;
      缺点:压缩率一般;想支持切片需要额外创建索引。
    • Snappy压缩
      优点:压缩和解压缩速度快;
      缺点:不支持Split;压缩率一般;

    压缩位置选择
    压缩可以在MapReduce作用的任意阶段启用。
    image

    压缩参数配置
    1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器
    image
    image
    2)要在Hadoop中启用压缩,可以配置如下参数
    image

    压缩实操案例

    Map输出端采用压缩

    即使你的MapReduce的输入输出文件都是未压缩的文件,你仍然可以对Map任务的中间结果输出做压缩,因为它要写在硬盘并且通过网络传输到Reduce节点,对其压缩可以提高很多性能,这些工作只要设置两个属性即可,我们来看下代码怎么设置。

    1)给大家提供的Hadoop源码支持的压缩格式有:BZip2Codec、DefaultCodec
    package com.atguigu.mapreduce.compress;
    import java.io.IOException;
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.io.compress.BZip2Codec;	
    import org.apache.hadoop.io.compress.CompressionCodec;
    import org.apache.hadoop.io.compress.GzipCodec;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    public class WordCountDriver {
    
    	public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
    
    		Configuration conf = new Configuration();
    
    		// 开启map端输出压缩
    		conf.setBoolean("mapreduce.map.output.compress", true);
    
    		// 设置map端输出压缩方式
    		conf.setClass("mapreduce.map.output.compress.codec", BZip2Codec.class,CompressionCodec.class);
    
    		Job job = Job.getInstance(conf);
    
    		job.setJarByClass(WordCountDriver.class);
    
    		job.setMapperClass(WordCountMapper.class);
    		job.setReducerClass(WordCountReducer.class);
    
    		job.setMapOutputKeyClass(Text.class);
    		job.setMapOutputValueClass(IntWritable.class);
    
    		job.setOutputKeyClass(Text.class);
    		job.setOutputValueClass(IntWritable.class);
    
    		FileInputFormat.setInputPaths(job, new Path(args[0]));
    		FileOutputFormat.setOutputPath(job, new Path(args[1]));
    
    		boolean result = job.waitForCompletion(true);
    
    		System.exit(result ? 0 : 1);
    	}
    }
    

    2)Mapper保持不变

    package com.atguigu.mapreduce.compress;
    import java.io.IOException;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.LongWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Mapper;
    
    public class WordCountMapper extends Mapper<LongWritable, Text, Text, IntWritable>{
    
    	Text k = new Text();
    	IntWritable v = new IntWritable(1);
    
    	@Override
    	protected void map(LongWritable key, Text value, Context context)throws IOException, InterruptedException {
    
    		// 1 获取一行
    		String line = value.toString();
    
    		// 2 切割
    		String[] words = line.split(" ");
    
    		// 3 循环写出
    		for(String word:words){
    			k.set(word);
    			context.write(k, v);
    		}
    	}
    }
    

    3)Reducer保持不变

    package com.atguigu.mapreduce.compress;
    import java.io.IOException;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.mapreduce.Reducer;
    
    public class WordCountReducer extends Reducer<Text, IntWritable, Text, IntWritable>{
    
    	IntWritable v = new IntWritable();
    
    	@Override
    	protected void reduce(Text key, Iterable<IntWritable> values,
    			Context context) throws IOException, InterruptedException {
    		
    		int sum = 0;
    
    		// 1 汇总
    		for(IntWritable value:values){
    			sum += value.get();
    		}
    		
             v.set(sum);
    
             // 2 输出
    		context.write(key, v);
    	}
    }
    

    Reduce输出端采用压缩
    基于WordCount案例处理。
    1)修改驱动

    package com.atguigu.mapreduce.compress;
    import java.io.IOException;
    import org.apache.hadoop.conf.Configuration;
    import org.apache.hadoop.fs.Path;
    import org.apache.hadoop.io.IntWritable;
    import org.apache.hadoop.io.Text;
    import org.apache.hadoop.io.compress.BZip2Codec;
    import org.apache.hadoop.io.compress.DefaultCodec;
    import org.apache.hadoop.io.compress.GzipCodec;
    import org.apache.hadoop.io.compress.Lz4Codec;
    import org.apache.hadoop.io.compress.SnappyCodec;
    import org.apache.hadoop.mapreduce.Job;
    import org.apache.hadoop.mapreduce.lib.input.FileInputFormat;
    import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;
    
    public class WordCountDriver {
    
    	public static void main(String[] args) throws IOException, ClassNotFoundException, InterruptedException {
    		
    		Configuration conf = new Configuration();
    		
    		Job job = Job.getInstance(conf);
    		
    		job.setJarByClass(WordCountDriver.class);
    		
    		job.setMapperClass(WordCountMapper.class);
    		job.setReducerClass(WordCountReducer.class);
    		
    		job.setMapOutputKeyClass(Text.class);
    		job.setMapOutputValueClass(IntWritable.class);
    		
    		job.setOutputKeyClass(Text.class);
    		job.setOutputValueClass(IntWritable.class);
    		
    		FileInputFormat.setInputPaths(job, new Path(args[0]));
    		FileOutputFormat.setOutputPath(job, new Path(args[1]));
    		
    		// 设置reduce端输出压缩开启
    		FileOutputFormat.setCompressOutput(job, true);
    
    		// 设置压缩的方式
    	    FileOutputFormat.setOutputCompressorClass(job, BZip2Codec.class); 
    //	    FileOutputFormat.setOutputCompressorClass(job, GzipCodec.class); 
    //	    FileOutputFormat.setOutputCompressorClass(job, DefaultCodec.class); 
    	    
    		boolean result = job.waitForCompletion(true);
    		
    		System.exit(result?0:1);
    	}
    }
    

    2)Mapper和Reducer保持不变

    常见错误及解决方案

    1)导包容易出错。尤其Text和CombineTextInputFormat。

    2)Mapper中第一个输入的参数必须是LongWritable或者NullWritable,不可以是IntWritable. 报的错误是类型转换异常。

    3)java.lang.Exception: java.io.IOException: Illegal partition for 13926435656 (4),说明Partition和ReduceTask个数没对上,调整ReduceTask个数。

    4)如果分区数不是1,但是reducetask为1,是否执行分区过程。答案是:不执行分区过程。因为在MapTask的源码中,执行分区的前提是先判断ReduceNum个数是否大于1。不大于1肯定不执行。

    5)在Windows环境编译的jar包导入到Linux环境中运行,

    hadoop jar wc.jar com.atguigu.mapreduce.wordcount.WordCountDriver /user/atguigu/ /user/atguigu/output
    报如下错误:
    Exception in thread "main" java.lang.UnsupportedClassVersionError: com/atguigu/mapreduce/wordcount/WordCountDriver : Unsupported major.minor version 52.0
    

    原因是Windows环境用的jdk1.7,Linux环境用的jdk1.8。
    解决方案:统一jdk版本。

    6)缓存pd.txt小文件案例中,报找不到pd.txt文件
    原因:大部分为路径书写错误。还有就是要检查pd.txt.txt的问题。还有个别电脑写相对路径找不到pd.txt,可以修改为绝对路径。

    7)报类型转换异常。
    通常都是在驱动函数中设置Map输出和最终输出时编写错误。
    Map输出的key如果没有排序,也会报类型转换异常。

    8)集群中运行wc.jar时出现了无法获得输入文件。
    原因:WordCount案例的输入文件不能放用HDFS集群的根目录。

    9)出现了如下相关异常

    Exception in thread "main" java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
    	at org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Native Method)
    	at org.apache.hadoop.io.nativeio.NativeIO$Windows.access(NativeIO.java:609)
    	at org.apache.hadoop.fs.FileUtil.canRead(FileUtil.java:977)
    java.io.IOException: Could not locate executable nullinwinutils.exe in the Hadoop binaries.
    	at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:356)
    	at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:371)
    	at org.apache.hadoop.util.Shell.<clinit>(Shell.java:364)
    

    解决方案:拷贝hadoop.dll文件到Windows目录C:WindowsSystem32。还需要修改Hadoop源码。
    方案二:创建如下包名,并将NativeIO.java拷贝到该包名下
    image
    10)自定义Outputformat时,注意在RecordWirter中的close方法必须关闭流资源。否则输出的文件内容中数据为空。

    @Override
    public void close(TaskAttemptContext context) throws IOException, InterruptedException {
    		if (atguigufos != null) {
    			atguigufos.close();
    		}
    		if (otherfos != null) {
    			otherfos.close();
    		}
    }
    
  • 相关阅读:
    php函数
    字符滚动效果0515复习笔记+注释
    0514复习Windows操作及DOM的使用
    超链接文字随状态改变变色2016-0514
    js笔记之影音插入0514
    js类型转换,运算符,语句
    JS学习1简介
    json文件的json.parse(data)方法时候碰到的问题
    样式属性
    css样式表0513补
  • 原文地址:https://www.cnblogs.com/gllyun/p/15191416.html
Copyright © 2020-2023  润新知