• mapreduce计算框架


    一. MapReduce执行过程

    1. 分片:
      (1)对输入文件进行逻辑分片,划分split(split大小等于hdfs的block大小)
      (2)每个split分片文件会发往不同的Mapper节点进行分散处理
    2. mapper任务
      (3)每个Mapper节点拿到split分片后,创建RecordReader,把分片数据解析成键值对<k1,v1>,每对<k1,v1>进行一次map操作形成<k2,v2>,此时的<k2,v2>存储在内存的环形缓冲区内(默认100m),当缓冲区达到80%时,就会把这个缓冲区内的全部数据写到linux磁盘文件中,形成溢写文件
      (4)溢写的过程不是简单的磁盘拷贝,溢写线程会把缓冲区中的数据进行分组partition,一个分区交给一个reducer处理。分组过程默认由HashPartitioner类处理
      reducer=(key.hashCode() & Integer.MAX_VALUE) % numReduceTasks 
      

    (5)溢写线程把分组后的数据进行排序,形成分区内的有序数据,如果设置了combiner,此时对内存中的有序数据进行规约,规约后形成溢写文件保存在磁盘上。数据全部处理后,磁盘上会有很多的溢写文件,mapper端对每个分区内的文件不断地分组排序再规约,形成一个大的分区文件(规约是为了减小生成文件的大小,减少发往reduce的传输量)
    3. reducer任务
    (6)每个reducer负责处理一个分区文件的数据,所以reducer回去所有mapper节点,拷贝属于自己的分区文件。拷贝的文件先放到内存中,当超过缓冲区限制,reducer再次对数据进行排序合并,形成跨多个mapper的<k2,list<v2>>,再将其写入到磁盘中形成reduce的溢写文件
    (7)随着溢写文件的增多,后台线程会把这些文件合并成一个大的有序的文件,之后reducer对该大文件的<k2,list<v2>>进行reduce函数处理
    (8)把处理后的文件上传到hdfs中

    二. hadoop序列化

    1. 实现Writable接口
      (1)序列化:readFields(DataInput)
      (2)反序列化:write(DataOutput)序列化
      hadoop的数据类型是在网络上传输的序列化数据 ,底层用Dataoutput写出到网络上 ,DataInput读取网络传来的字节流
      hadoop中已经定义好的数据类型只能写出基本类型,要传输自定义的类,就要自定义序列化类型
      // DataOutputStream写出int
      public final void writeInt(int v) throws IOException {
      	out.write((v >>> 24) & 0xFF);
      	out.write((v >>> 16) & 0xFF);
      	out.write((v >>>  8) & 0xFF);
      	out.write((v >>>  0) & 0xFF);
      	incCount(4);
      }
      
      // DataInputStream读取int
      public final int readInt() throws IOException {
      	int ch1 = in.read();
      	int ch2 = in.read();
      	int ch3 = in.read();
      	int ch4 = in.read();
      	if ((ch1 | ch2 | ch3 | ch4) < 0)
      		throw new EOFException();
      	return ((ch1 << 24) + (ch2 << 16) + (ch3 << 8) + (ch4 << 0));
      }
      
    
    2. hadoop的序列化比java自定义的序列化效率高 ?
     java自定义的序列化在序列化一个对象时,要把这个对象的父类关系全部序列化出去, hadoop的序列化,DataInput只序列化基本数据类型,减小网络传输的字节数
    (1)hadoop自定义序列化要加上空参构造,反射获取对象时要用到,否则报no method异常
    (2)Reduce时的context.write(k3,v3)会调用TextOutputFormat的writeObj(),里面会调用toString()方法
    (3)序列化类的属性要给出setter方法,当序列化类没有toString()方法时,reduce输出文件中hashcode的值是一样的,证明是一个对象,一个对象输出的值却不一样,说明reduce中也在不停调用序列化类的set方法赋值
    
    ###三. Mapreduce二级排序
    二级排序:hadoop在Mapper产生的数据发往reducer之前进行一次排序,按照k2排序,如果还希望按照v2排序,怎么做呢?  
    1. Reducer的iterator获取所有值进行内存排序,这样可能会导致内存溢出  
    2. 重新设计k2,利用hadoop进行排序  
    (1)k2设计成对象,对象内包含value属性
    
    	```java
    	public class SecondarySortingTemperatureMapper extends Mapper<LongWritable, Text, TemperaturePair, NullWritable> {
    	 
    	    private TemperaturePair temperaturePair = new TemperaturePair();
    	    private NullWritable nullValue = NullWritable.get();
    	    private static final int MISSING = 9999;
    	@Override
    	    protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
    	        String line = value.toString();
    	        String yearMonth = line.substring(15, 21);
    	 
    	        int tempStartPosition = 87;
    	 
    	        if (line.charAt(tempStartPosition) == '+') {
    	            tempStartPosition += 1;
    	        }
    	 
    	        int temp = Integer.parseInt(line.substring(tempStartPosition, 92));
    	 
    	        if (temp != MISSING) {
    	            temperaturePair.setYearMonth(yearMonth);
    	            temperaturePair.setTemperature(temp);
    	            context.write(temperaturePair, nullValue);
    	        }
    	    }
    	}
    	```
    (2)k2实现实现WritableComparable接口,重写k2的compareTo方法,先比较k属性,k属性相同时比较v属性 
    
    	```java
    	public int compareTo(TemperaturePair temperaturePair) {
    	        int compareValue = this.yearMonth.compareTo(temperaturePair.getYearMonth());
    	        if (compareValue == 0) {
    	            compareValue = temperature.compareTo(temperaturePair.getTemperature());
    	        }
    	        return compareValue;
    	    }
    	```
    (3)k2重新设计后,还要保证详设计前一样,逻辑上相同的k要发到同一个reducer上,因此,重写partitioner的compare方法,return k2.k.hascode()%numPartitions
    
    	```java
    	public class TemperaturePartitioner extends Partitioner<TemperaturePair, NullWritable>{
    	    @Override
    	    public int getPartition(TemperaturePair temperaturePair, NullWritable nullWritable, int numPartitions) {
    	        return temperaturePair.getYearMonth().hashCode() % numPartitions;
    	    }
    	}
    	```
    (4)数据抵达reducer时,会按照key分组,为了保证向重新设计k2前一样,分组时仅按照原始k分组,因此重写分组比较器
    	```java
    	public class YearMonthGroupingComparator extends WritableComparator {
    	    public YearMonthGroupingComparator() {
    	        super(TemperaturePair.class, true);
    	    }
    	    @Override
    	    public int compare(WritableComparable tp1, WritableComparable tp2) {
    	        TemperaturePair temperaturePair = (TemperaturePair) tp1;
    	        TemperaturePair temperaturePair2 = (TemperaturePair) tp2;
    	        return temperaturePair.getYearMonth().compareTo(temperaturePair2.getYearMonth());
    	    }
    	}
    	```
    
    ###四.yarn的执行流程
    ![](http://images2015.cnblogs.com/blog/695743/201603/695743-20160326134511964-1270933307.png)
  • 相关阅读:
    Spring cloud实现服务注册及发现
    使用spring cloud实现分布式配置管理
    spring cloud教程之使用spring boot创建一个应用
    7天学会spring cloud教程
    微服务开发的12项要素
    一句话概括下spring框架及spring cloud框架主要组件
    翻译-服务注册与发现
    翻译-微服务API Gateway
    微服务分布式事务的一些思考
    解决不能正常访问workerman的问题
  • 原文地址:https://www.cnblogs.com/72808ljup/p/5322638.html
Copyright © 2020-2023  润新知