• Hadoop之MapReduce开发总结


    @

    1.输入数据接口:InputFormat

    (1)默认使用的实现类是:TextInputFormat
    (2)TextInputFormat的功能逻辑是:一次读一行文本,然后将该行的起始偏移量作为key,行内容作为value返回。
    (3)KeyValueTextInputFormat每一行均为一条记录,被分隔符分割为key,value。默认分隔符是tab( )。
    (4)NlinelnputFormat按照指定的行数N来划分切片。
    (5)CombineTextlnputFormat可以把多个小文件合并成一个切片处理,提高处理效率。
    (6)用户还可以自定义InputFormat

    2.逻辑处理接口:Mapper

    用户根据业务需求实现其中三个方法:map()、setup()、cleanup()

    3.Partitioner分区

    (1)有默认实现HashPartitioner,逻辑是根据key的哈希值和numReduces来返回一个分区号;key.hashCode() & Integer.MAXVALUE%numReduces
    (2)如果业务上有特别的需求,可以自定义分区。

    4.Comparable排序

    (1)当我们用自定义的对象作为key来输出时,就必须要实现·WritableComparable·接口,重写其中的compareTo()方法。
    (2)部分排序:对最终输出的每一个文件进行内部排序。
    (3)全排序:对所有数据进行排序,通常只有一个Reduce。
    (4)二次排序:排序的条件有两个。

    5.Combiner合并(可选)

    Combiner合并可以提高程序执行效率,减少IO传输。但是使用时必须不能影响原有的业务处理结果。

    6.Reduce端分组GroupingComparator

    Mapreduce框架在记录到达Reducer之前按键对记录排序,但键所对应的值并没有被排序。一般来说,大多数MapReduce程序会避免让Reduce函数依赖于值的排序。但是,有时也需要通过特定的方法对键进行排序和分组以实现对值的排序。

    7.逻辑处理接口:Reducer

    用户根据业务需求实现其中三个方法:reduce()、setup()、cleanup()

    8.输出数据接口:OutputFormat

    (1)默认实现类是TextOutputFormat,功能逻辑是:将每一个KV对,向目标文本文件输出一行。
    (2)将SequenceFileOutputFormat输出作为后续MapReduce任务的输入,这便是一种好的输出格式,因为它的格式紧凑,很容易被压缩。
    (3)用户还可以自定义OutputFormat。

    如果真的不知道做什么 那就做好眼前的事情吧 你所希望的事情都会慢慢实现...
  • 相关阅读:
    百度笔试1
    几只经典题目拿来瞅瞅
    批处理 使用500个线程并发下载远程文件
    小心使用静态属性
    linux链接数据库慢解决方法
    shell执行脚本路径设置
    servlet 的request对象获取用户请求路径
    如何在linux服务器上抓包?
    由验证下载服务器性能得到的启示
    java中如何获取当前文件的物理路径?
  • 原文地址:https://www.cnblogs.com/sunbr/p/13679464.html
Copyright © 2020-2023  润新知