• Hadoop之MapReduce开发总结


    @

    1.输入数据接口:InputFormat

    (1)默认使用的实现类是:TextInputFormat
    (2)TextInputFormat的功能逻辑是:一次读一行文本,然后将该行的起始偏移量作为key,行内容作为value返回。
    (3)KeyValueTextInputFormat每一行均为一条记录,被分隔符分割为key,value。默认分隔符是tab( )。
    (4)NlinelnputFormat按照指定的行数N来划分切片。
    (5)CombineTextlnputFormat可以把多个小文件合并成一个切片处理,提高处理效率。
    (6)用户还可以自定义InputFormat

    2.逻辑处理接口:Mapper

    用户根据业务需求实现其中三个方法:map()、setup()、cleanup()

    3.Partitioner分区

    (1)有默认实现HashPartitioner,逻辑是根据key的哈希值和numReduces来返回一个分区号;key.hashCode() & Integer.MAXVALUE%numReduces
    (2)如果业务上有特别的需求,可以自定义分区。

    4.Comparable排序

    (1)当我们用自定义的对象作为key来输出时,就必须要实现·WritableComparable·接口,重写其中的compareTo()方法。
    (2)部分排序:对最终输出的每一个文件进行内部排序。
    (3)全排序:对所有数据进行排序,通常只有一个Reduce。
    (4)二次排序:排序的条件有两个。

    5.Combiner合并(可选)

    Combiner合并可以提高程序执行效率,减少IO传输。但是使用时必须不能影响原有的业务处理结果。

    6.Reduce端分组GroupingComparator

    Mapreduce框架在记录到达Reducer之前按键对记录排序,但键所对应的值并没有被排序。一般来说,大多数MapReduce程序会避免让Reduce函数依赖于值的排序。但是,有时也需要通过特定的方法对键进行排序和分组以实现对值的排序。

    7.逻辑处理接口:Reducer

    用户根据业务需求实现其中三个方法:reduce()、setup()、cleanup()

    8.输出数据接口:OutputFormat

    (1)默认实现类是TextOutputFormat,功能逻辑是:将每一个KV对,向目标文本文件输出一行。
    (2)将SequenceFileOutputFormat输出作为后续MapReduce任务的输入,这便是一种好的输出格式,因为它的格式紧凑,很容易被压缩。
    (3)用户还可以自定义OutputFormat。

    如果真的不知道做什么 那就做好眼前的事情吧 你所希望的事情都会慢慢实现...
  • 相关阅读:
    加载页面遮挡耗时操作任务页面--第三方开源--AndroidProgressLayout
    【数据库】SQLite学习
    【数据库】MongoDB学习
    【英语】Bingo口语笔记(8)
    【英语】TED视频笔记
    自动关联
    HTML和URL比较
    LR回放测试脚本
    LR录制脚本IE不能打开解决方法
    LR录制测试脚本
  • 原文地址:https://www.cnblogs.com/sunbr/p/13679464.html
Copyright © 2020-2023  润新知