• Hadoop TextInputFormat


    1. TextInputFortmat

    TextInputFormat是默认的InputFormat。每条记录是一行输入。KeyLongWritable类型,存储该行在整个文件中的字节偏移量(不是行数),值是这行的内容,为一个Text对象。

    例如输入文件为:

    grunt> cat test2

    12,e21,ddwq,dqw,dwqw

    sfd,cda,cdsz,cdwq,qwe

    12,cds,fwa,feacd,cadfa

    21ede,cdsf,ca,fa,dcac

    caewf,ea,cdadc,acds,acsd

    12e,afs,afesd,caefd,cawc

    cax,cafe,caefe,fea,ceaef

    在使用默认的 Map处理后输出:

    grunt> cat out

    0   12,e21,ddwq,dqw,dwqw

    21  sfd,cda,cdsz,cdwq,qwe

    43  12,cds,fwa,feacd,cadfa

    66  21ede,cdsf,ca,fa,dcac

    88  caewf,ea,cdadc,acds,acsd

    113 12e,afs,afesd,caefd,cawc

    138  cax,cafe,caefe,fea,ceaef

    可以看到Key的值并不是行数,而是字节在文件中的偏移量。一般情况下,很难获取到文件的行号,因为文件是按字节切分为分片,而不是按行切分。

    在按行读文本的情况下,可能会存在超长行的情况。超长行会导致内存溢出,可以通过设置 mapreduce.input.linerecordreader.line.maxlength,指定一个最长行的字节数(在内存范围内),可以确保 recordreader 跳过超长行。

    2. KeyValueTextInputFormat

    TextInputFormat 将文件中的行作为Key,每行对应的文本作为Value。但是对于某些文件内容已经是 Key-Value 形式的话,使用 TextInputFormat 会显得多次一举。在这种情况下,我们可以使用KeyValueTextInputFormat,它以某个分隔符进行分割(默认为制表符):

    public KeyValueLineRecordReader(Configuration conf) throws IOException {
        String sepStr = conf.get(
    "mapreduce.input.keyvaluelinerecordreader.key.value.separator", " ");
       
    this.separator = (byte)sepStr.charAt(0);
    }

    一个范例如下,使用逗号为分隔符:

    grunt> cat test2

    12,e21,ddwq,dqw,dwqw

    sfd,cda,cdsz,cdwq,qwe

    12,cds,fwa,feacd,cadfa

    21ede,cdsf,ca,fa,dcac

    输出为:

    grunt> cat out

    12  cds,fwa,feacd,cadfa

    12  e21,ddwq,dqw,dwqw

    12e afs,afesd,caefd,cawc

    21ede   cdsf,ca,fa,dcac

    在任务设置中需要做的配置如下:

    Configuration conf = new Configuration();
    conf.set(
    "mapreduce.input.keyvaluelinerecordreader.key.value.separator", ",");
    job.setInputFormatClass(org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat.class);

    3. NLineInputFormat

    在使用TextInputFormatKeyValueInputFormat 时,每个mapper 收到的行数取决于输入的分片大小以及行的长度。如果希望 mapper 收到固定行的输入,则需要使用 NLineInputFormat。与 TextInputFormat一样,key是文件中的字节偏移量,值是行本身。

    N是每个mapper收到的输入行数。N设置为1时(默认),每个mapper正好收到一行输入。同样使用之前的一共7行输入,使用NLineInputFormat

    job.setInputFormatClass(org.apache.hadoop.mapreduce.lib.input.NLineInputFormat.class);

    grunt> cat out

    0   12,e21,ddwq,dqw,dwqw

    21  sfd,cda,cdsz,cdwq,qwe

    43   12,cds,fwa,feacd,cadfa

    查看此任务的相关指标,可以看到:

    Job Counters

            Launched map tasks=7

            Launched reduce tasks=1

            Other local map tasks=7

    Mapper数一共有7个,也就是每行均生成了一个Map。可以通过设置以下参数指定NLine为多少行:

    mapreduce.input.lineinputformat.linespermap

    References: Hadoop权威指南第四版

  • 相关阅读:
    [转]How can I create a design netlist without including my source design files?
    [转]基于FPGA的以太网开发
    [转]GMII/RGMII/SGMII/TBI/RTBI接口信号及时序介绍
    [原]Altium画PCB时鼠标十字不能对准焊盘中心
    [转]Altera特殊管脚的使用(适用全系列Altera FPGA,MSEL区别除外)-来自altera论坛
    [转]STM32正交编码器驱动电机
    [转]使用D触发器制作正交编码器的鉴相电路
    [转]解决STM32开启定时器时立即进入一次中断程序问题
    [转]ISE iMPACT bit生成mcs
    [转]NiosII处理器软件代码优化方法
  • 原文地址:https://www.cnblogs.com/zackstang/p/10799303.html
Copyright © 2020-2023  润新知