• Hadoop3.1.1源码Client详解 : 入队前数据写入


    该系列总览: Hadoop3.1.1架构体系——设计原理阐述与Client源码图文详解 : 总览

    紧接着上一篇: Hadoop3.1.1源码Client详解 : 写入准备-RPC调用与流的建立

    先给出数据写入时的3个主要载体

     载体1是我们实际要写入HDFS的数据,一般是字节数组

     载体2是一个字节数组,这个字节数组位于校验和计算类FSOutputSummer的对象中

     载体3是客户端和DataNode通信的重要载体,来自载体2的数据(3中的实际数据)被加上消息头和来自载体2的校验和,打成一个Packet,并且Packet被写满或

     Block被写满后被压入守护线程DataStreamer的消息队列dataQueue中。

     接着我们来阐述各个载体间的关系,以及分析整个数据流

     首先是载体1和载体2间的关系

     我们要知道,当我们调用Hadoop客户端的FSDataOutputStream的write方法的时候,是不一定会真正的写出数据的。

     因为Hadoop输出流的设计采用了修饰模式,各个流都是对另一个流的包装(功能添加)。

     FSDataOutputStream包装了PositionCache,PositionCache包装了FSOutputSummer(其实包装的是DFSOutputStream,DFSOutputStream继承FSOutputSummer)

     因为PositionCache的功能比较鸡肋,主要是统计数据流,简化起见,之后我们省略他。

     整体的调用关系:为了分析方便 打上颜色

       调用FSDataOutputStream.write(byte[] b),也就是我们平常写入数据流的方法,会通过各种修饰关系兜兜转转调用到上图红色的函数(write)上,中间过程的函数省略

       我们来看一下红色函数write干了什么。

       红色函数实际上是把我们实际输入的数据,分段地输入到write1方法中,而且根据write1方法返回的值,了解到write1方法实际上写入了多少数据

       

           

     红色函数write实际上只是保证我们数据能分段写入绿色函数write1

     在write1中我们遇到第一层缓冲,也就是载体2,buffer数组, buffer大小一般是每份校验和大小的9倍,每份校验和大小在客户端的 dfs.bytes-per-checksum 选   项中设置。

     

     其中第二种情况的flushBuffer函数中包含了对橙色函数writeChecksumChunks函数的调用

     这个函数应该拆成writeChecksum/Chunks , 因为这个函数负责计算校验和(checksum)并且调用writeChunk(紫色函数)来写入Chunk

     绿框所在的for循环做的是把buffer传来的数据切成许多份(一般是9份),每份的大小是BytesPerCheckSum,BytesPerCheckSum的意思是在整个数据中

     每隔多少字节就计算过一次校验和。

     关于Chunk的含义和校验和种类稍后介绍

     我们看橙色函数writeChecksumChunks,

     红框的地方是计算校验和

     计算检验和的大体做法是:在写入数据的时候,把数据分成等大小的若干份(最后一份可能不是等大小的),然后对每份进行校验和计算,把算出来的结果

     添加到数据头部或者尾部,下次取出数据的时候就可以根据校验和计算数据,是否出错。

      这里计算校验和的算法默认是CRC32

     绿色空心框中的BytesPerChecksum就是每份数据的大小,也就是绿色长方形的大小,每个绿色长方形被叫做Chunk(BytesPerChecksum大小的一份数据)

     蓝色空心框部分十分重要,框中方法writeChuck(紫色函数)被DFSOutputStream重写

    下面是简单的说明,之后有详解

    我们来看看图解,序号表示操作执行顺序

      1.第一步其实还有一些检查操作,但主要操作还是创建包

      2.第二步是逐块逐块地向Packet里填充校验和

      3.第三部是逐块逐块地向Packet填充chunk,chunk是我们实际写入数据被分成等大小的那些块。

      4.第四步是记录Packet写入了多少个chunk,当写入的数量超过限制的时候(默认是126,具体会根据bytesPerCheckSum和现在是否写入最后一个数据Packet

      进行调整)就会触发M事件(M事件稍后解释)

      5.第五步是增加DataStreamer记录的当前块已经写入的数据大小(字节为单位),如果已经写入块的数据等于块的大小,也会触发事件M

     

    事件M:

      事件M其实就是调用enqueueCurrentPacketFull函数

     这个函数主要分3步,第一步是让当前的Packet入队并且将当前Packet设置为空,第二步是根据边界关系调整下一个Packet的大小,第三步是检查是否块已写满

     第一步:

     很明显,让Packet入队,并且将当前Packet的引用置空,以便下一次创建一个新的Packet

     

     第二步:

     边界调整,什么是边界调整呢?我们要写满一个块,要发送若干个Packet给DataNode,一般Packet的大小是相同的

     但是如果Block大小不能被Packet整除的话,就需要调整最后一个Packet的大小,以便正好写满Block。

     其实第二步是有两个分支的,上述分析的是第二个分支,第一个分支笔者暂时没有研究透,之后补充。

     第三步:

     检查是否已经写满一个Block了,如果是,就会把当前包里的数据清空,让这个包作为一个结束通知包,发送给DataNode,告知DataNode

     当前的Block已经写完了。

     

     

     lastPacketInBlock正是来通知DataNode,当前包是Block最后一个包的,没有数据,各项大小都是0,以起到通知作用。

     本文分析到此,入队以及之后的操作另外开文分析。

     从本文的缓冲以及要写满一个Packet才发送数据我们可以得知 : 

     有时我们写入了数据,关闭客户端,发现并没有数据被写入HDFS,是因为写入的数据没有写满一个Packet,甚至是没有达到缓冲区大小所以没有被写到HDFS   中。

     虽然这一定程度上违背了POSIX标准中对用户操作响应要及时的要求,但适合Hadoop面向大数据传输的特性。

     而且如果只传一点数据就写入HDFS,NameNode会因为频繁的请求和大量的文件元数据(metaData)而崩溃宕机

     DataNode也会因为频繁琐碎的文件传输请求而导致网络利用率低,甚至宕机。

  • 相关阅读:
    Android之退出整个应用方法
    自定义popupwindow(解决位置控制困惑)
    日期格式转换
    简单用于测试的listview的视图
    复制res下文件进sd卡
    自定义九宫格式的弹出menu
    动画隐藏或者显示控件
    截取p3片段
    微信几种动画进入退出应用
    codeforce Round On Sum of Fractions + stl 的应用
  • 原文地址:https://www.cnblogs.com/lqlqlq/p/12303576.html
Copyright © 2020-2023  润新知