• [源码解析] Flink UDAF 背后做了什么


    [源码解析] Flink UDAF 背后做了什么

    0x00 摘要

    本文涉及到Flink SQL UDAF,Window 状态管理等部分,希望能起到抛砖引玉的作用,让大家可以借此深入了解这个领域。

    0x01 概念

    1.1 概念

    大家知道,Flink的自定义聚合函数(UDAF)可以将多条记录聚合成1条记录,这功能是通过accumulate方法来完成的,官方参考指出:

    在系统运行过程中,底层runtime代码会把历史状态accumulator,和您指定的上游数据(支持任意数量,任意类型的数据)作为参数,一起发送给accumulate计算。

    但是实时计算还有一些特殊的场景,在此场景下,还需要提供merge方法才能完成。

    在实时计算中一些场景需要merge,例如session window。 由于实时计算具有out of order的特性,后输入的数据有可能位于2个原本分开的session中间,这样就把2个session合为1个session。此时,需要使用merge方法把多个accumulator合为1个accumulator。

    1.2 疑问

    之前因为没亲身操作,所以一直忽略merge的特殊性。最近无意中看到了一个UDAF的实现,突然觉得有一个地方很奇怪,即 accumulate 和 merge 这两个函数不应该定义在一个类中。因为这是两个完全不同的处理方法。应该定义在两个不同的类中。

    比如用UDAF做word count,则:

    • accumulate 是在一个task中累积数字,其实就相当于 map;
    • merge 是把很多task的结果再次累积起来,就相当于 reduce;

    然后又想出了一个问题:Flink是如何管理 UDAF的accumulator?其状态存在哪里?

    看起来应该是Flink在背后做了一些黑魔法,把这两个函数从一个类中拆分了。为了验证我们的推测,让我们从源码入手来看看这些问题:

    • Flink SQL转换/执行计划生成阶段,如何处理在 "同一个类中" 的不同类型功能函数 accumulate 和 merge?
    • Flink runtime 如何处理 merge?
    • Flink runtime 如何处理 UDAF的accumulator的历史状态?

    1.3 UDAF示例代码

    示例代码摘要如下 :

    public class CountUdaf extends AggregateFunction<Long, CountUdaf.CountAccum> {
        //定义存放count UDAF状态的accumulator的数据的结构。
        public static class CountAccum {
            public long total;
        }
      
        //初始化count UDAF的accumulator。
        public CountAccum createAccumulator() {
            CountAccum acc = new CountAccum();
            acc.total = 0;
            return acc;
        }
      
        //accumulate提供了,如何根据输入的数据,更新count UDAF存放状态的accumulator。
        public void accumulate(CountAccum accumulator, Object iValue) {
            accumulator.total++;
        }
    
        public void merge(CountAccum accumulator, Iterable<CountAccum> its) {
            for (CountAccum other : its) {
                accumulator.total += other.total;
            }
        }
    }
    

    0x02 批处理

    批处理相对简单,因为数据是有边界的,其逻辑比较清晰。

    2.1 代码

    首先给出测试代码

    val input = env.fromElements(WC("hello", 1), WC("hello", 1), WC("ciao", 1))
    
    // register the DataSet as a view "WordCount"
    tEnv.createTemporaryView("WordCount", input, 'word, 'frequency)
    tEnv.registerFunction("countUdaf", new CountUdaf())
    
    // run a SQL query on the Table and retrieve the result as a new Table
    val table = tEnv.sqlQuery("SELECT word, countUdaf(frequency), SUM(frequency) FROM WordCount GROUP BY word")
    
    case class WC(word: String, frequency: Long)
    

    2.2 计划生成

    DataSetAggregate.translateToPlan 中生成了执行计划。原来Flink把 SQL 语句分割成两个阶段:

    • combineGroup
    • reduceGroup

    于是我们推断,这很有可能就是 combineGroup 调用accumulate,reduceGroup 调用 merge

    关于combineGroup,如果有兴趣,可以看看我之前文章 [源码解析] Flink的groupBy和reduce究竟做了什么 以及 源码解析] GroupReduce,GroupCombine 和 Flink SQL group by

    override def translateToPlan(tableEnv: BatchTableEnvImpl,
        queryConfig: BatchQueryConfig): DataSet[Row] = {
        if (grouping.length > 0) {
          // grouped aggregation
    
          if (preAgg.isDefined) {
            // 执行到这里
            inputDS
              // pre-aggregation
              .groupBy(grouping: _*)
              .combineGroup(preAgg.get) // 第一阶段
              .returns(preAggType.get)
              .name(aggOpName)
              
              // final aggregation
              .groupBy(grouping.indices: _*)
              .reduceGroup(finalAgg.right.get) // 第二阶段
              .returns(rowTypeInfo)
              .name(aggOpName)
          }
        }
    }
    

    SQL语句对应的执行计划大致为:

    2.3 执行

    在执行看,确实对应了两个阶段。

    阶段 1 确实是 GroupReduceCombineDriver 调用到了 accumulate。

    //堆栈如下
    accumulate:25, CountUdaf (mytest)
    accumulate:-1, DataSetAggregatePrepareMapHelper$5
    combine:71, DataSetPreAggFunction (org.apache.flink.table.runtime.aggregate)
    sortAndCombine:213, GroupReduceCombineDriver (org.apache.flink.runtime.operators)
    run:188, GroupReduceCombineDriver (org.apache.flink.runtime.operators)
      
    //SQL UDAF生成的代码如下  
    function = {DataSetAggregatePrepareMapHelper$5@10085} 
     function_mytest$CountUdaf$5ae272a09e5f36214da5c4e5436c4c48 = {CountUdaf@10079} "CountUdaf"
     function_org$apache$flink$table$functions$aggfunctions$LongSumAggFunction$a5214701531789b3139223681d = {LongSumAggFunction@10087} "LongSumAggFunction"  
    

    阶段 2 中 GroupReduceDriver 调用到了 merge

    //堆栈如下
    merge:29, CountUdaf (mytest)
    mergeAccumulatorsPair:-1, DataSetAggregateFinalHelper$6
    reduce:71, DataSetFinalAggFunction (org.apache.flink.table.runtime.aggregate)
    run:131, GroupReduceDriver (org.apache.flink.runtime.operators)
      
    //SQL UDAF生成的代码如下   
    function = {DataSetAggregateFinalHelper$6@10245} 
     function_mytest$CountUdaf$5ae272a09e5f36214da5c4e5436c4c48 = {CountUdaf@10238} "CountUdaf"
     function_org$apache$flink$table$functions$aggfunctions$LongSumAggFunction$a5214701531789b3139223681d = {LongSumAggFunction@10247} "LongSumAggFunction"  
    

    Flink对用户定义的UDAF代码分别生成了两个不同的功能类

    • DataSetAggregatePrepareMapHelper : 用于Combine阶段,调用了accumulate
    • DataSetAggregateFinalHelper :用于Reduce阶段,调用了merge

    2.4 状态管理

    UDAF有一个accumulator,这个会在程序运行过程中始终存在,Flink是如何管理这个accumulator呢?

    GroupReduceCombineDriver类有一个成员变量 combiner,

    public class GroupReduceCombineDriver<IN, OUT> implements Driver<GroupCombineFunction<IN, OUT>, OUT> {
      	private GroupCombineFunction<IN, OUT> combiner;
    }
    

    而 combiner 被赋予了 DataSetPreAggFunction 类的一个实例。

    class DataSetPreAggFunction(genAggregations: GeneratedAggregationsFunction)
      extends AbstractRichFunction{
      private var accumulators: Row = _ //这里存储历史状态
      private var function: GeneratedAggregations = _
    }
    

    Flink就是把 UDAF的accumulator 存储在 combiner.accumulators 中,我们可以看到,无论用户定义了什么类型作为 accumulator,Flink都用万能类型 Row 搞定

    combiner = {DataSetPreAggFunction@10063} 
     genAggregations = {GeneratedAggregationsFunction@10070} 
     accumulators = {Row@10117} "mytest.CountUdaf$CountAccum@1e343db7,(0,false)"
     function = {DataSetAggregatePrepareMapHelper$5@10066}  // function是包含用户代码的功能类。
      function_mytest$CountUdaf$5ae272a09e5f36214da5c4e5436c4c48 = {CountUdaf@10076} "CountUdaf" 
    

    2.5 总结

    让我们总结一下,批处理被分成两个阶段:

    • combineGroup :根据用户UDAF代码生成功能类 DataSetAggregatePrepareMapHelper,用于Combine阶段,调用了accumulate;
    • reduceGroup :根据用户UDAF代码生成功能类 DataSetAggregateFinalHelper,用于Reduce阶段,调用了 merge;

    Flink在GroupReduceCombineDriver类的成员变量 combiner 中存储 accumulator历史状态。

    0x03 流处理

    流处理则是和批处理完全不同的世界,下面我们看看流处理背后有什么奥秘。

    在流计算场景中,数据没有边界源源不断的流入的,每条数据流入都可能会触发计算,比如在进行count或sum这些操作是如何计算的呢?

    • 是选择每次触发计算将所有流入的历史数据重新计算一遍?
    • 还是每次计算都基于上次计算结果进行增量计算呢?
    • 如果选择增量计算,那么上一次的中间计算结果保存在哪里?内存?

    3.1 示例代码

    val query: Table = tableEnv.sqlQuery(
      """
        |SELECT
        |countUdaf(num)
        |FROM tb_num
        |GROUP BY TUMBLE(proctime, INTERVAL '10' SECOND)
       """.stripMargin)
    

    3.2 计划生成

    DataStreamGroupWindowAggregateBase.translateToPlan 函数中完成了计划生成。根据Stream的类型(是否有key),会走不同的逻辑业务。

    • WindowedStream代表了根据key分组,并且基于WindowAssigner切分窗口的数据流。所以WindowedStream都是从KeyedStream衍生而来的。在key分组的流上进行窗口切分是比较常用的场景,也能够很好地并行化(不同的key上的窗口聚合可以分配到不同的task去处理)。
    • 当在普通流(没有key)上进行窗口操作时,就要用到 AllWindowedStreamAllWindowedStream是直接在DataStream上进行windowAll(...)操作。在普通流上进行窗口操作,就势必需要将所有分区的流都汇集到单个的Task中,而这个单个的Task很显然就会成为整个Job的瓶颈。

    我们的示例代码是基于Key的,所以走 WindowedStream 分支,即一个 window 中即做accumulate,又做merge

    // grouped / keyed aggregation
    if (grouping.length > 0) {
          // 有key,所以是 WindowedStream,我们示例走这里
          val windowFunction = AggregateUtil.createAggregationGroupWindowFunction(...)
    
          val keySelector = new CRowKeySelector(grouping, inputSchema.projectedTypeInfo(grouping))
          val keyedStream = timestampedInput.keyBy(keySelector)
          val windowedStream =
            createKeyedWindowedStream(queryConfig, window, keyedStream)
              .asInstanceOf[WindowedStream[CRow, Row, DataStreamWindow]]
    
          val (aggFunction, accumulatorRowType) =
            AggregateUtil.createDataStreamGroupWindowAggregateFunction(...)
    
          windowedStream
            .aggregate(aggFunction, windowFunction, accumulatorRowType, outRowType)
            .name(keyedAggOpName)
    }
    // global / non-keyed aggregation
    else {
          // 没有key,所以是AllWindowedStream 
          val windowFunction = AggregateUtil.createAggregationAllWindowFunction(...)
    
          val windowedStream =
            createNonKeyedWindowedStream(queryConfig, window, timestampedInput)
              .asInstanceOf[AllWindowedStream[CRow, DataStreamWindow]]
    
          val (aggFunction, accumulatorRowType) =
            AggregateUtil.createDataStreamGroupWindowAggregateFunction(...)
    
          windowedStream
            .aggregate(aggFunction, windowFunction, accumulatorRowType, outRowType)
            .name(nonKeyedAggOpName)
    }
    

    SQL语句对应的执行计划大致如下,我们能看出来 accumulate & merge 都在 Window 中处理。

    3.3 执行 & 状态管理

    可以看到,流处理对UDAF的管理,就完全是进入了Window的地盘,而UDAF历史状态管理其实就是Flink Window状态管理的领域了。

    我们以基于key的WindowedStream为例继续进行研究。

    3.3.1 接受到一个新输入

    当Window接受到一个输入item时候,item会被分配到一个key,由KeySelector完成。WindowOperator 类首先使用用户选择的 windowAssigner 将流入的数据分配到响应的window中,有可能是1个,0个甚至多个window。这里就会做accumulate

    本例 windowAssigner = {TumblingProcessingTimeWindows} ,进入到processElement函数的 非 MergingWindow部分,具体流程如下:

    • 遍历elementWindows,进行业务处理
      • 1)判断该window是否已过期,isWindowLate(window)
      • 2)获取该window的context,windowState.setCurrentNamespace(window); 这里是 HeapAggregatingState。
      • 3)将数据加入,windowState.add(element.getValue());
        • 3.1)调用 stateTable.transform();处理输入
          • 3.1.1)StateMap<K, N, S> stateMap = getMapForKeyGroup(keyGroup); 这里获取到CopyOnWriteStateMap
          • 3.1.2)stateMap.transform(key, namespace, value, transformation);
            • 3.1.2.1)调用 AggregateTransformation.apply,其又调用 aggFunction.add(value, accumulator);
              • 3.1.2.1.1)调用 GroupingWindowAggregateHelper.accumulate(accumulatorRow, value.row),其又调用 用户定义的 accumulate

    可以看到,是 windowState 添加元素时候,调用到State的API,然后间接调用到了UDAF

    3.3.2 windowState & UDAF执行

    windowState 以 window 为 namespace,以隔离不同的window的context。这里虽然叫做 windowState 。但是可以发现,该类存储的是不同window中的对应的原始数据(processWindowFunction情况)或结果(ReduceFunction/AggregateFunction情况)。我们此例中,存储的是执行结果

    本例用到的 window process 是 Incremental Aggregation Functions。即 ReduceFunction 与 AggregateFunction ,其特点是无需保存 window 中的所有数据,一旦新数据进入,便可与之前的中间结果进行计算,因此这种 window 中其状态仅需保存一个结果便可。

    因此这里我们拿到的是 HeapReducingState, HeapAggregatingState,当执行到 windowState.add(element.getValue());语句时,便调用UDAF得出结果

    3.3.3 State & 结果存储

    在flink中state用来存放计算过程的节点中间结果或元数据。在flink内部提供三种state存储实现

    • 内存HeapStateBackend:存放数据量小,用于开发测试使用;生产不建议使用
    • HDFS的FsStateBackend :分布式文件持久化,每次都会产生网络io,可用于大state,不支持增量;可用于生产
    • RocksDB的RocksDBStateBackend:本地文件 + 异步hdfs持久化,也可用于大state数据量,唯一支持增量,可用于生产;

    我们这里拿到的是 HeapAggregatingState

    3.3.4 State 存储结构

    以三元组的形式存储保存数据,即 key, namespace, value

    public abstract class StateTable<K, N, S>
    	implements StateSnapshotRestore, Iterable<StateEntry<K, N, S>> {
       /**
       * Map for holding the actual state objects. The outer array represents the key-groups.
       * All array positions will be initialized with an empty state map.
       */
    	protected final StateMap<K, N, S>[] keyGroupedStateMaps;
    }
    
    // 真实中变量摘录如下
    keyGroupedStateMaps = {StateMap[1]@9266} 
     0 = {CopyOnWriteStateMap@9262} // 这里就是将要保存用户accumulator的地方
      stateSerializer = {RowSerializer@9254} 
      snapshotVersions = {TreeSet@9277}  size = 0
      primaryTable = {CopyOnWriteStateMap$StateMapEntry[128]@9278} 
      incrementalRehashTable = {CopyOnWriteStateMap$StateMapEntry[2]@9280} 
      lastNamespace = {TimeWindow@9239} "TimeWindow{start=1593934200000, end=1593934210000}"
    

    在上面提及的 3.1.2)stateMap.transform(key, namespace, value, transformation);

    @Override
    public <T> void transform(
       K key,
       N namespace,
       T value,
       StateTransformationFunction<S, T> transformation) throws Exception {
    
       final StateMapEntry<K, N, S> entry = putEntry(key, namespace);
    
       // copy-on-write check for state
       entry.state = transformation.apply(
          (entry.stateVersion < highestRequiredSnapshotVersion) ?
             getStateSerializer().copy(entry.state) : entry.state,
             value); 
       // 当执行完用户代码之后,数据会存储在这里,这个就是CopyOnWriteStateMap的一个Entry
       entry.stateVersion = stateMapVersion;
    

    3.4 总结

    流处理对UDAF的管理,就完全是进入了Window的地盘,而UDAF历史状态管理其实就是Flink Window状态管理的领域了。

    • window接受到新输入,就会往 windowState 添加元素。
    • windowState 添加元素时候,调用到State的API,然后间接调用到了UDAF
    • windowState 在本例存储的是UDAF执行结果。具体存储是在HeapAggregatingState中完成。

    0xFF 参考

    Flink - 当数据流入window时,会发生什么

    Flink SQL 自定义UDAF

    自定义聚合函数(UDAF)

    Apache Flink - 常见数据流类型

    Flink-SQL源码解读(一)window算子的创建的源码分析

    从udaf谈flink的state

    Apache Flink - 常见数据流类型

    Flink状态管理(二)状态数据结构和注册流程

  • 相关阅读:
    dhl: ASP.NET MVC1.0 的图片(文件)上传功能
    一些不错的sql语句
    ASP.NET使用Memcached高缓存实例
    教你加快Win7 的启动速度
    写个VS2008使用单元测试NUnit的方法,希望对大家有帮助
    C#中ToString格式大全
    JQuery UI accordion学习笔记
    dhl:Sql表子查询
    windows 7 怎么在文件夹内开启图片预览功能
    教你如何将 优酷网等视频网站的视频外链时自动播放
  • 原文地址:https://www.cnblogs.com/rossiXYZ/p/13460408.html
Copyright © 2020-2023  润新知