• Flink资料(6) -- 如何添加一个新的Operator


    如何添加一个新的Operator

    翻译自How to add a new Operator

    ---------------------------------

    Java API中可以通过多种途径添加Operator

    1.    DataSet上,以已存在的Operator为基础,组合或具现化(speciallzation)而形成新的Operator

    2.    设计新的自定义扩展Operatorcustom extension operator

    3.    设计新的运行时Operatorruntime operator

     

    前两种方法实现起来较为容易且轻量级。而对于运行时Operator,有时新的设计的确需要新的运行时Operator,或者使用运行时Operator会更加高效

    一、在DataSet上实现一个新的Operator

    许多Operator可以通过具现化另一个Operator或是UDF两种方式实现。

     

    最简单的例子有DataSet上诸如sum(), min(), max()等方法。这些方法仅简单地用一些预先定义的参数调用其他Operator

    1 public AggregateOperator<T> sum (int field) {
    2   return this.aggregate (Aggregations.SUM, field);
    3 }

     

    一些Operator可以通过多个其他Operator的组合实现,如通过mapaggregate的组合来实现count()方法。实现此功能更简单的方法是在DataSet上定义一个方法,按需调用mapreduce

     1 public DataSet<Long> count() {
     2   return this.map(new MapFunction<T, Long>() {
     3     public Long map(T value) {
     4       return 1L;
     5     }
     6   })
     7   .reduce(new ReduceFunction<Long>() {
     8     public Long reduce(Long val1, Long val1) {
     9       return val1 + val2;
    10     }
    11   });
    12 }

    如果我们定义一个新的Operator的同时,不想修改DataSet类,可以以静态方法的形式定义在另一个类中,此时,count() Operator则如下所示:

    1 public static <T>DataSet<Long> count(DataSet<T> data) {
    2   return data.map(...).reduce(...);
    3 }

    1.1 更加复杂的Operator

    通过具现化实现的更加复杂的例子是Java API中的Aggregation Operation,它通过GroupReduce UDF的方法实现。

     

    Aggregate Operation从其自己的Operator演化而来,将自己转换为Common APIGroupReduceOperatorBaseJava APIaggregation Operator仅是一个接收聚合类型(aggregation type)和成员位置(field position)的构建者,它将这些信息作为参数给GroupReduce UDF,由GroupReduce UDF来进行聚合操作

     

    由于操作被转换成一个 GroupReduce操作,它将在优化器和运行时环境中作为一个GroupReduceOperator出现。

    二、实现一个自定义扩展Operator

    DataSet提供了一个自定义Operator的方法:

    DataSet<X> runOperation(CustomUnaryOperation<T, X> operation)。接口CustomUnaryOperation通过两个方法来定义Operator

    1 void setInput(DataSet<IN> inputData);
    2         
    3 DataSet<OUT> createResult();

    VertexCentricIteration Operator即通过这种方式实现,下面是一个以此种方式实现count() Operator的例子:

    1 public class Counter<T> implements CustomUnaryOperation<T, Long> {
    2   private DataSet<T> input;
    3 
    4   public void setInput(DataSet<IN> inputData) { this.input = inputData; }
    5 
    6   public DataSet<Long> createResult() {
    7     return input.map(...).reduce(...);
    8   }
    9 }

    Operator调用方式如下:

    1 DataSet<String> lines = ...;
    2 DataSet<Long> count = lines.runOperation(new Counter<String>());

    三、实现一个新的运行时Operator

    添加一个新的Runtime Operator需要对整个技术栈做出修改,从API到运行时:

    1.    Java API

    2.    Common API

    3.    Optimizer

    4.    Runtime

     

    我们将自底向上描述,以方法mapPartition()为例(类似map方法,只不过每个并行分区仅调用一次)

    1. 运行时(RunTime

    Runtime Operator使用接口Drive实现,该接口定义了描述运行时中Operator的方法。MapDriver便是那些Operator如何工作的简单例子。

     

    与运行时一同运行的还有MutableObjectIterator,它描述了可以重用对象的数据流,以达到减少垃圾回收的压力的目的。

     

    mapPartition Operator的核心方法run()可能具有以下形式:

     1 public void run() throws Exception {
     2   final MutableObjectIterator<IN> input = this.taskContext.getInput(0);
     3   final MapPartitionFunction<IN, OUT> function = this.taskContext.getStub();
     4   final Collector<OUT> output = this.taskContext.getOutputCollector();
     5   final TypeSerializer<IN> serializer = this.taskContext.getInputSerializer(0);
     6   // we assume that the UDF takes a java.util.Iterator, so we wrap the MutableObjectIterator
     7   Iterator<IN> iterator = new MutableToRegularIteratorWrapper(input, serializer);
     8 
     9   function.mapPartition(iterator, output);
    10 }

    为了提高运行效率,以链式(chained version)实现一个Operator总是有好处的。链接在一起的Operator作为它们的前驱Operator,在同一个线程下运行,并且可以使用嵌套循环地调用。这会省去许多序列化/反序列化的开销,从而大大增加效率。

    我们可以通过MapDriver(正常的)和ChainedMapDriver(链式变种)来学习如何实现链式Operator

    2. 优化器/编译器

    该部分简单讨论了添加Operator的重要步骤,有关优化器的工作原理见Optimizer。为了使优化器将新的Operator纳入其优化方案,我们需要向它提供一些信息,如下所示:

    1.    DriverStrategy:要使得优化器可以访问到新的Operation,新加的Operation需要加入枚举类。枚举类入口(entry)参数定义了什么类实现了runtime operator,它的链接的版本是什么,Operator是否需要累积数据(即需要内存),以及它是否需要Comparator(用于key)。在我们的例子中,我们可以添加~~~java MAP_PARTITION(MAPPartitionDriver.class, null/*或链接的版本*/, PIPELINED, false); ~~~

    2.    Cost function::类CostEstimator需要Operation对系统的开销的信息。这里的“开销”是指Operatornon-UDF的部分。由于我们的Operator本质上并没有这部分工作(直接将数据流传递给UDF),则此开销为0。我们通过向costOperator()中的switch语句中添加常量MAP_PARTITION,类似MAP常量,以标识该操作没有开销。

    3.    OperatorDescriptionOperator的描述类定义了优化器如何处理一个Operation。它描述了Operation需要什么样的输入数据(如有序的、分区的),和允许的优化器以全局方法来优化数据操作(data movement)、排序、分组的方法。为了描述上述信息,我们需要描述Operator拥有什么RequestedGlobalProperties(分区操作、拷贝操作)和RequestLocalProperties(排序、分组、单一提取(uniqueness)),以及Operator如何影响已存在的GlobalPropertiesLocalProperties。此外,该OperatorDescription还定义了一些支持方法,例如实例化一个候选OperatorOperator candidate)的方法等。由于mapPartition()的功能非常简单(无需分区/分组等),它的描述类也十分简单,其他Operator则具有更加复杂的需求,如Hash Join 1Hash Join 2SortMerge Join。下面的示例代码解释了如何为MapPartitionOperator创建描述类:

     1 public DriverStrategy getStrategy() {
     2   return MAP_PARTITION;
     3 }
     4 // Instantiate the operator with the strategy over the input given in the form of the Channel
     5 public SingleInputPlanNode instantiate(Channel in, SingleInputNode node) {
     6   return new SingleInputPlanNode(node, "MapPartition", in, MAP_PARTITION);
     7 }
     8 
     9 // The operation accepts data with default global properties (arbitrary distribution)
    10 protected List<RequestedGlobalProperties> createPossibleGlobalProperties() {
    11   return Collections.singletonList(new RequestedGlobalProperties());
    12 }
    13 
    14 // The operation can accept data with any local properties. No grouping/sorting is necessary
    15 protected List<RequestedLocalProperties> createPossibleLocalProperties() {
    16   return Collections.singletonList(new RequestedLocalProperties());
    17 }
    18 
    19 // the operation itself does not affect the existing global properties.
    20 // The effect of the UDF's semantics// are evaluated separately (by interpreting the
    21 // semantic assertions)
    22 public GlobalProperties computeGlobalProperties(GlobalProperties gProps) {
    23   return gProps;
    24 }
    25 
    26 // since the operation can mess up all order, grouping, uniqueness, we cannot make any statements
    27 // about how local properties are preserved
    28 public LocalProperties computeLocalProperties(LocalProperties lProps) {
    29   return LocalProperties.EMPTY;
    30 }

    4.    OptimizerNode:优化器节点控制着所有该方面工作,它创建了OperatorDescriptor的列表,实现了结果数据集规模的估计,并且给Operator赋予其名字。此外,它相对来说是一个较小的类,故而可以从MapNode重新拷贝

    3. Common API

    为了使得Operation可以用于更高级的API,需要将它添加到Common API中去。最简单的方法就是添加一个base operator。我们以类MapOperatorBase为模板,创建类MapPartitionOperatorBase

     

    此外,优化器需要清楚OptimizerNode如何从OperatorBase创建一个OptimizerNode,该功能在Optimizer中的调用GraphCreatingVisitor类实现。

     

    注意:我们仍在考虑通过统一OptimizerNodeCommon API Operator来跳过这一步骤,因为它们本质上实现的是同一个功能。Common API Operator存在的原因仅仅是使得flink-javaflink-scala包不依赖与Optimizer

    4. Java API

    创建一个Java API的方式与MapOperator的方式是一样的,其中核心方法就是translateToDataFlow(…)方法,它为Java API operator创建了Common API operator

     

    最后一步就是向类DataSet添加相关方法

    1 public <R> DataSet<R> mapPartition(MapPartitionFunction<T, R> function) {
    2   return new MapPartitionOperator<T, R>(this, function);
    3 }
  • 相关阅读:
    python_基础2
    springboot自定义配置文件类
    自定义实现spring-boot-starter-data-redis
    @ConditionalOnBean详解
    @Conditional详解
    并发包大神Doug Lea
    idea新建springboot项目
    springboot实现自定义start
    世界上唯一公平的事情就是每个人都会死。
    hashtable存null会发生什么?
  • 原文地址:https://www.cnblogs.com/lanyun0520/p/5671384.html
Copyright © 2020-2023  润新知