• flink运行时架构


    flink运行时的组件

     作业管理器(JobManager)

    • 控制一个应用程序执行的主进程,也就是说,每个应用程序都会被一个不同的 JobManager 所控制执行。

    • JobManager 会先接收到要执行的应用程序,这个应用程序会包括:作业图 (JobGraph)、逻辑数据流图(logical dataflow graph)和打包了所有的类、 库和其它资源的JAR包。

    • JobManager 会把JobGraph转换成一个物理层面的数据流图,这个图被叫做 “执行图”(ExecutionGraph),包含了所有可以并发执行的任务。

    • JobManager 会向资源管理器(ResourceManager)请求执行任务必要的资源, 也就是任务管理器(TaskManager)上的插槽(slot)。一旦它获取到了足够的 资源,就会将执行图分发到真正运行它们的TaskManager上。而在运行过程中, JobManager会负责所有需要中央协调的操作,比如说检查点(checkpoints) 的协调。

    任务管理器(TaskManager)

    • Flink中的工作进程。通常在Flink中会有多个TaskManager运行,每一 个TaskManager都包含了一定数量的插槽(slots)。插槽的数量限制 了TaskManager能够执行的任务数量。

    • 启动之后,TaskManager会向资源管理器注册它的插槽;收到资源管理 器的指令后,TaskManager就会将一个或者多个插槽提供给 JobManager调用。JobManager就可以向插槽分配任务(tasks)来 执行了。

    • 在执行过程中,一个TaskManager可以跟其它运行同一应用程序的 TaskManager交换数据。

    资源管理器(ResourceManager)

    • 主要负责管理任务管理器(TaskManager)的插槽(slot), TaskManger 插槽是Flink中定义的处理资源单元。

    • Flink为不同的环境和资源管理工具提供了不同资源管理器,比如YARN、 Mesos、K8s,以及standalone部署。

    • 当JobManager申请插槽资源时,ResourceManager会将有空闲插槽 的TaskManager分配给JobManager。如果ResourceManager没有足 够的插槽来满足JobManager的请求,它还可以向资源提供平台发起会 话,以提供启动TaskManager进程的容器。

    分发器(Dispatcher)

    • 可以跨作业运行,它为应用提交提供了REST接口。

    • 当一个应用被提交执行时,分发器就会启动并将应用移交给一个 JobManager。

    • Dispatcher也会启动一个Web UI,用来方便地展示和监控作业 执行的信息。

    • Dispatcher在架构中可能并不是必需的,这取决于应用提交运行 的方式

    任务提交流程

     yarn模式下的提交流程

    任务调度原理

     思考????

    1.怎样实现并行计算?

    多线程,不同的任务分配到不同的线程,不同的线程运行的时候需要不同的运行资源,资源如何分配,这个时候就需要slot,slot就是执行不同的任务,跑不同的线程

    2.并行的任务,需要占用多少slot?

    这个和最大并行度有关,假如最大的并行度是3,这个时候有七个任务,只需要三个slot就可以了

    3.一个流式处理程序,到底包含多少个任务?

    slot和任务调度

    并行度(Parallelism)

    • 一个特定算子的 子任务(subtask)的个数被称之为其并行度(parallelism)。 一般情况下,一个 stream 的并行度,可以认为就是其所有算子中最大的并行度.

     TaskManager 和 Slots

    • Flink 中每一个 TaskManager 都是一个JVM进程,它可能会在独立的线程上执 行一个或多个子任务

    • 为了控制一个 TaskManager 能接收多少个 task, TaskManager 通过 task slot 来进行控制(一个 TaskManager 至少有一个 slot)

    TaskManager 和 Slots

    • 默认情况下,Flink 允许子任务共享 slot,即使它们是不同任务的子任务。 这样 的结果是,一个 slot 可以保存作业的整个管道。

    • Task Slot 是静态的概念,是指 TaskManager 具有的并发执行能力

    并行子任务的分配

     

     

     程序和数据流

     • 所有的Flink程序都是由三部分组成的: Source 、Transformation 和 Sink。

    • Source 负责读取数据源,Transformation 利用各种算子进行处理加工,Sink 负责输出

    • 在运行时,Flink上运行的程序会被映射成“逻辑数据流”(dataflows),它包 含了这三部分

    • 每一个dataflow以一个或多个sources开始以一个或多个sinks结束。dataflow 类似于任意的有向无环图(DAG)

    • 在大部分情况下,程序中的转换运算(transformations)跟dataflow中的算子 (operator)是一一对应的关系

    执行图

    • Flink 中的执行图可以分成四层:StreamGraph -> JobGraph -> ExecutionGraph -> 物理执行图

    ➢ StreamGraph:是根据用户通过 Stream API 编写的代码生成的最初的图。用来 表示程序的拓扑结构。

    ➢ JobGraph:StreamGraph经过优化后生成了 JobGraph,提交给 JobManager 的数据结构。主要的优化为,将多个符合条件的节点 chain 在一起作为一个节点

    ➢ ExecutionGraph:JobManager 根据 JobGraph 生成ExecutionGraph。 ExecutionGraph是JobGraph的并行化版本,是调度层最核心的数据结构。

    ➢ 物理执行图:JobManager 根据 ExecutionGraph 对 Job 进行调度后,在各个 TaskManager 上部署 Task 后形成的“图”,并不是一个具体的数据结构。

    数据传输形式

    • 一个程序中,不同的算子可能具有不同的并行度

    • 算子之间传输数据的形式可以是 one-to-one (forwarding) 的模式也可以是 redistributing 的模式,具体是哪一种形式,取决于算子的种类

    ➢ One-to-one:stream维护着分区以及元素的顺序(比如source和map之间)。 这意味着map 算子的子任务看到的元素的个数以及顺序跟 source 算子的子任务 生产的元素的个数、顺序相同。map、fliter、flatMap等算子都是one-to-one 的对应关系。

    ➢ Redistributing:stream的分区会发生改变。每一个算子的子任务依据所选择的 transformation发送数据到不同的目标任务。例如,keyBy 基于 hashCode 重 分区、而 broadcast 和 rebalance 会随机重新分区,这些算子都会引起 redistribute过程,而 redistribute 过程就类似于 Spark 中的 shuffle 过程。

  • 相关阅读:
    给入坑前端的新人的建议
    浅析js闭包
    mongoose之操作mongoDB数据库
    input模拟输入下拉框
    浅析AngularJS自定义指令之嵌入(transclude)
    vue-cli之打包多入口配置
    Node.js之图片上传
    移动端之模态框滚动穿透问题
    浅谈vue之动态路由匹配
    vuex数据持久化存储
  • 原文地址:https://www.cnblogs.com/lmr7/p/15457488.html
Copyright © 2020-2023  润新知