• 第7章 Spark SQL 的运行原理(了解)


    7Spark SQL 的运行原理(了解)

    7.1 Spark SQL运行架构

      Spark SQLSQL语句的处理和关系型数据库类似,即词法/语法解析、绑定、优化、执行。Spark SQL会先将SQL语句解析成一棵树,然后使用规则(Rule)Tree进行绑定、优化等处理过程。Spark SQLCoreCatalystHiveHive-ThriftServer四部分构成:

      Core: 负责处理数据的输入和输出,如获取数据,查询结果输出成DataFrame

      Catalyst: 负责处理整个查询过程,包括解析、绑定、优化等

      Hive: 负责对Hive数据进行处理

      Hive-ThriftServer: 主要用于对hive的访问

    7.1.1 TreeNode

      逻辑计划、表达式等都可以用tree来表示,它只是在内存中维护,并不会进行磁盘的持久化,分析器和优化器对树的修改只是替换已有节点。

      TreeNode2个直接子类,QueryPlanExpressionQueryPlam下又有LogicalPlanSparkPlan. Expression是表达式体系,不需要执行引擎计算而是可以直接处理或者计算的节点,包括投影操作,操作符运算

    7.1.2 Rule & RuleExecutor

      Rule就是指对逻辑计划要应用的规则,以到达绑定和优化。他的实现类就是RuleExecutor。优化器和分析器都需要继承RuleExecutor。每一个子类中都会定义BatchOnceFixPoint. 其中每一个Batch代表着一套规则,Once表示对树进行一次操作,FixPoint表示对树进行多次的迭代操作。RuleExecutor内部提供一个Seq[Batch]属性,里面定义的是RuleExecutor的处理逻辑,具体的处理逻辑由具体的Rule子类实现。

    整个流程架构图:

     

    7.2 Spark SQL运行原理

    7.2.1 使用SessionCatalog保存元数据

      在解析SQL语句之前,会创建SparkSession,或者如果是2.0之前的版本初始化SQLContextSparkSession只是封装了SparkContextSQLContext的创建而已。会把元数据保存在SessionCatalog中,涉及到表名,字段名称和字段类型。创建临时表或者视图,其实就会往SessionCatalog注册

    7.2.2 解析SQL,使用ANTLR生成未绑定的逻辑计划

      当调用SparkSessionsql或者SQLContextsql方法,我们以2.0为准,就会使用SparkSqlParser进行解析SQL. 使用的ANTLR进行词法解析和语法解析。它分为2个步骤来生成Unresolved LogicalPlan

      # 词法分析:Lexical Analysis,负责将token分组成符号类

      # 构建一个分析树或者语法树AST

    7.2.3 使用分析器Analyzer绑定逻辑计划

      在该阶段,Analyzer会使用Analyzer Rules,并结合SessionCatalog,对未绑定的逻辑计划进行解析,生成已绑定的逻辑计划。

    7.2.3 使用优化器Optimizer优化逻辑计划

      优化器也是会定义一套Rules,利用这些Rule对逻辑计划和Exepression进行迭代处理,从而使得树的节点进行和并和优化

    7.2.4 使用SparkPlanner生成物理计划

      SparkSpanner使用Planning Strategies,对优化后的逻辑计划进行转换,生成可以执行的物理计划SparkPlan.

    7.2.5 使用QueryExecution执行物理计划

      此时调用SparkPlanexecute方法,底层其实已经再触发JOB了,然后返回RDD

  • 相关阅读:
    js forEach方法
    day1总结
    jupyter notebook
    java_13网络编程
    原生 input radio 优化
    JQ 获取 input file 图片 显示在对应位置
    math.js 使用
    前端优化
    文字动态颜色变化效果
    谷歌,火狐隐藏滚动条
  • 原文地址:https://www.cnblogs.com/Diyo/p/11343020.html
Copyright © 2020-2023  润新知