• spark调优(一)-开发调优,数据倾斜,shuffle调优


    主要分为开发调优、资源调优、数据倾斜调优、shuffle调优几个部分。

    开发调优和资源调优是所有Spark作业都需要注意和遵循的一些基本原则,是高性能Spark作业的基础;数据倾斜调优,主要讲解了一套完整的用来解决Spark作业数据倾斜的解决方案;shuffle调优,面向的是对Spark的原理有较深层次掌握和研究的同学,主要讲解了如何对Spark作业的shuffle运行过程以及细节进行调优。

    一:开发调优

    在开发Spark作业的过程中注意和应用一些性能优化的基本原则;

    调优的十大原则:

    • 原则一:避免创建重复的RDD
    • 原则二:尽可能复用同一个RDD
    • 原则三:对多次使用的RDD进行持久化
    • 原则四:尽量避免使用shuffle类算子

       shuffle一般是运算过程中的瓶颈,shuffle过程就是把所有的集群节点上的key拉倒同一个节点上。进行聚合,join等操作。shuffle过程有个IO磁盘的过程,这个是非常影响其速度。熟悉mapreduce的也许知道,shuffle过程中会对key进行排序,对于大量key来说这个是消耗时间最长的一个过程。

        所以,则尽可能避免使用reduceByKey、join、distinct、repartition等会进行shuffle的算子。如必须使用,先节点聚合等操作后,再节点之间进行聚合。类似于mapreduce中combine()类的功能。

        尽量用reduceByKey代替groupByKey。

    • 原则五:使用map-side预聚合的shuffle操作
    • 原则六:使用高性能的算子
    • 原则七:广播大变量
    • 原则八:使用Kryo优化序列化性能
    • 原则九:优化数据结构
    • 原则十:Data Locality本地化级别

    总结以上的原则可以总结成以下的几种:

    1-减少重复算子,2-减少磁盘的io,3-减少网络传输数据,使用序列化。

    二:数据倾斜调优

    1-数据倾斜现象:

    • 绝大多数task执行得都非常快,但个别task执行极慢。比如,总共有1000个task,997个task都在1分钟之内执行完了,但是剩余两三个task却要一两个小时。这种情况很常见。

    • 原本能够正常执行的Spark作业,某天突然报出OOM(内存溢出)异常,观察异常栈,是我们写的业务代码造成的。这种情况比较少见。

    2-数据倾斜发生的原理:

    在进行shuffle的时候,必须将各个节点上相同的key拉取到某个节点上的一个task来进行处理,比如按照key进行聚合或join等操作。此时如果某个key对应的数据量特别大的话,就会发生数据倾斜。比如大部分key对应10条数据,但是个别key却对应了100万条数据。二整个spark的运行时间是由最慢的任务决定。

    3-数据倾斜代码定位:

    数据倾斜只会发生在shuffle过程中。这里给大家罗列一些常用的并且可能会触发shuffle操作的算子:distinct、groupByKey、reduceByKey、ggregateByKey、join、cogroup、repartition等。出现数据倾斜时,可能就是你的代码中使用了这些算子中的某一个所导致的。

    数据倾斜stage定位之执行特别慢的情况:

    这个阶段要了解最基本的stage划分的原理。

    1-yarn-client模式提交:本地是直接可以看到log的,可以在log中找到当前运行到了第几个stage;

    2-yarn-cluster模式提交:可以通过Spark Web UI来查看当前运行到了第几个stage。页面上会有详细的数据进行分析。包括运行时间,输入量,输出量等。

    数据倾斜stage定位之执行OOM的情况:

    建议直接看yarn-client模式下本地log的异常栈,或者是通过YARN查看yarn-cluster模式下的log中的异常栈。一般来说,通过异常栈信息就可以定位到你的代码中哪一行发生了内存溢出。然后在那行代码附近找找,一般也会有shuffle类算子,此时很可能就是这个算子导致了数据倾斜。

    确定key的分布情况,针对不同情况设置不同的shuffle算子;

    4-数据倾斜解决方案:

    参考:https://www.cnblogs.com/qingyunzong/p/8946679.html

    对原有的key进行处理,生成新的key,对新key进行聚合等处理后。再进行聚合。治标不治本。

    就是舍弃少数的key

    在对RDD执行shuffle算子时,给shuffle算子传入一个参数,比如reduceByKey(1000)。只是缓解了数据倾斜,并没有解决。

    将原本相同的key通过附加随机前缀的方式,变成多个不同的key,就可以让原本被一个task处理的数据分散到多个task上去做局部聚合,进而解决单个task处理数据量过多的问题。接着去除掉随机前缀,再次进行全局聚合,就可以得到最终的结果。

    适用场景较少,因为这个方案只适用于一个大表和一个小表的情况。

    适合两张大表join,其中一张大表的key分布比较均匀,另一张大表存在几个key的数据量比较大;实现方法是将数据量比较大的key使用方法五进行解决。

    方案实现思路:

    • 对包含少数几个数据量过大的key的那个RDD,通过sample算子采样出一份样本来,然后统计一下每个key的数量,计算出来数据量最大的是哪几个key。
    • 然后将这几个key对应的数据从原来的RDD中拆分出来,形成一个单独的RDD,并给每个key都打上n以内的随机数作为前缀,而不会导致倾斜的大部分key形成另外一个RDD。
    • 接着将需要join的另一个RDD,也过滤出来那几个倾斜key对应的数据并形成一个单独的RDD,将每条数据膨胀成n条数据,这n条数据都按顺序附加一个0~n的前缀,不会导致倾斜的大部分key也形成另外一个RDD。
    • 再将附加了随机前缀的独立RDD与另一个膨胀n倍的独立RDD进行join,此时就可以将原先相同的key打散成n份,分散到多个task中去进行join了。
    • 而另外两个普通的RDD就照常join即可。
    • 最后将两次join的结果使用union算子合并起来即可,就是最终的join结果。

    方案适用场景:如果在进行join操作时,RDD中有大量的key导致数据倾斜,那么进行分拆key也没什么意义,此时就只能使用最后一种方案来解决问题了。

    方案实现思路:

    • 该方案的实现思路基本和“解决方案六”类似,首先查看RDD/Hive表中的数据分布情况,找到那个造成数据倾斜的RDD/Hive表,比如有多个key都对应了超过1万条数据。
    • 然后将该RDD的每条数据都打上一个n以内的随机前缀。
    • 同时对另外一个正常的RDD进行扩容,将每条数据都扩容成n条数据,扩容出来的每条数据都依次打上一个0~n的前缀。
    • 最后将两个处理后的RDD进行join即可。

    三:shuffle调优

    参考文献:https://www.cnblogs.com/qingyunzong/p/8954552.html

    强行引入一个问题:spark为什么要分区,分布式集群中,网络通信开销是非常大的,把大文件压缩成小文件进行传输(分区)。可以很大程度上降低网络开销。但会增加计算开销。

    1-ShuffleManager发展概述

    在Spark的源码中,负责shuffle过程的执行、计算和处理的组件主要就是ShuffleManager,也即shuffle管理器。而随着Spark的版本的发展,ShuffleManager也在不断迭代,变得越来越先进。

    在Spark 1.2以前,默认的shuffle计算引擎是HashShuffleManager。该ShuffleManager而HashShuffleManager有着一个非常严重的弊端,就是会产生大量的中间磁盘文件,进而由大量的磁盘IO操作影响了性能。

    因此在Spark 1.2以后的版本中,默认的ShuffleManager改成了SortShuffleManager。SortShuffleManager相较于HashShuffleManager来说,有了一定的改进。主要就在于,每个Task在进行shuffle操作时,虽然也会产生较多的临时磁盘文件,但是最后会将所有的临时文件合并(merge)成一个磁盘文件,因此每个Task就只有一个磁盘文件。在下一个stage的shuffle read task拉取自己的数据时,只要根据索引读取每个磁盘文件中的部分数据即可。

    2-HashShufflleMannger运行原理:

    改进前:

    改进后:

    3-SortShuffleManager运行原理

    普通运行机制:

    bypass运行机制:

    而该机制与普通SortShuffleManager运行机制的不同在于:第一,磁盘写机制不同;第二,不会进行排序。也就是说,启用该机制的最大好处在于,shuffle write过程中,不需要进行数据的排序操作,也就节省掉了这部分的性能开销。

    4-shuffle参数调整

    见官网的more -> configuration,涉及到的主要参数:

    • spark.shuffle.file.buffer
    • spark.reducer.maxSizeInFlight
    • spark.shuffle.io.maxRetries
    • spark.shuffle.io.retryWait
    • spark.shuffle.sort.bypassMergeThreshold

    四:资源调优

    Spark的资源参数,基本都可以在spark-submit命令中作为参数设置。具体的参数意义参考官方文档。

    3.1 num-executors

    • 参数说明:该参数用于设置Spark作业总共要用多少个Executor进程来执行。Driver在向YARN集群管理器申请资源时,YARN集群管理器会尽可能按照你的设置来在集群的各个工作节点上,启动相应数量的Executor进程。这个参数非常之重要,如果不设置的话,默认只会给你启动少量的Executor进程,此时你的Spark作业的运行速度是非常慢的。
    • 参数调优建议:每个Spark作业的运行一般设置50~100个左右的Executor进程比较合适,设置太少或太多的Executor进程都不好。设置的太少,无法充分利用集群资源;设置的太多的话,大部分队列可能无法给予充分的资源。

    3.2 executor-memory

    • 参数说明:该参数用于设置每个Executor进程的内存。Executor内存的大小,很多时候直接决定了Spark作业的性能,而且跟常见的JVM OOM异常,也有直接的关联。
    • 参数调优建议:每个Executor进程的内存设置4G~8G较为合适。但是这只是一个参考值,具体的设置还是得根据不同部门的资源队列来定。可以看看自己团队的资源队列的最大内存限制是多少,num-executors乘以executor-memory,是不能超过队列的最大内存量的。此外,如果你是跟团队里其他人共享这个资源队列,那么申请的内存量最好不要超过资源队列最大总内存的1/3~1/2,避免你自己的Spark作业占用了队列所有的资源,导致别的同学的作业无法运行。

    3.3 executor-cores

    • 参数说明:该参数用于设置每个Executor进程的CPU core数量。这个参数决定了每个Executor进程并行执行task线程的能力。因为每个CPU core同一时间只能执行一个task线程,因此每个Executor进程的CPU core数量越多,越能够快速地执行完分配给自己的所有task线程。
    • 参数调优建议:Executor的CPU core数量设置为2~4个较为合适。同样得根据不同部门的资源队列来定,可以看看自己的资源队列的最大CPU core限制是多少,再依据设置的Executor数量,来决定每个Executor进程可以分配到几个CPU core。同样建议,如果是跟他人共享这个队列,那么num-executors * executor-cores不要超过队列总CPU core的1/3~1/2左右比较合适,也是避免影响其他同学的作业运行。最好的应该就是一个cpu core对应两到三个task

    3.4 driver-memory

    • 参数说明:该参数用于设置Driver进程的内存。
    • 参数调优建议:Driver的内存通常来说不设置,或者设置1G左右应该就够了。唯一需要注意的一点是,如果需要使用collect算子将RDD的数据全部拉取到Driver上进行处理,那么必须确保Driver的内存足够大,否则会出现OOM内存溢出的问题。

    3.5 spark.default.parallelism

    • 参数说明:该参数用于设置每个stage的默认task数量。这个参数极为重要,如果不设置可能会直接影响你的Spark作业性能。一个分区对应一个task,也就是这个参数其实就是设置task的数量
    • 参数调优建议:Spark作业的默认task数量为500~1000个较为合适。很多同学常犯的一个错误就是不去设置这个参数,那么此时就会导致Spark自己根据底层HDFS的block数量来设置task的数量,默认是一个HDFS block对应一个task。通常来说,Spark默认设置的数量是偏少的(比如就几十个task),如果task数量偏少的话,就会导致你前面设置好的Executor的参数都前功尽弃。试想一下,无论你的Executor进程有多少个,内存和CPU有多大,但是task只有1个或者10个,那么90%的Executor进程可能根本就没有task执行,也就是白白浪费了资源!因此Spark官网建议的设置原则是,设置该参数为num-executors * executor-cores的2~3倍较为合适,比如Executor的总CPU core数量为300个,那么设置1000个task是可以的,此时可以充分地利用Spark集群的资源。

    3.6 spark.storage.memoryFraction

    • 参数说明:该参数用于设置RDD持久化数据在Executor内存中能占的比例,默认是0.6。也就是说,默认Executor 60%的内存,可以用来保存持久化的RDD数据。根据你选择的不同的持久化策略,如果内存不够时,可能数据就不会持久化,或者数据会写入磁盘。
    • 参数调优建议:如果Spark作业中,有较多的RDD持久化操作,该参数的值可以适当提高一些,保证持久化的数据能够容纳在内存中。避免内存不够缓存所有的数据,导致数据只能写入磁盘中,降低了性能。但是如果Spark作业中的shuffle类操作比较多,而持久化操作比较少,那么这个参数的值适当降低一些比较合适。此外,如果发现作业由于频繁的gc导致运行缓慢(通过spark web ui可以观察到作业的gc耗时),意味着task执行用户代码的内存不够用,那么同样建议调低这个参数的值。

    3.7 spark.shuffle.memoryFraction

    • 参数说明:该参数用于设置shuffle过程中一个task拉取到上个stage的task的输出后,进行聚合操作时能够使用的Executor内存的比例,默认是0.2。也就是说,Executor默认只有20%的内存用来进行该操作。shuffle操作在进行聚合时,如果发现使用的内存超出了这个20%的限制,那么多余的数据就会溢写到磁盘文件中去,此时就会极大地降低性能。
    • 参数调优建议:如果Spark作业中的RDD持久化操作较少,shuffle操作较多时,建议降低持久化操作的内存占比,提高shuffle操作的内存占比比例,避免shuffle过程中数据过多时内存不够用,必须溢写到磁盘上,降低了性能。此外,如果发现作业由于频繁的gc导致运行缓慢,意味着task执行用户代码的内存不够用,那么同样建议调低这个参数的值。

    参考文献:https://www.cnblogs.com/qingyunzong/p/8946637.html

  • 相关阅读:
    avalon随笔
    ms-attr-data-real-gold="{{page_data[0].gold}}" 属性付真
    jQuery 快捷操作
    jQuery 属性操作
    jQuery 表单域选中选择器
    jQuery 层次选择器
    jQuery 基本选择器
    jQuery 基本使用
    jQuery 引入多个库文件冲突
    BOM window对象方法
  • 原文地址:https://www.cnblogs.com/parent-absent-son/p/10035221.html
Copyright © 2020-2023  润新知