• spark(二)优化思路


    优化思路

    内存优化

    内存优化大概分为三个方向

    1.所有对象的总内存(包括数据和java对象)

    2.访问这些对象的开销

    3.垃圾回收的开销

    其中Java的原生对象往往都能被很快的访问,但是会多占据2-5倍或更多的内存,有下面4点原因

    ·每个单独的java对象都有一个对象头(16字节),其中包括指向对象的指针(栈->堆),如果该对象只有几个属性,那么对象头可能比实际数据占用的空间都大(严重浪费资源)

    ·java每个string都包含了40字节的额外开销(因为底层其实是存储在数组,需要记录数组的指针,长度等信息),每个字符包含2字节(UTF-16编码)。例如一个10字符的string,实际占用内存空间60字节

    ·常见的集合类,例如linkedlist,hashmap都有用到链表,其中的对象头,元素指针都会占据额外的空间

    ·基础类型的包装,例如Integer

    明确内存消耗

    一般情况,可以把数据转成rdd,然后通过spark自带的UI的Storage页面来观察rdd占用内存大小。

    其它特殊的对象,可以用spark自带的工具类SizeEstimator来评估内存大小,包括对广播数据的内存占用评估

    优化数据结构

    避免使用需要额外开销的java原生的数据结构,比如链表,hashmap,包装类。下面是常见的方法

    ·尽量使用数组结构和基础类型,

    ·在嵌套的数据结构中,尽量避免小对象和指针

    ·考虑用数字或者枚举来代替string作为key

    ·如果内存少于32GB,可以优化JVM -XX:+UseCompressedOops ,OOP = “ordinary object pointer” 普通对象指针。可以让指针由8->4字节,压缩的一般是对象的相关指针(不是用来压缩数据的)。

    一般建议场景是在分配给JVM的内存大小在[4G,32G], 如果小于4G,那么JVM会使用低虚拟地址空间(low virutal address space,64位下模拟32位),这样就不需要做压解压动作了。而对于大于32G,将采用默认的随机地址分配特性,进行压解压。

    数据序列化

    选择合适的序列化协议,一般而言用Kryo,比java原生序列化快很多

    数据存储

    RDD persistence API

    通过把数据序列化至内存,或者磁盘,或者其他策略

    GC优化

    所有给spark的内存资源,有一部分是用于cache RDD的,剩下的用于jvm的堆和栈等使用。

    默认的比例是cache RDD占总内存的60%,可以通过spark.storage.memoryFraction来更改。

    一般情况下,官方文档建议这个比值不要超过JVM Old Gen区域的比值。这也很容易理解,因为RDD Cache数据通常都是长期驻留内存的,理论上也就是说最终会被转移到Old Gen区域(如果该RDD还没有被删除的话),如果这部分数据允许的尺寸太大,势必把Old Gen区域占满,造成频繁的FULL GC,这种情况就可以调小该值。

    ·确认资源是否给足driver的cpu和memory,executor的cpu和memory

    ·当出现过多的full GC时候,可以减小RDD cache的内存空间

    ·当出现过多的minor GC时候,可以增加JVM中Eden区的大小,通过4/3的比例增加

    ·其它常规JVM优化方法,线程栈的内存大小,永久代的堆内存大小等

    分区数优化

    分区数多就是task多,整个任务的并发度就高,但也不是越多越好,假设你有100条数据,有50个分区,平均一个分区就处理两条数据,这样就造成了严重的浪费,更多的时间浪费在分区间的shuffle,和driver的聚合。

    下面是几个优化建议

    ·每个cpu core上跑2~3个tasks

    ·当task上的数据大于20KB的时候,可以考虑

    ·在当前的分区数的1.5倍来进行调优

    关于分区

    除了显示的声明rdd或者dataframe的分区数外,还有两种控制分区数的配置,

    1.spark.sql.shuffle.partitions

    针对dataframe和一些sql操作的分区数

    默认的分区数为父RDD的最大分区数

    2.spark.default.parallelism

    针对rdd的默认分区数

    一般分区数取决于executor的core数量,因为partition越多task越多,而task是spark的最小处理单元。executor的core数量不够,task再多也只能排队,反而慢了。

    注:默认的shuffle后分区数为200

    共享变量

    广播

    当遇到全局性的数据需要使用时,可以采用广播的方式

    广播变量的优势:是因为不是每个task一份变量副本,而是变成每个节点的executor才一份副本。这样的话,就可以让变量产生的副本大大减少。

    广播变量,初始的时候,就在Drvier上有一份副本。task在运行的时候,想要使用广播变量中的数据,此时首先会在自己本地的Executor对应的BlockManager中,尝试获取变量副本;如果本地没有,BlockManager,也许会从远程的Driver上面去获取变量副本;也有可能从距离比较近的其他节点的Executor的BlockManager上去获取,并保存在本地的BlockManager中;BlockManager负责管理某个Executor对应的内存和磁盘上的数据,此后这个executor上的task,都会直接使用本地的BlockManager中的副本。

    例如,50个executor,1000个task。一个map,10M。默认情况下,1000个task,1000份副本。10G的数据,网络传输,在集群中,耗费10G的内存资源。如果使用了广播变量。50个execurtor,50个副本。500M的数据,网络传输,而且不一定都是从Driver传输到每个节点,还可能是就近从最近的节点的executor的bockmanager上拉取变量副本,网络传输速度大大增加;500M,大大降低了内存消耗。

    累加器

    全局的累加器,可以用于统计全局性的数据

    数据本地化

    数据本地化是一个影响spark jobs性能的主要方面。其实运行分为两块,一块数据,一块代码,最好的情况就是数据不动(数据量太大),代码会部署在各个executor上。

    可以通过调节spark.locality相关配置来决定任务的运行选择。

    大致想法

    数据量大的情况,单个task运行时间很长,这时候减少数据的shuffle是很重要的事。如果拿时间比较的话,spark.locality.wait的时间会大大小于大量数据在节点间shuffle的时间,所以这时候,增加spark.locality.wait是很有必要的事情。

    数据量小的情况,或者说单个task运行时间较短。假设task 的平均耗时在2s左右,那么默认的spark.locality.wait的时间都够task运行了,此时等待task选择一个好的运行位置将失去意义。甚至可以把spark.locality.wait置为0。

    接口优化

    1.reduceBy和groupBy

    同理,reduceByKey,aggregateByKey,groupByKey等

    优先使用reduceBy

    reduceBy会优先合并本地的rdd,这样就大大的减少了shuffle的数据量

    2.coalesce和repartition

    看源码可知repartition是采用shuffle的coalesce。从性能上来讲,coalesce是本地合并,也就是同一个executor合并,这样可以减少网络传输带来的性能损失,并且是窄依赖,数据恢复也方便。而reparation直接采用shuffle的方式合并。优先使用coalesce。但是在大量分区需要合并的时候,要考虑一下策略。比如,现在一共有1000个分区,需要合并成10个分区。

    如果直接采用coalesce(10),可能导致合并的速度并不快(原因未知),而采用reparation(10)并发度会多很多。最终性能还是repartition好一点。

    应用场景,设原rdd分区大小为M,现rdd分区大小为N
    M>N,并且差10倍以内,考虑用coalesce
    M>N,并且差10倍以上,考虑用repartition
    M<N,考虑用repartition

    注:也可以采用混合使用,先coalesce,把分区数降下来,然后采用repartition,当然这就需要实际测试,观察哪种性能更加

    动态分配资源

    Spark on yarn支持一种特殊的资源分配机制

    从spark1.2开始就提供该机制。你的application在运行过程中会返回给资源池你所拥有的资源(比如你问yarn要了2G,跑玩数据预处理后,接下来的计算只需要1G,那剩下的1G就先还给yarn)

    可以通过下面配置开启

    spark.dynamicAllocation.enabled=true

    参考资料

    //官方配置文档

    http://spark.apache.org/docs/1.5.0/configuration.html

    //spark官方提供的思路

    https://spark.apache.org/docs/1.5.0/tuning.html

    //cloudera提供的思路

    http://blog.cloudera.com/blog/2015/03/how-to-tune-your-apache-spark-jobs-part-1/

    http://blog.cloudera.com/blog/2015/03/how-to-tune-your-apache-spark-jobs-part-2/

    //IBM提供的相关资料

    https://www.ibm.com/support/knowledgecenter/en/SSZU2E_2.2.0/performance_tuning/application_overview.html

  • 相关阅读:
    Python 面向对象
    Python __str__()
    数据降维
    高并发相关概念
    centos7下安装kubernetes1.18
    OB-运行日志
    OB-租户(Tenant)管理
    OB-资源管理(Resource Unit/Pool)
    [转载]-基于 VMWARE Oracle Linux7.9 安装 Oracle19c RAC 详细配置方案
    OB-管理oceanbase集群参数
  • 原文地址:https://www.cnblogs.com/ulysses-you/p/7464710.html
Copyright © 2020-2023  润新知