• hive-数据倾斜记录分享


    时间比较赶,简单记录下:

    问题描述:一开始我一个拉链表查一条数据,select *from chain_table_name where id='XXX'

    最后出现: map 99%,Reduce 0%,就不再执行了,也咩有结果。

    解决方案:

          set hive.map.aggr = true;

          select *from chain_table_name where id='XXX';

    这就解决了。

    总结:搜了下 ,这就是数据倾斜。

    链接:

    hive数据倾斜


    hive数据倾斜原因分析及解决方案
    http://www.aboutyun.com/thread-8296-1-1.html



    Hive 数据倾斜总结
    http://www.aboutyun.com/thread-8241-1-1.html


    hive卡住不动,并非数据倾斜,这个是什么原因
    http://www.aboutyun.com/thread-10037-1-1.html  

     4总结----先保留链接一部分内容
    使map的输出数据更均匀的分布到reduce中去,是我们的最终目标。由于Hash算法的局限性,按key Hash会或多或少的造成数据倾斜。大量经验表明数据倾斜的原因是人为的建表疏忽或业务逻辑可以规避的。在此给出较为通用的步骤:

    1、采样log表,哪些user_id比较倾斜,得到一个结果表tmp1。由于对计算框架来说,所有的数据过来,他都是不知道数据分布情况的,所以采样是并不可少的。

    2、数据的分布符合社会学统计规则,贫富不均。倾斜的key不会太多,就像一个社会的富人不多,奇特的人不多一样。所以tmp1记录数会很少。把tmp1和users做map join生成tmp2,把tmp2读到distribute file cache。这是一个map过程。

    3、map读入users和log,假如记录来自log,则检查user_id是否在tmp2里,如果是,输出到本地文件a,否则生成<user_id,value>的key,value对,假如记录来自member,生成<user_id,value>的key,value对,进入reduce阶段。

    4、最终把a文件,把Stage3 reduce阶段输出的文件合并起写到hdfs。

    如果确认业务需要这样倾斜的逻辑,考虑以下的优化方案:
    1、对于join,在判断小表不大于1G的情况下,使用map join
    2、对于group by或distinct,设定 hive.groupby.skewindata=true
    3、尽量使用上述的SQL语句调节进行优化

    数据倾斜:(转载:https://www.cnblogs.com/shaosks/p/9491905.html

     5、大表join大表优化

          如果Hive优化实战2中mapjoin中小表dim_seller很大呢?比如超过了1GB大小?这种就是大表join大表的问题。首先引入一个具体的问题场景,然后基于此介绍各自优化方案。

       5.1、问题场景

          问题场景如下:

          A表为一个汇总表,汇总的是卖家买家最近N天交易汇总信息,即对于每个卖家最近N天,其每个买家共成交了多少单,总金额是多少,假设N取90天,汇总值仅取成交单数。

          A表的字段有:buyer_id、seller_id、pay_cnt_90day。

          B表为卖家基本信息表,其字段有seller_id、sale_level,其中sale_levels是卖家的一个分层评级信息,比如吧卖家分为6个级别:S0、S1、S2、S3、S4和S5。

          要获得的结果是每个买家在各个级别的卖家的成交比例信息,比如:

          某买家:S0:10%;S1:20%;S2:20%;S3:10%;S4:20%;S5:10%。

          正如mapjoin中的例子一样,第一反应是直接join两表并统计:

          select

             m.buyer_id,

            sum(pay_cnt_90day)  as pay_cnt_90day,

            sum(case when m.sale_level = 0  then pay_cnt_90day  end)  as pay_cnt_90day_s0,

            sum(case when m.sale_level = 1  then pay_cnt_90day  end)  as pay_cnt_90day_s1,

            sum(case when m.sale_level = 2  then pay_cnt_90day  end)  as pay_cnt_90day_s2,

            sum(case when m.sale_level = 3  then pay_cnt_90day  end)  as pay_cnt_90day_s3,

            sum(case when m.sale_level = 4  then pay_cnt_90day  end)  as pay_cnt_90day_s4,

            sum(case when m.sale_level = 5  then pay_cnt_90day  end)  as pay_cnt_90day_s5

          from (

            select  a.buer_id,  a.seller_id,  b.sale_level, a.pay_cnt_90day

            from (  select buyer_id,  seller_id,  pay_cnt_90day   from table_A)  a

            join

                   (select seller_id,  sale_level  from table_B)  b

            on  a.seller_id  = b.seller_id

            )  m

          group by m.buyer_id

          但是此SQL会引起数据倾斜,原因在于卖家的二八准则,某些卖家90天内会有几百万甚至上千万的买家,但是大部分的卖家90天内买家的数目并不多,join table_A和table_B的时候,

        ODPS会按照seller_id进行分发,table_A的大卖家引起了数据倾斜。

          但是数据本身无法用mapjoin table_B解决,因为卖家超过千万条,文件大小有几个GB,超过了1GB的限制。

       5.2、优化方案1

          一个很正常的想法是,尽管B表无法直接mapjoin, 但是是否可以间接mapjoin它呢?

          实际上此思路有两种途径:限制行和限制列。

          限制行的思路是不需要join B全表,而只需要join其在A表中存在的,对于本问题场景,就是过滤掉90天内没有成交的卖家。

          限制列的思路是只取需要的字段。

          加上如上的限制后,检查过滤后的B表是否满足了Hive  mapjoin的条件,如果能满足,那么添加过滤条件生成一个临时B表,然后mapjoin该表即可。采用此思路的语句如下:

          

          select

             m.buyer_id,

            sum(pay_cnt_90day)  as pay_cnt_90day,

            sum(case when m.sale_level = 0  then pay_cnt_90day  end)  as pay_cnt_90day_s0,

            sum(case when m.sale_level = 1  then pay_cnt_90day  end)  as pay_cnt_90day_s1,

            sum(case when m.sale_level = 2  then pay_cnt_90day  end)  as pay_cnt_90day_s2,

            sum(case when m.sale_level = 3  then pay_cnt_90day  end)  as pay_cnt_90day_s3,

            sum(case when m.sale_level = 4  then pay_cnt_90day  end)  as pay_cnt_90day_s4,

            sum(case when m.sale_level = 5  then pay_cnt_90day  end)  as pay_cnt_90day_s5

          from ( 

            select  /*+mapjoin(b)*/

              a.buer_id,  a.seller_id,  b.sale_level, a.pay_cnt_90day

            from (  select buyer_id,  seller_id,  pay_cnt_90day   from table_A)  a

            join

                   (

               select seller_id,  sale_level  from table_B b0

               join

               (select seller_id from table_A group by seller_id) a0

                 on b0.seller_id = a0.selller_id

              )  b

            on  a.seller_id  = b.seller_id

            )  m

          group by m.buyer_id

          此方案在一些情况可以起作用,但是很多时候还是无法解决上述问题,因为大部分卖家尽管90天内买家不多,但还是有一些的,过滤后的B表仍然很多。

      5.3、优化方案2

          此种解决方案应用场景是:倾斜的值是明确的而且数量很少,比如null值引起的倾斜。其核心是将这些引起倾斜的值随机分发到Reduce,其主要核心逻辑在于join时对这些特殊值concat随机数,

        从而达到随机分发的目的。此方案的核心逻辑如下:

           select a.user_id, a.order_id, b.user_id

          from table_a a join table_b b

          on (case when a.user_is is null then concat('hive', rand()) else a.user_id end) = b.user_id

          Hive 已对此进行了优化,只需要设置参数skewinfo和skewjoin参数,不修改SQL代码,例如,由于table_B的值“0” 和“1”引起了倾斜,值需要做如下设置:

          set hive.optimize.skewinfo=table_B:(selleer_id) [ ( "0") ("1") ) ] 

          set hive.optimize.skewjoin = true;

          但是方案2因为无法解决本问题场景的倾斜问题,因为倾斜的卖家大量存在而且动态变化。

       

      5.4 、优化方案3:倍数B表,在取模join

         1、通用方案

          此方案的思路是建立一个numbers表,其值只有一列int 行,比如从1到10(具体值可根据倾斜程度确定),然后放大B表10倍,再取模join。代码如下:

          

          select

             m.buyer_id,

            sum(pay_cnt_90day)  as pay_cnt_90day,

            sum(case when m.sale_level = 0  then pay_cnt_90day  end)  as pay_cnt_90day_s0,

            sum(case when m.sale_level = 1  then pay_cnt_90day  end)  as pay_cnt_90day_s1,

            sum(case when m.sale_level = 2  then pay_cnt_90day  end)  as pay_cnt_90day_s2,

            sum(case when m.sale_level = 3  then pay_cnt_90day  end)  as pay_cnt_90day_s3,

            sum(case when m.sale_level = 4  then pay_cnt_90day  end)  as pay_cnt_90day_s4,

            sum(case when m.sale_level = 5  then pay_cnt_90day  end)  as pay_cnt_90day_s5

          from (

            select  a.buer_id,  a.seller_id,  b.sale_level, a.pay_cnt_90day

            from (  select buyer_id,  seller_id,  pay_cnt_90day   from table_A)  a

            join

                   (

              select  /*+mapjoin(members)*/

                seller_id,  sale_level ,member

              from table_B

                join members

              )  b

            on  a.seller_id  = b.seller_id

              and mod(a.pay_cnt_90day,10)+1 = b.number 

            )  m

          group by m.buyer_id

             此思路的核心在于,既然按照seller_id分发会倾斜,那么再人工增加一列进行分发,这样之前倾斜的值的倾斜程度会减少到原来的1/10,可以通过配置numbers表改放大倍数来降低倾斜程度,

          但这样做的一个弊端是B表也会膨胀N倍。

        2、专用方案

            通用方案的思路把B表的每条数据都放大了相同的倍数,实际上这是不需要的,只需要把大卖家放大倍数即可:需要首先知道大卖家的名单,即先建立一个临时表动态存放每天最新的大卖家(

          比如dim_big_seller),同时此表的大卖家要膨胀预先设定的倍数(1000倍)。

            在A表和B表分别新建一个join列,其逻辑为:如果是大卖家,那么concat一个随机分配正整数(0到预定义的倍数之间,本例为0~1000);如果不是,保持不变。具体代码如下:

          

          select

             m.buyer_id,

            sum(pay_cnt_90day)  as pay_cnt_90day,

            sum(case when m.sale_level = 0  then pay_cnt_90day  end)  as pay_cnt_90day_s0,

            sum(case when m.sale_level = 1  then pay_cnt_90day  end)  as pay_cnt_90day_s1,

            sum(case when m.sale_level = 2  then pay_cnt_90day  end)  as pay_cnt_90day_s2,

            sum(case when m.sale_level = 3  then pay_cnt_90day  end)  as pay_cnt_90day_s3,

            sum(case when m.sale_level = 4  then pay_cnt_90day  end)  as pay_cnt_90day_s4,

            sum(case when m.sale_level = 5  then pay_cnt_90day  end)  as pay_cnt_90day_s5

          from (

            select  a.buer_id,  a.seller_id,  b.sale_level, a.pay_cnt_90day

            from (  

              select  /*+mapjoin(big)*/

                 buyer_id,  seller_id,  pay_cnt_90day,

                 if(big.seller_id is not null, concat(  table_A.seller_id,  'rnd',  cast(  rand() * 1000 as bigint ), table_A.seller_id)  as seller_id_joinkey

                  from table_A

                   left outer join

                 --big表seller_id有重复,请注意一定要group by 后再join,保证table_A的行数保持不变

                 (select seller_id  from dim_big_seller  group by seller_id)big

                 on table_A.seller_id = big.seller_id

            )  a

            join

                   (

              select  /*+mapjoin(big)*/

                seller_id,  sale_level ,

                --big表的seller_id_joinkey生成逻辑和上面的生成逻辑一样

                coalesce(seller_id_joinkey,table_B.seller_id) as seller_id_joinkey

              from table_B

                left out join

              --table_B表join大卖家表后大卖家行数扩大1000倍,其它卖家行数保持不变

              (select seller_id, seller_id_joinkey from dim_big_seller) big

              on table_B.seller_id= big.seller_id

              )  b

            on  a.seller_id_joinkey= b.seller_id_joinkey

              and mod(a.pay_cnt_90day,10)+1 = b.number 

            )  m

          group by m.buyer_id

          相比通用方案,专用方案的运行效率明细好了许多,因为只是将B表中大卖家的行数放大了1000倍,其它卖家的行数保持不变,但同时代码复杂了很多,而且必须首先建立大数据表。

       5.5 、动态一分为二

          实际上方案2和3都用了一分为二的思想,但是都不彻底,对于mapjoin不能解决的问题,终极解决方案是动态一分为二,即对倾斜的键值和不倾斜的键值分开处理,不倾斜的正常join即可,
        倾斜的把他们找出来做mapjoin,最后union all其结果即可。

          但是此种解决方案比较麻烦,代码复杂而且需要一个临时表存放倾斜的键值。代码如下:

          --由于数据倾斜,先找出90天买家超过10000的卖家

          insert overwrite table  temp_table_B

          select 

            m.seller_id,  n.sale_level

          from (

            select   seller_id

            from (

              select seller_id,count(buyer_id) as byr_cnt

              from table_A

              group by seller_id

              ) a

            where a.byr_cnt >10000

            ) m

          left join 

          (

           select seller_id, sale_level  from table_B

          ) n

            on m.seller_id = n.seller_id;

          

          --对于90天买家超过10000的卖家直接mapjoin,对其它卖家直接正常join即可。

          

          select

             m.buyer_id,

            sum(pay_cnt_90day)  as pay_cnt_90day,

            sum(case when m.sale_level = 0  then pay_cnt_90day  end)  as pay_cnt_90day_s0,

            sum(case when m.sale_level = 1  then pay_cnt_90day  end)  as pay_cnt_90day_s1,

            sum(case when m.sale_level = 2  then pay_cnt_90day  end)  as pay_cnt_90day_s2,

            sum(case when m.sale_level = 3  then pay_cnt_90day  end)  as pay_cnt_90day_s3,

            sum(case when m.sale_level = 4  then pay_cnt_90day  end)  as pay_cnt_90day_s4,

            sum(case when m.sale_level = 5  then pay_cnt_90day  end)  as pay_cnt_90day_s5

          from (

            select  a.buer_id,  a.seller_id,  b.sale_level, a.pay_cnt_90day

            from (  select buyer_id,  seller_id,  pay_cnt_90day   from table_A)  a

            join

                   (

              select seller_id,  a.sale_level 

               from table_A  a

               left join temp_table_B b

              on a.seller_id = b.seller_id

              where b.seller_id is not null

              )  b

            on  a.seller_id  = b.seller_id

           union all

           

           select  /*+mapjoin(b)*/

              a.buer_id,  a.seller_id,  b.sale_level, a.pay_cnt_90day

            from ( 

               select buyer_id,  seller_id,  pay_cnt_90day   

              from table_A

              )  a

            join

                   (

               select seller_id,  sale_level  from table_B 

              )  b

            on  a.seller_id  = b.seller_id

         )  m  group by m.buyer_id

         ) m

         group by m.buyer_id

        总结:方案1、2以及方案3中的同用方案不能保证解决大表join大表问题,因为它们都存在种种不同的限制和特定使用场景。而方案3的专用方案和方案4是推荐的优化方案,但是它们都需要新建一个临时表

           来存储每日动态变化的大卖家。相对方案4来说,方案3的专用方案不需要对代码框架进行修改,但是B表会被放大,所以一定要是是维度表,不然统计结果会是错误的。方案4最通用,自由度最高,

           但是对代码的更改也最大,甚至修改更难代码框架,可以作为终极方案使用。

  • 相关阅读:
    C#开源资源大汇总
    未来IT人才市场最热门的12项技能
    C#中使用ROT13加密解密
    SphinX人像识别 联想笔记本人脸识别系统 (适合所有带摄像头的电脑)
    关于电脑的困惑,请各位大哥给个指点
    用Cacls修改文件访问控制权限
    2008年国外最佳Web设计/开发技巧、脚本及资源总结
    mysql密码设置
    MySQL常规练习 .MySQL安装成功后的进入方式
    JSTL包
  • 原文地址:https://www.cnblogs.com/xunyingFree/p/9856016.html
Copyright © 2020-2023  润新知