• Hive简单优化;workflow调试


    1. 定义job名字

    SET mapred.job.name='customer_rfm_analysis_L1';

    这样在job任务列表里可以第一眼找到自己的任务。

    2. 少用distinct, 尽量用group by

    因为会把数据弄在一个reduce中,造成数据倾斜。distinct数据数量大于1000条时。

    3. join时小表最好放左边

    否则会引起磁盘和内存的大量消耗

    4. 小表和超大的表join时,可以使用map join

    能把小表写入内存中,便于多次读写。

    5. 如果union all的部分个数大于2

    或者每个union部分数据量大,应该拆成多个insert into 语句

    6. SQL里的通用设置

    --每个sql的代码都一样
    SET mapred.max.split.size=256000000;
    SET hive.exec.compress.output=true;
    SET mapred.output.compression.codec=org.apache.hadoop.io.compress.SnappyCodec;
    SET mapred.output.compression.type=BLOCK;
    SET hive.exec.dynamic.partition=true;
    SET hive.exec.dynamic.partition.mode=nonstrict;
    set mapreduce.map.output.compress=true;
    set mapred.map.output.compress.codec = org.apache.hadoop.io.compress.SnappyCodec;
    set mapreduce.reduce.shuffle.input.buffer.percent =0.6;
    set mapreduce.reduce.shuffle.parallelcopies = 5;
    set hive.exec.max.created.files=655350;
    set hive.exec.max.dynamic.partitions=10000000;
    set hive.exec.max.dynamic.partitions.pernode=10000000;

    7. workflow

    1) coordinator 动态日期获取

           ${coord:formatTime(coord:dateOffset(coord:nominalTime(),-2,'DAY'), 'yyyy-MM-dd')}

    表示取当天的两天之前的日期(格式是 yyyy-MM-dd)

           ${coord:formatTime(coord:nominalTime(), 'yyyy-MM-dd')}

    表示取当天的日期(格式是 yyyy-MM-dd)

    注意: 当修改workflow后,需要重新提交coordinator才会生效。

    2) coordinator 时间设置

    要选用utc时区;

    设置时间为需求的执行时间 - 8 hours;

    3) coordinator 可以自动识别出 workflow中调用的参数,赋值给它即可。

        SQL中的参数要设置成 ${参数名这种},如果是字符串,'${字符串名}'

        workflow中设置参数为 ${参数名},不需要引号。

    4)workflow 参数可以上传一个文件。 文件该是什么格式??

    5)  半路结束,状态为failed。

    Halting due to Out Of Memory Error...

    GC overhead limit exceeded

    尝试方法:调大oozie的heapsize,解决!

    6)并发子workflow相互不能执行成功,状态为Succeeded。但实际上任务并未完成。是因为有相邻子workflow出现错误

    GC overhead limit exceeded
    Closing: 0: jdbc:hive2://spark-02:10000/default
    Intercepting System.exit(2)
    Failing Oozie Launcher, Main class [org.apache.oozie.action.hadoop.Hive2Main], exit code [2]

    8 oozie 可以调用 Hive QL,Spark, Java,Shell

    9 Bundle 跟workflow, coordinator 在同一个设置区。

    可以把多个coordinator打包成一个。



  • 相关阅读:
    如何使用用Postman工具做接口自动化测试 -入门到实战篇
    python 自动化测试框架unittest与pytest的区别
    Postman接口工具如何测试WebService接口
    Python+requests+unittest+excel实现接口自动化测试框架
    速看!!python WEB接口自动化测试之requests库详解
    大佬教你美团接口自动化测试实战-0基础入门到精通
    dotnet OpenXML 转换 PathFillModeValues 为颜色特效
    dotnet 构建还原失败 NuGet.targets 错误可能原因
    WPF 简单实现一个支持删除自身的应用
    dotnet C# 反射扫描程序集所有类型会不会触发类型静态构造函数
  • 原文地址:https://www.cnblogs.com/skyEva/p/5201638.html
Copyright © 2020-2023  润新知