• 大数据学习之azkaban任务调度学习26


     1:Azkaban概述

    Azkaban是一个分布式工作流管理器,在LinkedIn上实现,以解决Hadoop作业依赖性问题。我们有需要按顺序运行的工作,从ETL工作到数据分析产品。

    2:为什么需要工作流调度系统

    1)一个完整的数据分析系统通常都是由大量任务单元组成:
      shell 脚本程序,java 程序,mapreduce 程序、hive 脚本等。


    2)各任务单元之间存在时间先后及前后依赖关系。


    3)为了很好地组织起这样的复杂执行计划,需要一个工作流调度系统来调度执行。
      例如,我们可能有这样一个需求,某个业务系统每天产生 20G 原始数据,我们每天都要对其进行处理,处理步骤如下所示:
      1)通过 Hadoop 先将原始数据同步到 HDFS 上;
      2)借助 MapReduce 计算框架对原始数据进行计算,生成的数据以分区表的形式存储到多张 Hive 表中;
      3)需要对 Hive 中多个表的数据进行 JOIN 处理,得到一个明细数据 Hive 大表;
      4)将明细数据进行复杂的统计分析,得到结果报表信息;
      5)需要将统计分析得到的结果数据同步到业务系统中,供业务调用使用。
    如下图所示:

    2:特点:

    1)给用户提供了一个非常友好的可视化界面->web界面

    2)非常方便的上传工作流-》打成压缩包

    3)设置任务间的关系

    4)权限设置-》删库到跑路

    5)模块化

    6)随时停止和启动任务

    7)可以查看日志记录

    3:Oozie对比

    Oozie相对比,azkaban是一个轻量级调度工具。

    企业应用的功能并非小众的功能可以使用Azkaban。

    1)功能

    两个任务流调度器可以调度使用mr,java,脚本工作流任务

    都可以进行定时调度...

    2)使用

    az直接传参

    Oozie直接传参,支持EL表达式...

    3)定时

    az定时执行任务基于时间

    Oozie任务基于时间和数据

    4)资源

    az有严格的权限控制

    Oozie无雅阁权限控制

    4:Azkaban安装部署

    准备工作

    1)快照

    2)上传安装包

    alt+p

    3)解压重命名

    tar -zxvf

    mv

    4)mysqlazkaban脚本导入

    source /root/hd/azkaban/azkaban-2.5.0/create-all-sql-2.5.0.sql

    安装部署

    1)创建SSL(安全连接)配置

    服务器需要一个证书

    keytool -keystore keystore -alias jetty -genkey -keyalg RSA

    2)时间同步设置

    生成时区文件

    tzselect生成

    5->9->1->yes

    拷贝时区文件

    cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

    集群时间同步

    crt中开启交互窗口 发送

    sudo date -s '2018-11-28 20:41:33'

    3)修改配置文件

    4)启动web服务器

    bin/azkaban-web-start.sh

    5)启动执行器

    bin/azkaban-executor-start.sh

    6)访问web

    https://192.168.50.183:8443

    这里安装步骤我写的很粗略,可以参照这篇文章来安装部署

    https://www.cnblogs.com/chenmingjun/p/10506488.html

    实战操作

    案例一:Command类型之单job

    创建job描述文件:

    然后打包成zip文件上传到azkaban

     

    案例二:Command类型之多job案例

    创建f.job

    创建b.job

    其中b依赖f

    然后将这2job文件打包在一个zip并上传到azkaban中。

    案例三:hdfs任务操作

    创建job文件

    注意这里使用到的hdfs命令必须是Linux中该命令的全路径

    然后将这个job文件打包成zip并上传到azkaban中。

    案例4:运行MapReduce程序

    这里我们用的是hadoop自带的一个例子程序。下面编写job文件

    将单词计数的jar文件 和job文件打包上传到azkaban任务中

     

    案例5 hive脚本任务

    1:创建hive脚本 

    2:编写job文件

    然后将这个job文件和sql文件打包成zip并上传到azkaban中。

    这里有毒啊!!不知道为什么运行hive有问题

    Execute报错信息

    WebServer报错信息

  • 相关阅读:
    python 中文文档地址总结
    清除celery 任务队列
    celery work logging 问题
    mysql 数据库 存储数据类型
    python 补0的方法
    lunix 命令积累
    python3 import Crypto 失败的解决办法 (AES对称加密使用 模块)
    从excel 获取内容 模块:xlrd
    api h5 sdk 接入的说明
    Excel 打开两个单独的页面
  • 原文地址:https://www.cnblogs.com/hidamowang/p/10935402.html
Copyright © 2020-2023  润新知