• Hadoop Oozie 学习笔记


     Oozie是一个工作流引擎服务器,用于运行Hadoop Map/Reduce和Pig 任务工作流.同时Oozie还是一个Java Web程序,运行在Java Servlet容器中,如Tomcat.

           Oozie工作流中拥有多个Action,如Hadoop Map/Reuce job,Hadoop Pig job等,所有的Action以有向无环图(DAG Direct Acyclic Graph)的模式部署运行.所以在Action的运行步骤上是有方向的,只能上一个Action运行完成后才能运行下一个Action.

           Oozie工作流通过HPDL(一种通过XML自定义处理的语言,类似JBOSS JBPM的JPDL)来构造.

           Oozie工作流中的Action在运程系统运行如(Hadoop,Pig服务器上).一旦Action完成,远程服务器将回调Oozie的接口并通知Action已经完成,这时Oozie又会以同样的方式执行工作流中的下一个Action,直到工作流中所有Action都完成(完成包括失败)

           Oozie工作流中包含可控制的工作流节点(control flow node)和Action节点(action node).

           Control flow node其实可以理解为Oozie的语法,比如可以定义开始(start),结束(end),失败(fail)节点.开始节点就表示从该节点开始运行.同时也提供一种机制去控制工作流的执行过程,如选择(decision),并行(fork),join节点.

           Oozie工作流提供各种类型的Action用于支持不同的需要,如Hadoop Map/Reduce,Hadoop File System,Pig,SSH,HTTP,Email,Java,以及Oozie子流程.Oozie也支持自定义扩展以上各种类型的Action .

           Oozie工作流允许自定义参数,如${inputDir}.

     

     

            WordCount Workflow Example:

            工作流图:

     

            workflow.xml

    Xml代码   收藏代码
    1. <workflow-app name='wordcount-wf' xmlns="uri:oozie:workflow:0.1">  
    2.     <start to='wordcount'/>  
    3.     <action name='wordcount'>  
    4.         <map-reduce>  
    5.             <job-tracker>${jobTracker}</job-tracker>  
    6.             <name-node>${nameNode}</name-node>  
    7.             <configuration>  
    8.                 <property>  
    9.                     <name>mapred.mapper.class</name>  
    10.                     <value>org.myorg.WordCount.Map</value>  
    11.                 </property>  
    12.                 <property>  
    13.                     <name>mapred.reducer.class</name>  
    14.                     <value>org.myorg.WordCount.Reduce</value>  
    15.                 </property>  
    16.                 <property>  
    17.                     <name>mapred.input.dir</name>  
    18.                     <value>${inputDir}</value>  
    19.                 </property>  
    20.                 <property>  
    21.                     <name>mapred.output.dir</name>  
    22.                     <value>${outputDir}</value>  
    23.                 </property>  
    24.             </configuration>  
    25.         </map-reduce>  
    26.         <ok to='end'/>  
    27.         <error to='end'/>  
    28.     </action>  
    29.     <kill name='kill'>  
    30.         <message>Something went wrong: ${wf:errorCode('wordcount')}</message>  
    31.     </kill/>  
    32.     <end name='end'/>  
    33. </workflow-app>  

     

          同时自己成org.myorg.WordCount这个Hadoop Map/Reduce Job,网上搜索一大把.

    配置打包后通过OozieClient提交给Hadoop就直接可以运行了.

  • 相关阅读:
    HDU 5546 深搜吧 主要是提取的时候容易重复
    HDU 5543 新型01背包 两端放一半就可以有其价值
    HDU 2586 查找两点之间的距离
    HDU 5652 二分加搜索 http://acm.split.hdu.edu.cn/showproblem.php?pid=5652
    美句
    最短路径问题
    1766 装果子
    Watchcow
    codevs 4768 跳石头
    noi 7219:复杂的整数划分问题
  • 原文地址:https://www.cnblogs.com/aukle/p/3235547.html
Copyright © 2020-2023  润新知