• MapReduce原理与实现


    课程链接:Hadoop大数据平台架构与实践--基础篇

    1.MapReduce原理

    分而治之,一个大任务分成多个小的子任务(map),并行执行后,合并结果(reduce)

    问题1:1000副扑克牌少哪一张牌(去掉大小王)

     

    问题2:100GB的网站访问日志文件,找出访问次数最多的IP地址

    1. 将日志进行切分(比如按时间)
    2. 各自统计各IP的访问次数
    3. 进行归约,通过IP值进行Hash映射(相同IP归到同一个reduce)
    4. 排序结果

    2.MapReduce的运行流程

    基本概念

    • Job & Task
      • 一个Job是一个任务(作业),每个Job可分为多个Task,Task分为MapTask和ReduceTask
    • JobTracker(master管理节点)
      • 作业调度(先到先服务、公平调度器)
      • 分配任务、监控任务执行进度(TaskTracker需要给出状态更新)
      • 监控TaskTracker状态(是否出现故障)
    • TaskTacker
      • 执行任务
      • 汇报任务状态

     

    1. 客户端提交Job,JobTracker将其置于候选队列
    2. JobTracker在适当的时候进行调度,选择一个Job,将其拆分多个Map任务和Reduce任务,分发给TaskTracker来做
    3. 在实际的部署中,TaskTracker和HDFS中的DataNode是同一种物理结点(这样可保证计算跟着数据走,读取数据的开销最小,移动计算代替移动数据)

    1. 任何Job过来都是先交到JobTracker里,采用一定调度策略分配Map任务和Reduce任务(可多轮)
    2. 输入数据进行分片,按照一定规则分给TaskTracker,分配Map任务
    3. 任务好了之后,产生中间结果(Key-Value对)
    4. (Key-Value对)根据一些映射规则进行交换,再到Reduce端进行Reduce任务
    5. 运算完之后,数据结果写回到HDFS中

    MapReduce的容错机制

    1. 重复执行(Job、硬件或者数据问题)(重复4次还是失败以后放弃执行)
    2. 推测执行(某个结点算的特别慢会再找一个TaskTracker做同样的事情,谁先算完终止另一个)(保证不会因为某一两个TaskTracker的故障导致效率很低)

  • 相关阅读:
    扫盲如何在ECLIPSE中使用条件断点
    春困
    气虚咳喘案
    知足老师论糖尿病
    辨痰之病位与寒热
    常用中药功效比较(任之堂)
    女子全身窜痛案
    小儿外感案
    紫斑案
    读任之堂中药讲记笔记
  • 原文地址:https://www.cnblogs.com/exciting/p/9210891.html
Copyright © 2020-2023  润新知