定义
Hadoop MapReduce 是一个分布式运算程序的编程框架,用于轻松编写分布式应用程序,以可靠,容错的方式在大型集群(数千个节点)上并行处理大量数据(TB级别),是用户开发 “基于 Hadoop 的数据分析应用” 的核心框架
MapReduce 核心功能是将用户编写的业务逻辑代码和自带默认组件整合成一个完整的分布式运算程序,并发运行在一个 Hadoop 集群上
优缺点
优点: 1.MapReduce 易于编程 简单的实现一些接口,就可以完成一个分布式程序,这个分布式程序可以分布到大量廉价的 PC 机器上运行。也就是说你写一个分布式程序,跟写一个简单的串行程序是一模一样的。就是因为这个特点使得 MapReduce 编程变得非常流行。 2.良好的扩展性 当计算资源不能得到满足的时候,可以通过简单的增加机器来扩展它的计算能力。 3.高容错性 MapReduce设计的初衷就是使程序能够部署在廉价的 PC 机器上,这就要求它具有很高的容错性。比如其中一台机器挂了,它可以把上面的计算任务转移到另外一个节点上运行,不至于这个任务运行失败,而且这个过程不需要人工参与,而完全是由 Hadoop 内部完成的。 4.适合 PB 级以上海量数据的离线处理 可以实现上干台服务器集群并发工作,提供数据处理能力。 缺点: 1.不擅长实时计算 MapReduce 无法像 MySQ 一样,在毫秒或者秒级内返回结果。 2.不擅长流式计算 流式计算的输入数据是动态的,而 MapReduce 的输入数据集是静态的,不能动态变化。这是因为 MapReduce 自身的设计特点决定了数据源必须是静态的。 3.不擅长 DAG(有向图)计算 多个应用程序存在依赖关系,后一个应用程序的输入为前一个的输出。在这种情况下,MapReduce 并不是不能做,而是使用后,每个 MapReduce 作业的输出结果都会写入到磁盘,会造成大量的磁盘 IO,导致性能非常的低下。
运行
MapReduce 作业通常将输入数据集拆分为独立的块,这些块由 map 任务以完全并行的方式处理。 框架对 map 的输出进行排序,然后输入到 reduce 任务。 通常,作业的输入和输出都存储在文件系统中。 该框架负责调度任务,监视任务并重新执行失败的任务。 通常,计算节点和存储节点是相同的,即 MapReduce 框架和 Hadoop 分布式文件系统(参见 HDFS 体系结构指南)在同一组节点上运行。 这样可以有效地在已存在数据的节点上调度任务,从而在集群中产生非常高的聚合带宽。 Hadoop 作业客户端将作业(jar /可执行文件等)和配置提交给 ResourceManager,然后 ResourceManager 负责将软件/配置分发给从节点,调度任务并监视它们,并为作业提供状态和诊断信息。
组成
MapReduce 框架由单个主 ResourceManager、每个集群节点一个从 NodeManager 和每个应用程序的 MRAppMaster 组成(参见 YARN 体系结构指南) 1)MrAppMaster:负责整个程序的过程调度及状态协调。 2)MapTask:负责Map阶段的整个数据处理流程。 3)ReduceTask:负责Reduce阶段的整个数据处理流程。
输入和输出
MapReduce框架专门用于 <key,value> 对,也就是说,框架将作业的输入视为一组<key,value>对,并生成一组<key,value>对作为输出。 不同类型的 <key,value> 类必须由框架序列化,需要实现 Writable 接口。 此外,作为 key 的类必须实现 WritableComparable 接口以便框架进行排序。
MapReduce 作业的输入和输出类型: (输入)<k1,v1> - > map - > <k2,v2> - > combine - > <k2,v2> - > reduce - > <k3,v3>(输出)
虽然 Hadoop 框架是用 Java™ 实现的,但 MapReduce 应用程序不一定需要用 Java 编写:
Hadoop Streaming 是一个实用程序,它允许用户使用任何可执行文件(如shell)作为 mapper 和/或 reducer 创建和运行
Hadoop Pipes 是一个 SWIG 兼容的 C ++ API,用于实现 MapReduce 应用程序(非基于JNI™)