• Hadoop(一):概述


    一、Hadoop是什么?

      Hadoop是一个由Apache基金会所开发的分布式系统基础架构。Hadoop框架最核心的设计包含两个方面,一是分布式文件系统(Hadoop Distributed File System),简称HDFS;二是分布式计算框架MapReduce。简单来说,HDFS为海量的数据提供了存储,MapReduce为海量的数据提供了计算。

      Hadoop这个名字并不是一个缩写,是其创始人Doug Cutting的孩子给一头大象取的名字,这个名字本身并不具有描述性。

    二、HDFS架构

      一个分布式存储系统。

      

      1、特点

      (1)主从模式,一个主结点,多个从结点(默认三个)

      (2)Block(块)为最小的存储单位,默认为64MB。一个文件划分为多个分块(chunk)进行存储

      (3)一次写入,多次读取的访问模式

      2、各结点的作用

      (1)namenode,主结点,用来存储元数据信息,管理文件系统的命名空间。

      (2)datanode,从结点,存储数据信息;并定期向namenode发送它们所储存块的列表。

      (3)Secondary namenode,帮助NameNode合并编辑日志,减少NameNode的启动时间

        namenode和datanode不难理解,但是Secondary namenode的作用看到过多种说法,有一种如下:

        fsimage是namenode启动时对整个系统的快照

        edit log是namenode启动后,对文件系统的改动序列,只有在namenode再次启动时,这些edit log才会合并到fsimage中

        所以,如果edit log过于长,namenode启动就会非常慢

        secondary namenode会定时去namenode取edit log,并更新到自己的fsimage上,之后复制到namenode中,namenode启动时直接用这个快照。

        另一方面,因为secondary namenode的工作内容,当namenode出现故障时,也可以起到一定的作用

      3、工作流程

        简单理解的话,对于读数据来说,如上图所示:

        1)客户端发送请求,从主结点返回数据存储的位置信息;

        2)客户端根据具体的位置信息从datanode获取数据。

        但是,真实过程要复杂的多

      (1)客户端读取HDFS中的数据

        1)客户端对DistributedFileSystem对象(分布式文件系统)调用open()方法打开文件系统

        2)DistributedFileSystem对namenode创建一个RPC调用,请求文件地址

         namenode返回文件各block所在的datanode地址(返回所有副本的地址,但是会按距离排序)

         DistributedFileSystem返回一个FSDataInputStream对象(文件定位输入流)给客户端

           FSDataInputStream封装了DFSInputStream对象(管理结点的I/O)

        3)客户端对上述输入流调用read方法

        4)DFSInputStream连接存储着文件起始块的距离最近的datanode,将数据从datanode返回到客户端

          传输完毕,DFSInputStream会关闭与datanode的连接

        5)对下一个block执行步骤4的操作

        6)读取完毕,客户端对FSDataInputStream调用close()方法

      (2)客户端将文件写入HDFS

        下面的过程,首先创建一个新文件,并把数据写入该文件,最后关闭文件

        1)客户端对DistributedFileSytem对象调用create()方法创建文件

        2)DistributedFileSystem对namenode创建一个RPC调用,请求在文件系统的命名空间中创建一个新文件

          namenode执行各种不同的检查确认这个文件不存在,以及客户端有创建这个文件的权限

          如果检查不通过,文件创建失败并向客户端返回一个IOException异常

          若通过,namenode增加一条创建新文件的记录,

          DistributedFileSystem向客户端返回一个FSDataOutputStream对象

          FSDataOutputStream封装了DFSOutputStream对象(管理结点的I/O)

        3)客户端写入数据

          DFSOutputStream将数据分成一个个的数据块,并写入内部队列,称为“数据队列”

          DataStreamer处理数据队列,根据datanode列表要求namenode分配适合的新块来存储数据备份

          一组datanode构成一个管线,假设复本为3,则管线中有3个结点

        4)DataStreamer将数据块流式传输到管线中的第1个datanode,

          该datanode存储数据并将它发送到第二个datanode,第二个到第三个同理

          DFSOutputStream同时也维护着一个“确认队列”,等待datanode的确认回执

        5)当收到确认回执时,才会删除队列中的数据信息

        6)写入完毕,客户端对FSDataOutputStream调用close()方法

        7)DistributedFileSystem向namenode发送文件写入完成信号

      4、优点:

      (1)容错性:数据多复本存储,如果datanode结点发生故障,会自动备份数据

      (2)最短路径读取:namenode可以出最佳的路径,返回给文件流进行数据读取

      (3)可扩展性:如果新增机器,namenode会自动开始存储数据到该机器。

      4、缺陷

      (1)单点故障问题:若namenode结点出现故障,整个HDFS将会失效

      (2)安全问题:Client可以绕过NameNode直接对DataNode进行读写操作

    三、MapReduce

      一个基于分布式存储系统的分布式计算框架。

      1、MapReduce程序执行步骤

        

      (1)输入

      (2)split过程:切分输入数据

      (3)map过程(映射):将数据解析成key/value对

      (4)shuffle&sort过程(分组排序):根据key值对键值对进行分组,将具有相同key的数据分成一组,每一组发给一个reduce处理

      (5)Reduce过程(规约):对数据进行规约处理

      (6)输出

      2、MapReduce任务的执行流程

      

      (1)用户启动程序:用户通过Hadoop命令启动运行MapReduce程序

      (2)JobClient获取作业ID:JobClient联系JobTracker获取一个作业ID

      (3)JobClient初始化准备:

        ① 将代码、配置、切片信息等复制到HDFS

        ② 根据输入数据路径、Block大小以及设定的分片大小对数据进行切割划分

        ③ 对输出目录进行检查

      (4)JobClient提交作业:JobClient将作业ID和对应的资源信息提交各JobTracker

      (5)JobTracer初始化作业:JobTracker将用户提交的信息封装到对象用于进行跟踪,同时将作业加入到作业调度器

      (6)JobTracker获取分片信息:JobTracker获取每个分片的位置、边界等信息

      (7)TaskerTracker获取任务:TaskTracker通过心跳机制从JobTracker获取任务信息(任务ID、数据位置)

      (8)TaskerTracker获取数据:TaskerTracker从HDFS中读取数据,并复制到自己的机器上

      (9)TaskerTracker运行任务:TaskerTracker启动子JVM运行任务

      (10)具体的Map或Reduce执行:在子JVM中,Map或者Reduce任务进行执行。

          执行完后,通知TaskTracker,TaskTracker再通知给JobTracker,再通知给客户端

      备注:

      (1)Job:作业,通常整个要处理的工作内容称为作业,一个Job包含多个Task

      (2)Task:任务,一个作业划分为多个任务进行处理

      (3)心跳机制:TaskTracker会以一定的频率向JobTracker进行信息反馈,报告当前所处的状态等等。

    四、后续内容

      1、Hadoop伪分布式环境搭建

      2、MapReduce简单应用程序(Java/Python)和相关Hadoop命令

      3、Hadoop生态圈简单介绍

  • 相关阅读:
    webstorm配置less解析的方法
    C#面试题(String和StringBuilder区别)
    Winform控件输入的字母转换成大写
    C#之实参和形参
    我学React Native开发的经历(一) 第一周学习,环境搭建及demo1,一个导航跳转页面
    三、CSS样式——背景
    二、CSS选择器
    一、CSS介绍
    九、非主体机构元素——header元素、footer元素、address元素、网页编排
    八(第三篇)、主体结构元素——time元素、pubdate属性
  • 原文地址:https://www.cnblogs.com/naonaoling/p/5265057.html
Copyright © 2020-2023  润新知