• 二、HDFS学习


    Hadoop Distributed File System 简称HDFS
    一、HDFS设计目标 
        1、支持海量的数据,硬件错误是常态,因此需要 ,就是备份
        2、一次写多次读
        3、运行在普通的硬件上面
        4、数据块尽量散步到各个节点中
     
    二、HDFS不适合的场景
        1、不适合低延迟的数据,对一个大文件整个文件进行读取,即批量读取而非随机读取
        2、小文件
        3、无法对文件的内容任意修改
     
    三、HDFS架构
        1、一个文件被划分成大小固定的多个文件块,分布的存储在集群中的节点中
     
        一个文件一台电脑直接读取需要花费很多时间,但是多个电脑同时读取就可以看出速度啦。
        2、同一个文件块在不同的节点中有多个副本
        
        如果说第一个节点处的文件1失效不能工作了,那么hadoop根据你的配置去自动需找其他的副本,这些副本的拷贝是在hadoop的配置文件中进行指定的,副本的个数都是可以配置的。
        3、一个集中的地方保存文件的分块信息
        
        集中的地方就叫做namenode用于保存分块的信息,namenode只有一个,首先我们必须从namenode获得分块信息,上面就是namenode中分块的信息。
        
                                    
         上图是datanode的信息,就是讲文件进行分块存储,然后进行并行读取节点信息,相比传统的方式,一般是将硬盘作为一个节点进行存储,而hadoop则是将分布的主机作为节点进行存储。
        4、HDFS体系结构
        
        5、NameNode   
          
            6、DataNode
            
     
    四、总结
        1、Block:一个文件分块,默认为64M
        2、NameNode:保存整个文件的目录信息、文件信息以及文件相应的分块信息,如果namenode支持很多的datanode数据节点信息时,因为读取任意一个文件都需要从namenode中读取信息,那读取namenode就将是文件读取的瓶颈,所以为了避免这个问题的出现,一般将namenode的信息保存到内存中,同时将一些信息持久化到磁盘中,防止读取失败时有备份信息。
        3、DataNode:用于存储Blocks
        4、HDFS的HA策略:NameNode一旦宕机,整个文件系统将无法工作。如果NameNode中的数据丢失,整个文件系统也就丢失了。所以从hadoop2.x开始,HDFS支持NameNode的active-standy模式,就是同时开启多个namenode当active模式工作时,standy模式会同步active所有的信息,当active不能工作时,standy就会转变为active模式来接管namenode。




  • 相关阅读:
    POJ-2955 Brackets(括号匹配问题)
    NYOJ
    石子合并问题
    hdu 4915 括号匹配+巧模拟
    hdu 4920
    hdu 4911 求逆序对数+树状数组
    hdu 4923 单调栈
    hdu 4930 斗地主恶心模拟
    hdu 4927 组合+公式
    hdu 4925 黑白格
  • 原文地址:https://www.cnblogs.com/wang3680/p/3448327.html
Copyright © 2020-2023  润新知