• Hadoop 系列


    起源:Hadoop是google 的集群系统的开源实现
               --Google集群系统,:GFS(Google file system),MapReduce,BigTable(严格意义上讲,这个不是hadoop的东西)
                --Hadoop 主要由 HDFS(Hadoop Distributed file system ---hadoop文件分布式系统)MapReduce和HBase组成 
    两大核心:
                MapReduce : 组成  Map进行任务的分解,Reduce进行结果的汇总
                HDFS :组成  NameNode    ,DataNode    ,Client    
     
    HTFS讲解:
                通常的,我们习惯使用的就是关系型数据库,比如mysql    , sql server , oracle等等,但是这些数据库都是有局限性的,
    数据量过大时候,也需要更换,总不能一直更换吧?所以,这就延伸出了,hadoop(当然,这个东西的起源也就是因为这个,当时是用作
    数据采集的,但是发现数据量过大,以至于无法处理,所以 hadoop这东西就出来了,也是被 挤出来的一个东西)
                大数据:所谓的大数据,简单的可以这么理解为,数据集的大小超过了数据库软件和现有工具的处理 的范围了,所以,很多人整天喊着
    大数据大数据,到底多大的数据才是大数据?(这里有点儿讽刺的意味),每次一说出来总被吓一跳,让人觉得很厉害的样子。
                    Hadoop大数据 与 传统关系型数据库的 对比: 
                    对比一
     
    关系型数据(库)
     大数据:
     数据量方面:
    GB  TB及其以下级别数据量
    基本是TB  PB级别的数据
    数据增长方面:
     数据增长不快   
    持续、实时不定量增长数据
     结构:
    主要是关系型,有具体的数据结构
    非结构化,半结构化,多维数据
    存在的实际价值:
     统计和报表 
    数据挖掘和数据分析
                    对比二:硬件(环境方面)
                        比较直观的理解就是,关系型数据库往往就单台服务器,所以不论从扩展性或者是 性能方面 都多少存在问题,可能有人说,微软有数据库错误集群
    功能啊,这个是不假,但是那不是真正意义上的集群方式。扩展性更不用说了,就一个服务器,而且数据库只能指定具体的数据类型才可以
     
         Hadoop项目(子集):
                Core:    core是一套分布式文件系统,同时支持Map_Reduce的计算框架
                Avro:    定义了支持大数据应用的数据格式,虽然是JAVA编写的,但是提供了对多种语言的支持
                HDFS:Hadoop分布式文件系统
                Map/Reduce :    是一种使用比较简易的框架,可在多个机器集群上,以一种可靠的容错方式处理 TB级别的数据集
                ZooKeeper:    高可用的 可靠的分布式协同系统
      PIG: (目前使用的越来越少) 
      Hive:   为提供简单的数据操作设计的 新的 分布式数据仓库。它提供了HiveSQL语言,类似于sql语句一样进行数据查询
      HBase: 建立在Hadoop Core之上的提供一个可扩展的 数据系统
      Flume: 一个分布式、可靠、高可用的海量日志集合的系统,支持在系统中定制各类数据发送方,用于数据收集
      Mahout: 是一种具有可扩充能力的机器学习类
      Sqoop: 是Apache 下用于RDBMS 和HDFS互相导数据的工具
    (以上只有绿色部分的内容才是 hadoop的本身的内容,其他的东西做扩展使用)
    Hadoop获取
               http://hadoop.apache.org
    当然,可以看到很多版本的 hadoop的文件,这里先使用  1.2.X 的版本,先从基础开始嘛,然后后面再使用  2.X 的版本
    1.2.X的版本获取链接 https://archive.apache.org/dist/hadoop/common/hadoop-1.2.1/ 选择使用  .tar的  文件包,因为里面文件比较全,
    包含相关文档等
    HTFS介绍
         htfs做到了可靠性的创建了多份数据块儿(data blocks),的复制(replicas),并将它们放在服务器群的计算节点当中(ompute nodes),
    MapReduce就可以在他们所在的及诶点上处理数据了
    HTFS结构:
    NameNode
    DataNodes
    存储元数据(文件的大小,权限、版本等等)
    存储文件内容
    缘数据保存在内存中(当然磁盘中也有,只是他是先加载到物理磁盘,运行时在读取到内存)
    文件系统保存在磁盘中
    保存文件,block,datanode之间的映射关系
    维护了blockid到datanode的本地文件的映射关系
    namenode 和 datanode的节点的关系,注意看,我上面写的,datanodes我写的是复数形式,这里是因为
    是一对多的关系,一个namenode的对应多一个datanode
    HTFS的运行机制:
    HTFS数据存储单元(Block - 存放到 datanode上):
        ① 文件被分割成固定大小的数据块,同时分布在多个 数据存储单元中(作为副本),副本越多就会减少丢失率,默认情况下,每个block
        ② 默认都会有三个副本文件,要存放在 集群服务器中的不同机器硬盘上
        ③ block 工作单元被创建之后,大小固定是多大就是多大,不能在更改size,但是副本的个数,可以更改;
        ④ 如果集群中,摸一个block的节点挂掉了,这是,会自动创建一个新的副本block,将之前的数据,从另外的正常运行的block中拷贝文件过去
    HTFS的 NameNode:
        a) 功能是,接受客户端的读写服务
        b) 保存的的metadata信息包括:① 文件owership 和 permissions  ; ② 文件包含哪些模块  ; ③ Block保存在哪个 DataNode(由 dataNode启动时 上报给 nameNode,由namenode加载到内存)
        c) metadata存储到磁盘上的文件名称为 fsimage,
        d) Block的位置不会保存到 fsimage
        e) edits 记录时,metadata的操作日志
    HTFS 的读流程:(图片来自互联网)
        
            client先open从namenode中获取文件的名称 ,上面有说过,数据的存储是存储在 datanodes中的,而namenode中存储的是 元数据,也就是数据的相关信息;
    然后客户端根据获取的文件名称,从datanodes中读取数据。
    HTFS 文件权限:
         与LINUX文件权限类似
         --- r:read ; w:write;  x:execute ,权限 x 对于文件忽略,对文件夹表示 是否允许访问其他内容
         --- 如果LINUX 系统用户 张三 使用hadoop 创建一个文件,那么这个文件在HDFS中owner就是 张三
         --- HDFS 的权限目的:不做密码的认证,说白了,你使用的用户名,这个用户就拥有所有权限
    Hadoop 的安全模式:
          注:该状态下,不能够对HDFS 进行操作,比如读写操作,你只能看着,这个过程可以理解就是,datanode数据加载过程中到 向namenode汇报的过程,这个阶段需要时间,这个时间段就是 安全的模式,当然可以强制终止,但是强制的结果就是,导致数据的丢失。所以不建议。
          namenode启动的时候,将fsimage的映像文件加载到内存,
  • 相关阅读:
    NeuChar 平台使用及开发教程(六):成为开发者
    NeuChar 平台使用及开发教程(五):使用 NeuChar 的关键字回复服务
    NeuChar 平台使用及开发教程(四):使用 NeuChar 的素材服务
    NeuChar 平台使用及开发教程(三):使用 NeuChar 的菜单服务
    NeuChar 平台使用及开发教程(二):设置平台账号
    NeuChar 平台使用及开发教程(一):开始使用 NeuChar
    Senparc.Weixin.TenPay 正式发布
    ubuntu 16.04 安装teamviewer
    如何学会快速调用API
    markdown的使用
  • 原文地址:https://www.cnblogs.com/Tmc-Blog/p/5433300.html
Copyright © 2020-2023  润新知