• HDFS学习之路一


    HDFS介绍

      产生原因: 单机存储无法存储大量数据,需要跨机器存储,统一管理分布在集群上的文件系统。

      概念:  HDFS是一个分布式文件系统 , Apache Hadoop项目的一个子项目,Hadoop非常适合存储大型数据。(T级)

    应用场景:

    • 存储非常大的文件(大量小文件不适合存储),需要高吞吐量 , 对延时没有要求

    • 采用流式的数据访问方式 : 一次写入 , 多次读取 , 数据集经常从数据源生成或者拷贝一次 .

    • 运行于商业硬件上

    • 需要高容错性

    • 为数据存储提供所需的扩展能力

    • 不支持多个写入器,不支持文件任意的offset修改

    HDFS架构:

      主从架构 , HDFS Client , NameNode , DataNode , Secondray NameNode 四个部分组成

    -客户端: 

    • 文件切分,文件上传HDFS的时候, Client将文件切分成一个个Block, 然后进行存储

    • 与NameNode交互, 获取文件的位置信息

    • 与DataNode交互, 读取或者写入数据

    • Client提供一些命令来管理和访问HDFS,比如启动或者关闭HDFS

    -NameNode:  就是master , 它是一个主管, 管理者

    • 管理HDFS的名称空间

    • 管理数据库映射信息

    • 配置副本策略

    • 处理客户端读写请求

    • 监控Datanode的存活状态

    -Datanode:  就是Slave , NameNode下达命令, DataNode执行具体操作

    • 存储实际的数据块

    • 执行数据块的读/写操作

    • 心跳机制,反馈给namenode ( 心跳信息 , 数据块信息 , 存数据块信息 )

    -SecondaryNameNode : 并非NameNode热备, 当NameNode挂掉时,它并不能马上替换NameNode并提供服务

    • 辅助NameNode并分担其工作量

    • 定期合并fsimage和fsedits,并推送给NameNode

    副本机制:

      所有的文件都是以block块的方式放在HDFS文件系统中: 

        块大小(Hadoop1.x默认是64M ,  Hadoop2.x默认的是128M .

        与磁盘读写速度的提升以及数据量的大幅度增长有关,可以自定义设置)

    • 一个文件又可能大于集群中的任意一个磁盘,引入块机制可以解决这个问题

    • 使用块作为文件存储的逻辑单位可以简化存储子系统

    • 块非常适合用于数据备份进而提供数据容错能力

    <!--在Hadoop1当中,文件的block默认64M,Hadoop2中,默认128M,block块的大小在 hdfs-site.xml当中设定-->
    <property>
        <name>dfs.block.size</name>
        <value>块大小 以字节为单位</value>
    </property>

    HDFS的命令行操作: 

    start-all.sh #启动所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager
    stop-all.sh #停止所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager
    
    #格式: hdfs dfs -ls URI
    #作用: 类似于Linux的ls 命令,显示文件列表
    hdfs dfs -ls /
    
    #格式  :  hdfs dfs -lsr URI
    #作用  :  在整个目录下递归执行ls,与UNIX的 ls -R类似
    # hdfs dfs -lsr /  过时了
    hdfs dfs -ls -R /
    
    #格式 : hdfs dfs [-p] -mkdir <paths>
    #作用 : 以<paths>中的URI作为参数,创建目录,使用-p参数可以递归创建目录
    
    #格式 : hdfs dfs -put <localsrc> ... <dst>
    #作用 : 将单个源文件src或者多个源文件srcs从本地文件系统拷贝到目标文件系统中(<dst> 对应的路径)也可以从标准输入中读取输入,写入目标文件系统中
    hdfs dfs -put /root/a.txt /dir1
    
    #格式 : hdfs dfs -moveFromLocal <localsrc> <dst>
    #作用 : 和put命令类似,但是源文件localsrc拷贝之后自身被删除
    hdfs dfs -moveFromLocal /root/a.txt /
    
    #格式 hdfs dfs -get [-ignorecrc ] [-crc] <src> <localdst>
    #作用:将文件拷贝到本地系统. CRC校验失败的文件通过-ignorecrc选项拷贝. 文件和CRC校验和可以通过-CRC选项拷贝
    hdfs dfs -get /install.ini /export/servers
    
    #格式 : hdfs dfs -mv URI <dest>
    #作用 : 将hdfs上的文件从原路径移动到目标路径(移动文件后删除),该命令不能夸文件系统
    hdfs dfs -mv /dir1/a.txt /dir2
    
    
    #格式 : hdfs dfs -rm [-r] [-skipTrash] URI [URI...]
    #作用 : 删除参数指定的文件,参数可以有多个.此命令只删除文件和非空目录
    # -r 参数指定删除文件类型 
    #如果指定-skipTrash选项,那么在回收站可用的情况下,该选项直接跳过回收站直接删除文件;
    #否则,在回收站可用时,在HDFS Shell 中执行此命令,会将文件暂时放到回收站中
    hdfs dfs -rm -r /dir1
    
    #格式 : hdfs dfs -cp URI [URI ...] <dest>
    #作用 : 将文件拷贝到目标文件中,如果<dest>为目录的话,可以将多个文件夹拷贝到该目录下
    -f  #选项将覆盖目标,如果它已经存在
    -p  #选项将保留文件属性(时间戳、所有权、许可、ACL、XAttr)
    hdfs dfs -cp /dir1/a.txt /dir2/b.txt
    
    hdfs dfs -cat URI[uri ...]
    #作用 : 将参数所指示的文件内容输出到stdout
    hdfs dfs -cat /install.log
    
    #格式  hdfs dfs -chmod [-R] URI[URI ...]
    #作用  改变文件的权限,使用这一命令的用户必须是文件的所属用户,或者超级用户
    #如果使用-R选项,则对整个目录有效递归执行。
    hdfs dfs -chmod -R 777 /install.log
    
    #格式  hdfs dfs -chmod [-R] URI[uri ...]
    #作用  改变文件的所属用户和用户组,使用这一命令的用户必须是文件的所属用户,或者超级用户
    # 如果使用 -R 选项,则对整个目录有效递归执行
    hdfs dfs -chown -R hadoop:hadoop /install.log
    
    #格式: hdfs dfs -appendToFile <localsrc>...<dst>
    #作用: 追加一个或者多个文件到hdfs文件中,也可以从命令行中读取输入
    #方便 小文件的合并,减少元数据过多的压力
    hdfs dfs -appendToFile a.xml b.xml /big.xml
    
    # 查看配额信息
    hdfs dfs -count -q -h /user/root/dir1
    
    #创建hdfs文件夹
    hdfs dfs -mkdir -p /user/root/dir
    #给文件夹下面设置最多上传两个文件,发现只能上传一个文件,n个目录 只能上传n-1个,因为该目录本身也是一个文件
    hdfs dfs -setQuota 2 dir
    #清除文件数量限制
    hdfs dfsadmin -clrQuota /user/root/dir
    
    #在设置空间配额时,设置的空间大小至少是block_size*3大小
    hdfs dfsadmin -setSpaceQuata 4k /user/root/dir   #限制大小为4k
    hdfs dfs -put /root/a.txt /user/root/dir
    #生成任意大小文件的命令:
    dd if=/dev/zero of=1.txt bs=1M count=2 #生成2M的文件
    #清除空间限额配置
    hdfs dfsadmin -clrSpaceQuota /user/root/dir
    
    #安全模式操作命令
    hdfs dfsadmin -safemode get #查看安全模式状态
    hdfs dfsadmin -safemode enter #进入安全模式
    hdfs dfsadmin -safemode leave #关闭安全模式
    #检查副本率,保证文件系统的安全以及完整性
    
    #写入测试报告,写入一个jar包,一共十个,每个十兆
    hadoop jar /export/servers/hadoop-2.7.6/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.7.6.jar TestDFSIO -write -nrFiles 10 -fileSize 10MB
    #完成之后查看写入速度结果
    hdfs dfs -text /benchmarks/TestDFSIO/io_write/part-00000
    
    #读取测试报告,读取一个jar包,一共十个,每个十兆
    hadoop jar /export/servers/hadoop-2.7.6/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.7.6.jar TestDFSIO -read -nrFiles 10 -fileSize 10MB
    
    #清除测试数据
    hadoop jar /export/servers/hadoop-2.7.6/share/hadoop/mapreduce/hadoop-mapreduce-client-jobclient-2.7.6.jar TestDFSIO -clean
  • 相关阅读:
    自定义控件省市区:仿苹果级联菜单
    【数据存储】SQLite数据库存储(10) 操作通讯记录的ContentProvider
    js跨域的理解与实现
    HTML5学习笔记
    [置顶] 高效前端优化工具Fiddler入门教程
    iis7.0 cpu 限制
    centos下安装apache + subversion(转)
    PHP页面控制访问
    [置顶] 高性能建站之前端优化篇
    [置顶] 构架高性能WEB网站的几点知识
  • 原文地址:https://www.cnblogs.com/joey-413/p/13958233.html
Copyright © 2020-2023  润新知