• HDFS使用


    1  HDFS概述
    HDFS是Hadoop应用用到的一个最主要的分布式存储系统。一个HDFS集群主要由一个NameNode和很多个Datanode组成:Namenode管理文件系统的元数据,而Datanode存储 了实际的数据。本文档主要关注用户以及管理员怎样和HDFS进行交互。基本上,客户端联系Namenode以获取文件的元数据或修饰属性,而真正的文件I/O操作是直接和Datanode进行交互的。本文档从介绍如何安装和搭建HDFS集群入手,接着常用的文件系统命令,以及维护过程中涉及到的控制命令。
    2          HDFS集群部署
    2.1        安装
    1)       用户从hadoop官 方网站下载所需版本的安装文件,下载地址为:http://hadoop.apache.org/core/releases.html#Download; 本文档选取的版本为hadoop-0.19.1;
    2)       将下载的压缩文件解压,目录为./hadoop-0.19.1,按照附录《hdfs 测试组网方案》中系统参数配置部分,修改./hadoop-0.19.1/conf中的文件;
    3)       检查所有服务器上是否安装了J2sdk,要求版本为1.5及以 上;并建立安装目录到/usr/local/j2sdk的软 链接;
    4)       将hadoop目 录上传到所有的服务器,放置在${HADOOP_HOME}目录 下;
    5)       挂载namenode和secondary namenode的fsimage,editslogs备份 目录;
    2.2        启动
    1)       进入namenode的${HADOOP_HOME};
    2)       格式化namenode文 件系统,执行命令:bin/hadoop namenode –format;
    3)       启动hdfs, 执行命令:bin/start-dfs.sh。该 脚本首先启动namenode,然 后读取./conf/slaves中的datanode列表,逐个启动;最后读取./conf/masters中secondary namenode地址,启动secondary namenode。
    启动datanode和secondary namenode时, 脚本通过ssh从当前机器登录到其他节点的,涉及到身份验 证,需要输入相应的密码信息,比较繁琐。可参考ssh中免 密码登录解决方法。
    3          FS Shell使用指南
    调用文件系统(FS)Shell命令 应使用 bin/hadoop fs <args>的形 式。 所有 的的FS shell命令 使用URI路径 作为参数。URI格式 是scheme://authority/path。对HDFS文件系统,scheme是hdfs, 对本地文件系统,scheme是file。 其中scheme和authority参数 都是可选的,如果未加指定,就会使用配置中指定的默认scheme。 一个HDFS文件 或目录比如/parent/child可以表示成hdfs://namenode:namenodeport/parent/child, 或者更简单的/parent/child(假 设你配置文件中的默认值是namenode:namenodeport)。 大多数FS Shell命令 的行为和对应的Unix Shell命 令类似,不同之处会在下面介绍各命令使用详情时指出。出错信息会输出到stderr,其他信息输出到stdout。

    3.1        cat
    使用方法:hadoop fs -cat URI [URI …]
    将路 径指定文件的内容输出到stdout。
    示 例:
             hadoop fs -cat hdfs://host1ort1/file1 hdfs://host2ort2/file2
             hadoop fs -cat file:///file3 /user/hadoop/file4
    返回 值:
    成 功返回0, 失败返回-1。
    3.2        chgrp
    使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …] Change group association of files. With -R, make the change recursively through the directory structure. The user must be the owner of files, or else a super-user. Additional information is in the Permissions User Guide.改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用户指南。
    3.3        chmod
    使用方法:hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI …]
    改变 文件的权限。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超 级用户。更多的信息请参见HDFS权 限用户指南。
    3.4        chown
    使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
    改变 文件的拥有者。使用-R将使改变在目录结构下递归进行。命令的使用 者必须是超级用户。更多的信息请参见HDFS权限用户指南。
    3.5        copyFromLocal
    使用方法:hadoop fs -copyFromLocal <localsrc> URI
    除了限定源路径是一个本地文件外, 和put命令相似。
    3.6        copyToLocal
    使用方法:hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
    除了 限定目标路径是一个本地文件外,和get命令类似。
    3.7        cp
    使用方法:hadoop fs -cp URI [URI …] <dest>
    将文 件从源路径复制到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。
    示 例:
             hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
             hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
    返回 值:
    成功返回0, 失败返回-1。
    3.8        du
    使用方法:hadoop fs -du URI [URI …]
    显示 目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。示例:
    hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://hostort/user/hadoop/dir1 
    返回 值:
    成功返回0, 失败返回-1。 
    3.9        dus
    使用方法:hadoop fs -dus <args>
    显示 文件的大小。
    3.10    expunge
    使用方法:hadoop fs -expunge
    清空 回收站。请参考HDFS设计文 档以获取更多关于回收站特性的信息。
    3.11    get
    使用方法:hadoop fs -get [-ignorecrc] [-crc] <src> <localdst> 
    复制 文件到本地文件系统。可用-ignorecrc选项复制CRC校验失败的文件。使用-crc选项复制文件以及CRC信息。
    示 例:
             hadoop fs -get /user/hadoop/file localfile
             hadoop fs -get hdfs://hostort/user/hadoop/file localfile
    返回 值:
    成功返回0, 失败返回-1。
    3.12    getmerge
    使用方法:hadoop fs -getmerge <src> <localdst> [addnl]
    接受 一个源目录和一个目标文件作为输入,并且将源目录中所有的文件连接成本地目标文件。addnl是 可选的,用于指定在每个文件结尾添加一个换行符。
    3.13    ls
    使用方法:hadoop fs -ls <args>
    如果 是文件,则按照如下格式返回文件信息:
    文件名 <副 本数> 文 件大小 修改日期 修 改时间 权限 用 户ID 组ID 
    如果 是目录,则返回它直接子文件的一个列表,就像在Unix中一 样。目录返回列表的信息如下:
    目录名 <dir> 修改日期 修 改时间 权限 用 户ID 组ID 
    示 例:
    hadoop fs -ls /user/hadoop/file1 /user/hadoop/file2 hdfs://hostort/user/hadoop/dir1 /nonexistentfile 
    返回 值:
    成功返回0, 失败返回-1。 
    3.14    lsr
    使用方法:hadoop fs -lsr <args> 
    ls命令的递归版本。类似于Unix中的ls -R。
    3.15    mkdir
    使用方法:hadoop fs -mkdir <paths> 
    接受 路径指定的uri作为参数,创建这些目录。其行为类似于Unix的mkdir -p,它 会创建路径中的各级父目录。
    示 例:
             hadoop fs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
             hadoop fs -mkdir hdfs://host1ort1/user/hadoop/dir hdfs://host2ort2/user/hadoop/dir
    返回 值:
    成功返回0, 失败返回-1。
    3.16    movefromLocal
    使用方法:dfs -moveFromLocal <src> <dst>
    输出 一个”not implemented“信 息。
    3.17    mv
    使用方法:hadoop fs -mv URI [URI …] <dest>
    将文 件从源路径移动到目标路径。这个命令允许有多个源路径,此时目标路径必须是一个目录。不允许在不同的文件系统间移动文件。不支持文件夹重命令。
    示 例:
             hadoop fs -mv /user/hadoop/file1 /user/hadoop/file2
             hadoop fs -mv hdfs://hostort/file1 hdfs://hostort/file2 hdfs://hostort/file3 hdfs://host:port/dir1
    返回 值:
    成功返回0, 失败返回-1。
    3.18    put
    使用方法:hadoop fs -put <localsrc> ... <dst>
    从本 地文件系统中复制单个或多个源路径到目标文件系统。也支持从标准输入中读取输入写入目标文件系统。
             hadoop fs -put localfile /user/hadoop/hadoopfile
             hadoop fs -put localfile1 localfile2 /user/hadoop/hadoopdir
             hadoop fs -put localfile hdfs://host:port/hadoop/hadoopfile
             hadoop fs -put - hdfs://host:port/hadoop/hadoopfile 
    从 标准输入中读取输入。
    返回 值:
    成功返回0, 失败返回-1。
    3.19    rm
    使用方法:hadoop fs -rm URI [URI …]
    删除 指定的文件。只删除非空目录和文件。请参考rmr命令 了解递归删除。
    示 例:
             hadoop fs -rm hdfs://host:port/file /user/hadoop/emptydir
    返回 值:
    成功返回0, 失败返回-1。
    3.20    rmr
    使用方法:hadoop fs -rmr URI [URI …]
    delete的递归版本。
    示 例:
             hadoop fs -rmr /user/hadoop/dir
             hadoop fs -rmr hdfs://host:port/user/hadoop/dir
    返回 值:
    成功返回0, 失败返回-1。
    3.21    setrep
    使用方法:hadoop fs -setrep [-R] <path>
    改变 一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。
    示 例:
             hadoop fs -setrep -w 3 -R /user/hadoop/dir1
    返回 值:
    成功返回0, 失败返回-1。
    3.22    stat
    使用方法:hadoop fs -stat URI [URI …]
    返回 指定路径的统计信息。
    示 例:
             hadoop fs -stat path
    返回 值:
    成功返回0, 失败返回-1。
    3.23    tail
    使用方法:hadoop fs -tail [-f] URI
    将文 件尾部1K字节的内容输出到stdout。支持-f选 项,行为和Unix中一致。
    示 例:
             hadoop fs -tail pathname
    返回 值:
    成 功返回0, 失败返回-1。
    3.24    test
    使用方法:hadoop fs -test -[ezd] URI
    选 项:
    -e 检查文件是否存在。如果存在则返回0。
    -z 检查文件是否是0字 节。如果是则返回0。
    -d 如果路径是个目录,则返回1,否则返回0。
    示 例:
             hadoop fs -test -e filename
    3.25    text
    使用方法:hadoop fs -text <src> 
    将源 文件输出为文本格式。允许的格式是zip和TextRecordInputStream。
    3.26    touchz
    使用方法:hadoop fs -touchz URI [URI …] 
    创建 一个0字节的空文件。
    示 例:
             hadoop -touchz pathname
    返回 值:
    成 功返回0, 失败返回-1。


    4         命 令手册
    4.1        概述
    所有 的hadoop命令均由bin/hadoop脚本引发。不指定参数运行hadoop脚本会打印所有命令的描述。
    用法:hadoop [--config confdir] [COMMAND] [GENERIC_OPTIONS] [COMMAND_OPTIONS]
    Hadoop有一个选项解析框架用于解析一般的选项和运行类。
    命令选项        描述
    --config confdir        覆盖缺省配置目录。缺省是${HADOOP_HOME}/conf。
    GENERIC_OPTIONS        多个命令都支持的通用选项。
    COMMAND 
    命令选项S        各种各样的命令和它们的选项会在下面提到。这些命令被分为 用户命令 管理命令两组。

    4.1.1   常规选项
    下面 的选项被 dfsadmin, fs, fsck和 job支 持。 应用程序要实现 Tool来支 持 常规选项。
    GENERIC_OPTION        描述
    -conf <configuration file>        指定应用程序的配置文件。
    -D <property=value>        为指定property指定值value。
    -fs <local|namenode:port>        指定namenode。
    -jt <local|jobtracker:port>        指定job tracker。只适用于job。

    -files <逗号分隔的文件列表>        指定要拷贝到map reduce集群的文件的逗号分隔的列表。 只适用于job。

    -libjars <逗号分隔的jar列表>        指定要包含到classpath中的jar文件的逗号分隔的列表。 只适用于job。

    -archives <逗号分隔的archive列表>        指定要被解压到计算节点上的档案文件的逗号分割的列表。 只适用于job。


    4.2        用户命令
    hadoop集群用户的常用命令。
    4.2.1   archive
    创 建一个hadoop档案文件。参考 Hadoop Archives.
    用法:hadoop archive -archiveName NAME <src>* <dest>
    命令选项        描述
    -archiveName NAME        要创建的档案的名字。
    src        文件系统的路径名,和通常含正则表达的一样。
    dest        保存档案文件的目标目录。
    4.2.2   distcp
    递归地拷贝文件或目录。参考DistCp指南以获取等多信息。
    用法:hadoop distcp <srcurl> <desturl>
    命令选项        描述
    srcurl        源Url
    desturl        目标Url
    4.2.3   fs
    用法:hadoop fs [GENERIC_OPTIONS] [COMMAND_OPTIONS]
    运行一个常规的文件系统客户 端。
    各种命令选项可以参考HDFS Shell指南。
    4.2.4   fsck
    运行HDFS文件系统检查工具。参考Fsck了解更多。
    用法:hadoop fsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]
    命令选项        描述
    <path>        检查的起始目录。
    -move        移动受损文件到/lost+found
    -delete        删除受损文件。
    -openforwrite        打印出写打开的文件。
    -files        打印出正被检查的文件。
    -blocks        打印出块信息报告。
    -locations        打印出每个块的位置信息。
    -racks        打印出data-node的网络拓扑结构。
    4.2.5   jar
    运行jar文件。用户可以把他们的Map Reduce代码捆绑到jar文件中,使用这个命令执行。
    用法:hadoop jar <jar> [mainClass] args...
    streaming作业是通过这个命令执行的。参考Streaming examples中的例子。
    Word count例子也是通过jar命令运行的。参考Wordcount example。
    4.2.6   job
    用于和Map Reduce作业交互和命令。
    用法:hadoop job [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>] | [-counter <job-id> <group-name> <counter-name>] | [-kill <job-id>] | [-events <job-id> <from-event-#> <#-of-events>] | [-history [all] <jobOutputDir>] | [-list [all]] | [-kill-task <task-id>] | [-fail-task <task-id>]
    命令选项        描述
    -submit <job-file>        提交作业
    -status <job-id>        打印map和reduce完成百分比和所有计数器。
    -counter <job-id> <group-name> <counter-name>        打印计数器的值。
    -kill <job-id>        杀死指定作业。
    -events <job-id> <from-event-#> <#-of-events>        打印给定范围内jobtracker接收到的事件细节。
    -history [all] <jobOutputDir>        -history <jobOutputDir> 打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细 节比如成功的任务,做过的任务尝试等信息可以通过指定[all]选项查看。
    -list [all]        -list all显示所有作业。-list只显示将要完成的作业。
    -kill-task <task-id>        杀死任务。被杀死的任务不会不利于失败尝试。
    -fail-task <task-id>        使任务失败。被失败的任务会对失败尝试不利。
    4.2.7   pipes
    运行pipes作业。
    用法:hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>, ...] [-input <path>] [-output <path>] [-jar <jar file>] [-inputformat <class>] [-map <class>] [-partitioner <class>] [-reduce <class>] [-writer <class>] [-program <executable>] [-reduces <num>]
    命令选项        描述
    -conf <path>        作业的配置
    -jobconf <key=value>, <key=value>, ...        增加/覆 盖作业的配置项
    -input <path>        输入目录
    -output <path>        输出目录
    -jar <jar file>        Jar文件名
    -inputformat <class>        InputFormat类
    -map <class>        Java Map类
    -partitioner <class>        Java Partitioner
    -reduce <class>        Java Reduce类
    -writer <class>        Java RecordWriter
    -program <executable>        可执行程序的URI
    -reduces <num>        reduce个数
    4.2.8   version
    打印版本信息。
    用法:hadoop version
    4.2.9   CLASSNAME
    hadoop脚本可 用于调调用任何类。
    用法:hadoop CLASSNAME
    运行名字为CLASSNAME的类。

    4.3        管理命令
    hadoop集群管 理员常用的命令。
    4.3.1   balancer
    运行集群平衡工具。管理员可以 简单的按Ctrl-C来停止平衡过程。参考Rebalancer了解更多。
    用法:hadoop balancer [-threshold <threshold>]
    命令选项        描述
    -threshold <threshold>        磁盘容量的百分比。这会覆盖缺省的阀值。
    4.3.2   daemonlog
    获 取或设置每个守护进程的日志级别。
    用 法:hadoop daemonlog -getlevel <host:port> <name> 
    用 法:hadoop daemonlog -setlevel <host:port> <name> <level>
    命令选项        描述
    -getlevel <host:port> <name>        打印运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>
    -setlevel <host:port> <name> <level>        设置运行在<host:port>的守护进程的日志级别。这个命令内部会连接http://<host:port>/logLevel?log=<name>
    4.3.3   datanode
    运 行一个HDFS的datanode。
    用法:hadoop datanode [-rollback]
    命令选项        描述
    -rollback        将datanode回滚到前一个版本。这需要在停止datanode,分发老的hadoop版本之后使用。
    4.3.4   dfsadmin
    运 行一个HDFS的dfsadmin客户端。
    用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force] [-metasave filename] [-setQuota <quota> <dirname>...<dirname>] [-clrQuota <dirname>...<dirname>] [-help [cmd]]
    命令选项        描述
    -report        报告文件系统的基本信息和统计信息。
    -safemode enter | leave | get | wait        安全模式维护命令。安全模式是Namenode的一个状态,这种状态下,Namenode 
    1. 不接受对名字空间的更改(只读)
    2. 不复制或删除块
    Namenode会在启动时自动进入安全模式,当配置的块最小百分比数满足最小的副本数条件时,会自动离开安全模式。安全模式可以手 动进入,但是这样的话也必须手动关闭安全模式。
    -refreshNodes        重新读取hosts和exclude文件,更新允许连到Namenode的或那些需要退出或入编的Datanode的集合。
    -finalizeUpgrade        终结HDFS的升级操作。Datanode删除前一个版本的工作目录,之后Namenode也这样做。这个操作完结整个升级过程。
    -upgradeProgress status | details | force        请求当前系统的升级状态,状态的细节,或者强制升级操作进行。
    -metasave filename        保存Namenode的主要数据结构到hadoop.log.dir属性指定的目录下的<filename>文件。对于下面的每一项,<filename>中都会一行内容与之对应
    1. Namenode收到的Datanode的心跳信号
    2. 等待被复制的块
    3. 正在被复制的块
    4. 等待被删除的块
    -setQuota <quota> <dirname>...<dirname>        为每个目录 <dirname>设定配额<quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。
    命令会在这个目录上工作良好,以下情况会报错:
    1. N不是一个正整数,或者
    2. 用户不是管理员,或者
    3. 这个目录不存在或是文件,或者
    4. 目录会马上超出新设定的配额。
    -clrQuota <dirname>...<dirname>        为每一个目录<dirname>清除配额设定。
    命令会在这个目录上工作良好,以下情况会报错:
    1. 这个目录不存在或是文件,或者
    2. 用户不是管理员。
    如果目录原来没有配额不会报错。
    -help [cmd]        显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮 助信息。
    4.3.5   jobtracker
    运 行MapReduce job Tracker节点。
    用法:hadoop jobtracker
    4.3.6   namenode
    运 行namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。
    用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] | [-importCheckpoint]
    命令选项        描述
    -format        格式化namenode。它启动namenode,格式化namenode,之后关闭namenode。
    -upgrade        分发新版本的hadoop后,namenode应以upgrade选项启动。
    -rollback        将namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoop版 本后使用。
    -finalize        finalize会删除文件系统的前一状态。最近的 升级会被持久化,rollback选项将再不可用,升级终结操作之后,它会停掉namenode。
    -importCheckpoint        从检查点目录装载镜像并保存到当前 检查点目录,检查点目录由fs.checkpoint.dir指定。
    4.3.7   secondarynamenode
    运 行HDFS的secondary namenode。 参考Secondary Namenode了 解更多。
    用法:hadoop secondarynamenode [-checkpoint [force]] | [-geteditsize]
    命令选项        描述
    -checkpoint [force]        如果EditLog的大小 >= fs.checkpoint.size,启动Secondary namenode的 检查点过程。 如果使用了-force,将不考虑EditLog的 大小。
    -geteditsize        打印EditLog大小。
    4.3.8   tasktracker
    运行MapReduce的task Tracker节点。
    用法:hadoop tasktracker

  • 相关阅读:
    bzoj4196: [Noi2015]软件包管理器
    bzoj3992: [SDOI2015]序列统计
    bzoj 4178: A
    Spoj 8372 Triple Sums
    hdu contest day1 1007 Tricks Device
    hdu contest day1 1002 Assignment
    2018暑期生活指导第三周
    2018暑期生活指导第二周
    《大道至简》阅读笔记
    2018暑期生活指导第一周
  • 原文地址:https://www.cnblogs.com/scwanglijun/p/3778890.html
Copyright © 2020-2023  润新知