• 【转】Hadoop命令大全


    Hadoop命令大全

    本节比较全面的向大家介绍一下Hadoop命令,欢迎大家一起来学习,希望通过本节的介绍大家能够掌握一些常见Hadoop命令的使用方法。下面是Hadoop命令的详细介绍。

     

    1、列出所有HadoopShell支持的命令

    $bin/hadoopfs-help

     

    2、显示关于某个命令的详细信息

    $bin/hadoopfs-helpcommand-name

     

    3、用户可使用以下命令在指定路径下查看历史日志汇总。这条命令会显示作业的细节信息,失败和终止的任务细节。

    $bin/hadoopjob-historyoutput-dir

     

    4、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看

    $bin/hadoopjob-historyalloutput-dir

     

    5、格式化一个新的分布式文件系统:

    $bin/hadoopnamenode-format

     

    6、在分配的NameNode上,运行下面的Hadoop命令启动HDFS:

    $bin/start-dfs.sh

    bin/start-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动DataNode守护进程。

     

    7、在分配的JobTracker上,运行下面的命令启动Map/Reduce:

    $bin/start-mapred.sh

    bin/start-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上启动TaskTracker守护进程。

     

    8、在分配的NameNode上,执行下面的Hadoop命令停止HDFS:

    $bin/stop-dfs.sh

    bin/stop-dfs.sh脚本会参照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止DataNode守护进程。

     

    9、在分配的JobTracker上,运行下面的命令停止Map/Reduce:

    $bin/stop-mapred.sh

    bin/stop-mapred.sh脚本会参照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在所有列出的slave上停止TaskTracker守护进程。

    DFSShell

     

    10、创建一个名为/foodir的目录

    $bin/hadoopdfs-mkdir/foodir

     

    11、创建一个名为/fodir的目录

    $bin/hadoopdfs-mkdir/fodir

     

    12、查看名为/foodir/myfile.txt的文件内容

    $bin/hadoopdfs-cat/foodir/myfile.txt

    DFSAdmin

     

    13、将集群置于安全模式

    $bin/hadoopdfsadmin-safemodeenter

     

    14、显示Datanode列表

    $bin/hadoopdfsadmin-report

     

    15、使Datanode节点datanodename退役

    $bin/hadoopdfsadmin-decommissiondatanodename

     

    16、bin/hadoopdfsadmin-help命令能列出所有当前支持的命令。比如:

    *-report:报告HDFS的基本统计信息。有些信息也可以在NameNodeWeb服务首页看到。

    *-safemode:虽然通常并不需要,但是管理员的确可以手动让NameNode进入或离开安全模式。

    *-finalizeUpgrade:删除上一次升级时制作的集群备份。

     

    17、显式地将HDFS置于安全模式

    $bin/hadoopdfsadmin-safemode

     

    18、在升级之前,管理员需要用(升级终结操作)Hadoop命令删除存在的备份文件

    $bin/hadoopdfsadmin-finalizeUpgrade

     

    19、能够知道是否需要对一个集群执行升级终结操作。

    $dfsadmin-upgradeProgressstatus

     

    20、使用-upgrade选项运行新的版本

    $bin/start-dfs.sh-upgrade

     

    21、如果需要退回到老版本,就必须停止集群并且部署老版本的Hadoop,用回滚选项启动集群

    $bin/start-dfs.h-rollback

     

    22、下面的新命令或新选项是用于支持配额的。前两个是管理员命令。

    *dfsadmin-setquota<N><directory>...<directory>

    把每个目录配额设为N。这个命令会在每个目录上尝试,如果N不是一个正的长整型数,目录不存在或是文件名,或者目录超过配额,则会产生错误报告。

    *dfsadmin-clrquota<directory>...<director>

    为每个目录删除配额。这个命令会在每个目录上尝试,如果目录不存在或者是文件,则会产生错误报告。如果目录原来没有设置配额不会报错。

    *fs-count-q<directory>...<directory>

    使用-q选项,会报告每个目录设置的配额,以及剩余配额。如果目录没有设置配额,会报告none和inf。

     

    23、创建一个hadoop档案文件

    $hadooparchive-archiveNameNAME<src>*<dest>

    -archiveNameNAME要创建的档案的名字。

    src文件系统的路径名,和通常含正则表达的一样。

    dest保存档案文件的目标目录。

     

    24、递归地拷贝文件或目录

    $hadoopdistcp<srcurl><desturl>

    srcurl源Url

    desturl目标Url。

  • 相关阅读:
    Django进阶之session
    Windows下MySQL下载安装、配置与使用
    Windows下安裝並設置Redis
    mysql root密码忘记
    .net core 持续构建简易教程
    SqlServer简单数据分页
    产品规划之战略规划;
    C#Excel文件加密实现,支持xlsx、docx、pptx(C#NetAsp.Net)
    仿QQ空间根据位置弹出PopupWindow显示更多操作效果
    Windows编译Nginx源码
  • 原文地址:https://www.cnblogs.com/a311300/p/4352021.html
Copyright © 2020-2023  润新知