• Hadoop常用命令


    1、查看Hadoop HDFS支持的所有命令

    hdfs dfs

    2、查看指定目录下内容

    hdfs dfs –ls [文件目录]

    eg:hdfs dfs –ls /user/hive

    3、循环列出目录、子目录及文件信息

    hdfs dfs –lsr [文件目录]

    eg:hdfs dfs –lsr /user/hive

    4、查看某个已存在文件

    hdfs dfs –cat [file_path]

    eg:hdfs dfs -cat /user/hive/data.txt

    5、查看最后1KB的内容

    hdfs dfs –tail [file_path]

    eg:hdfs dfs –tail /user/hive/test.txt

    6、将本地文件存储至hadoop

    hdfs dfs –put [本地地址] [hadoop目录]

    eg:hdfs dfs –put /home/tmp/file.txt /user/tmp

    7、将hadoop上某个文件down至本地已有目录下

    hdfs dfs -get [文件目录] [本地目录]

    eg:hdfs dfs –get /user/tmp/ok.txt /home/tmp

    8、删除hadoop上指定文件

    hdfs dfs –rm [-r] [-f] [文件地址]

    eg:hdfs dfs –rm /user/tmp/ok.txt

    9、删除hadoop上指定文件夹(包含子目录等)

    hdfs dfs –rm [-r] [-f] [目录地址]

    eg:hdfs dfs –rmr /user/tmp

    10、在hadoop指定目录内创建新目录

    hdfs dfs –mkdir [Hadoop目录]

    eg:hdfs dfs –mkdir /user/tmp

    11、在hadoop指定目录下新建一个空文件

    使用touchz命令:

    hdfs dfs –touchz [file_path]

    eg:hdfs dfs -touchz /user/new.txt

    12、将hadoop上某个文件重命名

    使用mv命令:

    hdfs dfs –mv [file_path] [new_file_path]

    eg:hdfs dfs –mv /user/test.txt /user/ok.txt (将test.txt重命名为ok.txt)

    13、将hadoop指定目录下所有内容保存为一个文件,同时down至本地

    hdfs dfs –getmerge [Hadoop目录] [本地目录]

    eg:hdfs dfs –getmerge /user /home/t

    14、将正在运行的hadoop作业kill掉

    hdfs job –kill [job-id]

    15、hdfs dfs –copyFromLocal test.txt /user/sunlightcs/test.txt

    从本地文件系统复制文件到HDFS文件系统,等同于put命令

    16、hdfs dfs –copyToLocal /user/sunlightcs/test.txt test.txt

    从HDFS文件系统复制文件到本地文件系统,等同于get命令

    17、hdfs dfs –chgrp [-R] /user/sunlightcs

    修改HDFS系统中/user/sunlightcs目录所属群组,选项-R递归执行,跟linux命令一样

    18、hdfs dfs –chown [-R] /user/sunlightcs

    修改HDFS系统中/user/sunlightcs目录拥有者,选项-R递归执行

    19、hdfs dfs –chmod [-R] MODE /user/sunlightcs

    修改HDFS系统中/user/sunlightcs目录权限,MODE可以为相应权限的3位数或+/-{rwx},选项-R递归执行

    20、hdfs dfs –count [-q] PATH

    查看PATH目录下,子目录数、文件数、文件大小、文件名/目录名

    21、hdfs dfs –cp SRC [SRC …] DST

    将文件从SRC复制到DST,如果指定了多个SRC,则DST必须为一个目录

    22、hdfs dfs –du PATH

    显示该目录中每个文件或目录的大小

    23、hdfs dfs –dus PATH

    类似于du,PATH为目录时,会显示该目录的总大小

    24、hdfs dfs –expunge

    清空回收站,文件被删除时,它首先会移到临时目录.Trash/中,当超过延迟时间之后,文件才会被永久删除

    25、hdfs dfs –getmerge SRC [SRC …] LOCALDST [addnl]

    获取由SRC指定的所有文件,将它们合并为单个文件,并写入本地文件系统中的LOCALDST,选项addnl将在每个文件的末尾处加上一个换行符

    26、hdfs dfs –touchz PATH

    创建长度为0的空文件

    27、hdfs dfs –test –[ezd] PATH

    对PATH进行如下类型的检查:

    -e PATH是否存在,如果PATH存在,返回0,否则返回1

    -z 文件是否为空,如果长度为0,返回0,否则返回1

    -d 是否为目录,如果PATH为目录,返回0,否则返回1

    28、hdfs dfs –text PATH

    显示文件的内容,当文件为文本文件时,等同于cat,文件为压缩格式(gzip以及hadoop的二进制序列文件格式)时,会先解压缩

    29、hdfs dfs –help ls

    查看某个[ls]命令的帮助文档

  • 相关阅读:
    用Navicat运行一个比较大的.sql文件时报错:[Err] 2006
    访问laravel的api接口返回200和html代码,没有返回打印的一些数据
    英文字母和中文汉字在不同字符集编码下的字节数
    PHP curl详解
    php判断图片是否损坏
    png转为jpg
    win10快速解决警告:libpng warning: iCCP: known incorrect sRGB profile
    PHP:cURL error 60: SSL certificate unable to get local issuer certificate
    windows mysql服务出错
    go 切片对数组的修改,切片的扩容
  • 原文地址:https://www.cnblogs.com/hunttown/p/5809227.html
Copyright © 2020-2023  润新知