1.查看客户端默认的Block大小
hdfs getconf -confKey dfs.blocksize
2.查看指定文件的Block大小
hadoop fs -stat %o hdfs://localhost/user/harsh/file.txt
3.把本地文件上传到服务器
hadoop dfs -copyFromLocal <localsrc> URI
hadoop fs -put [-f] [-p] [-l] [-d] [ - | <localsrc1> .. ] <dst>
hadoop fs -put test /user/hadoop/test
4.拷贝
hadoop fs -cp [src] [dst]
移动
hadoop fs -mv [src] [dst]
5.把文件复制到本地
hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
hadoop fs -get [dst] [localdst]
6.删除
hadoop fs -rm hadoop fs -rm -R
7.查看文件内容
hadoop fs -cat filename hadoop fs -text filename
8查看大小
hadoop fs -du -h <path>
9.合并下载多个文件(源头可以是目录,可以是指定的多个文件)
hadoop fs -getmerge /src ./output.txt
hadoop fs -getmerge /src/file1.txt /src/file2.txt ./output.txt
10.文件检测
hadoop fs -test -[defsz] URI
- -d: 如果路径是目录, return 0.
- -e: 如果路径存在, return 0.
- -f: 如果路径是文件, return 0.
- -s: 如果路径不为空, return 0.
- -w: 如果路径存在且有写权限, return 0.
- -r: 如果路径存在且有读权限, return 0.
- -z: 如果文件长度为零, return 0.