1. 单独启动和关闭hadoop服务
-
启动名称节点
#hadoop-daemon.sh start namenode
-
启动数据节点
#hadoop-daemons.sh start datanode slave
-
启动secondarynamenode
#hadoop-daemon.sh start secondarynamenode
-
启动resourcemanager
#yarn-daemon.sh start resourcemanager
-
启动nodemanager
#bin/yarn-daemons.sh start nodemanager
-
停止数据节点
#hadoop-daemons.sh stop datanode
2. 常用的命令
-
创建目录
#hdfs dfs -mkdir /input
-
查看
#hdfs dfs -ls
-
递归查看
#hdfs dfs ls -R
-
上传
#hdfs dfs -put
-
下载
#hdfs dfs -get
-
删除
#hdfs dfs -rm
-
从本地剪切粘贴到hdfs
#hdfs fs -moveFromLocal /input/xx.txt /input/xx.txt
-
从hdfs剪切粘贴到本地
#hdfs fs -moveToLocal /input/xx.txt /input/xx.txt
-
追加一个文件到另一个文件到末尾
#hdfs fs -appedToFile ./hello.txt /input/hello.txt
-
查看文件内容
#hdfs fs -cat /input/hello.txt
-
显示一个文件到末尾
#hdfs fs -tail /input/hello.txt
-
以字符串的形式打印文件的内容
#hdfs fs -text /input/hello.txt
-
修改文件权限
#hdfs fs -chmod 666 /input/hello.txt
-
修改文件所属
#hdfs fs -chown liuyao.liuyao /input/hello.txt
-
从本地文件系统拷贝到hdfs里
#hdfs fs -copyFromLocal /input/hello.txt /input/
-
从hdfs拷贝到本地
#hdfs fs -copyToLocal /input/hello.txt /input/
-
从hdfs到一个路径拷贝到另一个路径
#hdfs fs -cp /input/xx.txt /output/xx.txt
-
从hdfs到一个路径移动到另一个路径
#hdfs fs -mv /input/xx.txt /output/xx.txt
-
统计文件系统的可用空间信息
#hdfs fs -df -h /
-
统计文件夹的大小信息
#hdfs fs -du -s -h /
-
统计一个指定目录下的文件节点数量
#hadoop fs -count /aaa
-
设置hdfs的文件副本数量
#hadoop fs -setrep 3 /input/xx.txt