运维--启停
-
HDFS启停
-
初始化HDFS : hadoop namenode -format
-
启动HDFS : start-dfs.sh (主节点启动)
-
关闭HDFS : stop-dfs.sh
-
-
NameNode启停
-
hadoop-daemon.sh start NameNode
-
hadoop-daemons.sh stop NameNode
-
-
SecondNameNode启停
-
启动:hadoop-daemon.sh start secondnamenode
-
停止:hadoop-daemon.sh stop SecondNameNode
-
-
DataNode启停
-
启动单个DataNode:hadoop-daemon.sh start datanode
-
关闭单个DataNode:hadoop-daemon.sh stop datanode
-
启动所有DataNode:hadoop-daemons.sh start datanode
-
关闭所有DataNode:hadoop-daemons.sh stop datanode
-
-
JobTracker/TaskTracker启停
-
启动:hadoop-daemon.sh start jobtracker/TaskTracker
-
停止:hadoop-daemon.sh stop jobtracker/TaskTracker
-
-
MapReduce启停
-
启动:start-mapred.sh
-
停止:stop-mapred.sh
-
运维--监控
-
安全模式
-
进入安全模式:hdfs dfsadmin -safemode enter
-
查看安全模式:hdfs dfsadmin -safemode get
-
退出安全模式:hdfs dfsadmin -safemode leave
-
-
查看状态
- hdfs dfsadmin -report
HDFS
-
显示指定的文件的详细信息: hadoop fs -ls (path)
-
创建指定的文件夹: hadoop fs -mkdir (path)
-
删除指定的文件夹: hadoop fs -rmr (path)
-
上传文件:hadoop fs -put localfile (path)
-
下载文件:hadoop fs -get destfile
-
将(path)指定的文件的内容输出到标准输出(stdout):hadoop fs -cat (path)
-
将本地源文件(localsrc)复制到路径(dst)指定的文件或文件夹中:hadoop fs -copyFromLocal (localsrc)(dst)
-
查看集群状态信息: hadoop dfsadmin –report
-
杀掉namenode进程 : kill -9 2978