1. 查看集群资源信息
hdfs dfsadmin -report
2. 启动一个mapreduce任务,
hadoop jar /opt/hadoop/share/hadoop/tools/lib/hadoop-streaming-3.0.0-alpha2.jar -input /test -output /output -mapper cat -reducer wc
中间日志出现一些:
2017-02-13 15:24:31,650 INFO mapreduce.Job: Task Id : attempt_1486627264009_0001_r_000000_0, Status : FAILED
Container [pid=8634,containerID=container_1486627264009_0001_01_000014] is running beyond virtual memory limits. Current usage: 148.8 MB of 1 GB physical memory used; 2.4 GB of 2.1 GB virtual memory used. Killing container.
原因还未明了
3. 查看
hadoop fs -ls /output
hadoop fs -cat /output/part-00000
从其他地方拉过来的命令
1 成功将linux文件系统中的文件拷贝至hdfs文件系统中的某一个路径下: hadoop dfs -put linux源文件路径 hadoop的hdfs文件路径
2 成功将hdfs文件系统中的文件拷贝至linux文件系统中的某一个路径下: hadoop dfs -get hadoop的hdfs文件路径 linux源文件路径
3 知道如何显示hdfs文件系统中的文件: hadoop dfs -ls hdfs的文件路径
4 知道如何在hdfs文件系统制作文件的副本: hadoop dfs -cp 原文件 目标文件
5 知道如何在hdfs文件系统中删除某一个文件: hadoop dfs -rm 要被删除的目标文件
6 如果要删除hdfs上的文件目录呢?这里不再展示,直接命令:hadoop dfs -rmr hdfs系统上的文件目录名