• 使用hadoop自带的例子作测试 笔记三


    使用hadoop自带的例子作测试

    Hadoop中的常用命令:

    //查看目录文件

    root@vm:/software/hadoop/hadoop-0.20.2# bin/hadoop dfs -ls /

    Found 1 items

    drwxr-xr-x   - root supergroup          0 2015-10-02 13:25 /opt

    #将操作系统中的文件放到hadoop

    Hadoop dfs -put 本地文件 hadopp文件夹

    #将文件下载到本地

    Hadoop dfs -get (hadoop文件名本地路径

    #查看文件内容 

    Hadoop dfs -cat 文件名

    #删除文件目录

    Hadoop dfs -rmr 文件名

    #全局查看datenode的情况

    Hadoop dfsadmin -report

    #对于当前运行job的操作

    Hadoop job (list/kill)

    #均衡磁盘负载

    Hadoop balancer

    #进入和退出安全模式

    Hadoop dfsadmin -safemode enter

    Hadoop dfsadmin -safemode leave

    对安装好的hadoop进行测试

    datanode中建立两个文件

    Cd retacn

    Mkdir input

    Echo “hello world” >test1.txt

    Echo “hello hadoop” >test2.txt

    Cd ~/hadoop-0.20.2

    #将文件上传到dfs 

    Bin/hadoop dfs -put  /root/imput in

    #查看文件

    Bin/hadoop dfs -ls ./in/*

    #查看文件内容

    Hadoop dfs -cat 文件名

    使用hadoop自带的wordcount程序进行测试

     #in为数据源,out为输出目录

    root@vm:/software/hadoop/hadoop-0.20.2# bin/hadoop jar hadoop-0.20.2-examples.jar wordcount in out

    15/10/02 21:28:55 INFO input.FileInputFormat: Total input paths to process : 2

    15/10/02 21:28:57 INFO mapred.JobClient: Running job: job_201510022121_0001

    15/10/02 21:28:58 INFO mapred.JobClient:  map 0% reduce 0%

    15/10/02 21:29:50 INFO mapred.JobClient:  map 50% reduce 0%

    15/10/02 21:30:03 INFO mapred.JobClient:  map 100% reduce 0%

    15/10/02 21:30:09 INFO mapred.JobClient:  map 100% reduce 100%

    15/10/02 21:30:11 INFO mapred.JobClient: Job complete: job_201510022121_0001

    15/10/02 21:30:11 INFO mapred.JobClient: Counters: 17

    15/10/02 21:30:11 INFO mapred.JobClient:   Job Counters 

    15/10/02 21:30:11 INFO mapred.JobClient:     Launched reduce tasks=1

    15/10/02 21:30:11 INFO mapred.JobClient:     Launched map tasks=2

    15/10/02 21:30:11 INFO mapred.JobClient:     Data-local map tasks=2

    15/10/02 21:30:11 INFO mapred.JobClient:   FileSystemCounters

    15/10/02 21:30:11 INFO mapred.JobClient:     FILE_BYTES_READ=55

    15/10/02 21:30:11 INFO mapred.JobClient:     HDFS_BYTES_READ=25

    15/10/02 21:30:11 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=180

    15/10/02 21:30:11 INFO mapred.JobClient:     HDFS_BYTES_WRITTEN=25

    15/10/02 21:30:11 INFO mapred.JobClient:   Map-Reduce Framework

    15/10/02 21:30:11 INFO mapred.JobClient:     Reduce input groups=3

    15/10/02 21:30:11 INFO mapred.JobClient:     Combine output records=4

    15/10/02 21:30:11 INFO mapred.JobClient:     Map input records=2

    15/10/02 21:30:11 INFO mapred.JobClient:     Reduce shuffle bytes=61

    15/10/02 21:30:11 INFO mapred.JobClient:     Reduce output records=3

    15/10/02 21:30:11 INFO mapred.JobClient:     Spilled Records=8

    15/10/02 21:30:11 INFO mapred.JobClient:     Map output bytes=41

    15/10/02 21:30:11 INFO mapred.JobClient:     Combine input records=4

    15/10/02 21:30:11 INFO mapred.JobClient:     Map output records=4

    15/10/02 21:30:11 INFO mapred.JobClient:     Reduce input records=4

    查看测试结果

    #查看根目录下的所有文件

    Bin/hadoop dfs -ls

    #查看文件 

    Bin/hadoop dfs -cat ./out/*

  • 相关阅读:
    Bzoj 3654 图样图森波 题解
    1.27号考试记录
    博弈论入门小结
    「考试总结」2020-11-18 爆零
    「补题」考试题泛做
    CSP2020 游记,总结与题解
    Luogu2827 「NOIP2016」 蚯蚓
    【学习笔记】四毛子算法
    「考试反思」2020-11-04 临行
    「考试反思」2020-10-31 警示
  • 原文地址:https://www.cnblogs.com/retacn-yue/p/6194230.html
Copyright © 2020-2023  润新知