• Hadoop(2):Hadoop伪分布式模式安装测试


    以下操作在  Hadoop(1):Centos 7 安装 Hadoop 3.2.1  基础上操作。

    一、配置集群

    1、配置 HDFS

    a)、配置 hadoop-end.sh

      # cd /opt/module/hadoop-3.2.1/    

      将 hadoop-env.sh 中的 JAVA_HOME 的值修改为当前JDK的安装目录

      获取当前 jdk 的安装路径

      # echo $JAVA_HOME   

     

       修改 hadoop-env.sh 

      # vim etc/hadoop/hadoop-env.sh   

      修改 JAVA_HOME 路径

    export JAVA_HOME=/opt/module/jdk1.8.0_171

     

     b)、配置  core-site.xml

      # vim etc/hadoop/core-site.xml   

    在 configuration 标签里面 插入 以下内容

    <!-- 指定HDFS中NameNode的地址 -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.56.200:9000</value>
    </property>
    
    <!-- 指定Hadoop运行时产生文件的存储目录 -->
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/module/hadoop-3.2.1/data/tmp</value>
    </property>

     

     c)、配置  hdfs-site.xml

    # vim etc/hadoop/hdfs-site.xml    

    在 configuration 标签里面 插入 以下内容

    <!-- 指定HDFS副本的数量 -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>

    2、配置YARN

    a)、配置 yarn-site.xml

    查看hadoop classpath 

    # hadoop classpath   

    将回显的内容记录下来

     在 configuration 标签里面 插入 以下内容

    <!-- Reducer获取数据的方式 -->
    <property>
         <name>yarn.nodemanager.aux-services</name>
         <value>mapreduce_shuffle</value>
    </property>
    
    <!-- 指定YARN的ResourceManager的地址 -->
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>192.168.56.200</value>
    </property
    
    <!-- value值 输入刚才返回的Hadoop classpath路径-->
    <property>
        <name>yarn.application.classpath</name>
        <value>/opt/module/hadoop-3.2.1/etc/hadoop:/opt/module/hadoop-3.2.1/share/hadoop/common/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/common/*:/opt/module/hadoop-3.2.1/share/hadoop/hdfs:/opt/module/hadoop-3.2.1/share/hadoop/hdfs/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/hdfs/*:/opt/module/hadoop-3.2.1/share/hadoop/mapreduce/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/mapreduce/*:/opt/module/hadoop-3.2.1/share/hadoop/yarn:/opt/module/hadoop-3.2.1/share/hadoop/yarn/lib/*:/opt/module/hadoop-3.2.1/share/hadoop/yarn/*</value>
    </property>

    3、配置 MapReduce

    a)、配置:mapred-site.xml

    在 configuration 标签里面 插入 以下内容

    <!-- 指定MR运行在YARN上 -->
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>

    二、启动集群

    格式化NameNode(第一次启动时格式化,以后就不要总格式化)

    #  bin/hdfs namenode -format   

    启动NameNode

    # sbin/hadoop-daemon.sh start namenode   

    启动DataNode

    #  sbin/hadoop-daemon.sh start datanode   

    查看是否启动成功

    # jps  

    web端查看HDFS文件系统

    浏览器访问: http://192.168.56.200:9870/dfshealth.html#tab-overview

     HDFS 成功启动。

    启动ResourceManager

    # sbin/yarn-daemon.sh start resourcemanager   

    启动NodeManager

    # sbin/yarn-daemon.sh start nodemanager  

    web端查看yarn

    浏览器访问: http://192.168.56.200:8088/cluster

     YARN 启动成功。

    三、测试  wordcount 案例

    1、将 wcinput 文件夹上传至 hdfs 根目录

    # hadoop fs -put wcinput /    

     浏览器查看 文件目录 可以看到新上传 wcinput 文件夹。

    2、运行MapReduce程序

    # hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount /wcinput /wcoutput   

    执行完成,刷新浏览器 可以看到执行输出的 wcoutput 文件夹

     命令行查看结果

    # hadoop fs -cat /wcoutput/*    

     至此Hadoop伪分布式模式安装完成 

  • 相关阅读:
    COGS 2075. [ZLXOI2015][异次元圣战III]ZLX的陨落
    51nod 1099 任务执行顺序
    洛谷 P1215 [USACO1.4]母亲的牛奶 Mother's Milk
    洛谷 P3395 路障
    2017.10.25 模拟赛
    COGS 146. [USACO Jan08] 贝茜的晨练计划
    洛谷 P3905 道路重建
    COGS 678. 双重回文数
    洛谷 P1509 找啊找啊找GF
    51nod 1366 贫富差距
  • 原文地址:https://www.cnblogs.com/guoxiangyue/p/13927844.html
Copyright © 2020-2023  润新知