• (02)Hadoop环境的搭建(伪分布模式)


    一、安装hadoop  

      1、将文件解压到/usr/local

    [root@localhost src]# tar -zxvf hadoop-2.7.3.tar.gz -C /usr/local/

      2、配置环境变量

    [root@localhost src]# vim /etc/profile

      增加以下配置

    export HADOOP_HOME=/usr/local/hadoop-2.7.3
    export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

      使环境变量生效,执行以下语句

    [root@localhost src]# source /etc/profile

      3、修改hadoop-env.sh,设置jdk

    [root@localhost hadoop]# vim /usr/local/hadoop-2.7.3/etc/hadoop/hadoop-env.sh

      如图所示:

      4、修改hdfs-site.xml,设置数据备份节点和权限检查

    [root@localhost hadoop]# vim /usr/local/hadoop-2.7.3/etc/hadoop/hdfs-site.xml 

      添加以下内容:

    <property>
            <name>dfs.replication</name>
            <value>1</value>
    </property>
    <property>
            <name>dfs.permissions</name>
            <value>false</value>
    </property>

      如图所示:

      5、修改core-site.xml,设置namenode的ip和端口,以及数据存放目录

    [root@localhost hadoop]# vim /usr/local/hadoop-2.7.3/etc/hadoop/core-site.xml 

      添加以下内容:

    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://192.168.7.151:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop-2.7.3/tmp</value>
    </property>

      如图所示:

       创建数据存放目录:

    [root@localhost hadoop]# mkdir /usr/local/hadoop-2.7.3/tmp

      6、修改mapred-site.xml,设置

    [root@localhost hadoop]#cp /usr/local/hadoop-2.7.3/etc/hadoop/mapred-site.xml.template mapred-site.xml
    [root@localhost hadoop]#vim /usr/local/hadoop-2.7.3/etc/hadoop/mapred-site.xml

      添加以下内容:

    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>

      如图所示:

      7、修改yarn-site.xml,设置

    [root@localhost hadoop]# vim /usr/local/hadoop-2.7.3/etc/hadoop/yarn-site.xml

      添加以下内容:

    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>192.168.7.151</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

      如图所示:

      8、格式化namenode,使其产生一些必要的源信息

    [root@localhost hadoop-2.7.3]# hdfs namenode -format

      执行成功如图所示:

       执行成功以后,/usr/local/hadoop-2.7.3/tmp下面已经生成了目录dfs

      9、启动hadoop

      环境变量已经配置了hadoop/sbin,直接执行start-all.sh即可

    [root@localhost hadoop-2.7.3]# start-all.sh

      启动成功如下图所示:

      已经启动了DataNode、NodeManager、ResourceManager、SecondaryNameNode、NameNode,如图所示:

  • 相关阅读:
    git --解决fatal: Not a git repository
    Linux --常见Linux目录名称
    Python--oop面向对象的学习1
    python --集合set的学习
    python --error整理(不定时更新)
    vue自定义指令获取焦点及过滤器修改时间
    解决GitHub push项目——Push failed: Unable to access 'https://********.git/': Failed to connect to 127.0.0.1 port 1080: Connection refused
    vue项目报错,解决Module build failed: Error: Cannot find module 'node-sass' 问题
    webpack打包过程及开发过程
    安装webpack的流程及注意事项
  • 原文地址:https://www.cnblogs.com/javasl/p/12290378.html
Copyright © 2020-2023  润新知