• Hadoop 单机搭建 hadoop单机搭建


    hadoop版本:hadoop-2.8.2.tar.gz

    服务器已安装java

     

    一、上传hadoop,并解压,先在centos01节点上操作

    1、创建文件夹 /opt/software    /opt/modules

    sudo mkdir /opt/software
    sudo mkdir /opt/modules

    2、设置新建2个目录的所有者和组为用hadoop和组hadoop

    sudo chmod -R hadoop:hadoop /opt/software
    sudo chmod -R hadoop:hadoop /opt/modules

      3、将hadoop-2.8.2.tar.gz 上传到 /opt/softwares目录,并解压

    cd /opt/softwares
    tar -zxf hadoop-2.8.2.tar.gz -C /opt/modules

    二、配置系统环境变量

    修改/etc/profile文件

    sudo vi /etc/profile

    文件末尾加入

    export HADOOP_HOME=/opt/modules/hadoop-2.8.2
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

    刷新profile,使配置生效

    source /etc/profile

    执行hadoop

     三、配置hadoop环境变量

    所有hadoop配置文件都在安目录的 etc/hadoop中

      修改以下三个文件

    hadoop-env.sh
    mapred-env.sh
    yarn-env.sh

    加入java路径

    export JAVA_HOME=/opt/modules/jdk1.8.0_181

    四、配置HDFS

    1、修改 core-site.xml 加入

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://centos04:9000</value>
        </property>
        <property>
            <name>hadoop.temp.dir</name>
            <value>file:/opt/modules/hadoop-2.8.2/tmp</value>
        </property>
    </configuration>
    fs.defaultFS  HDFS默认访问路径

    hadoop.temp.dir Hadoop数据缓存路径

    2、修改 hdfs-site.xml 加入

    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.permissions.enabled</name>
            <value>false</value>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/opt/modules/hadoop-2.8.2/tmp/dfs/name</value>
        </property>
        <property>
           <name>dfs.datanode.data.dir</name>
            <value>file:/opt/modules/hadoop-2.8.2/tmp/dfs/data</value>
        </property>
    </configuration>
    dfs.replication    文件在hdfs系统中的副本数
    dfs.permissions.enabled  是否检查用户权限
    dfs.namenode.name.dir  NameNode节点数据在本地文件系统存放位置
    dfs.datanode.data.dir      DataNode节点数据在本地文件系统存放位置

    3、修改 slaves 文件 ,将主机名添加进去(也能将IP放入,没有测试),一个一行

    centos04

    五、配置YARN

    1、复制 mapred-site.xml.template 名字为 mapred-site.xml,添加内容,指定任务执行框架为YARN

    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>

    2、修改 yarn-site.xml 加入

    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>
    yarn.nodemanager.aux-services  在NodeManager上运行附属服务,需要配置成mapreduce_shuffle才能运行MapReduce

    六、格式化NameNode

    hadoop启动前需要格式化namenode,格式化namenode可以初始化HDFS文件系统和目录

    在centos04上执行 *在namenade所在的节点上处理 

    /opt/modules/hadoop-2.8.2/bin/hadoop namenode -format

    执行后存在这句话,执行成功
    common.Storage: Storage directory /opt/modules/hadoop-2.8.2/tmp/dfs/name has been successfully formatted.

     

     七、启动hadoop

    在centos04上启动集群

    sh /opt/modules/hadoop-2.8.2/sbin/start-all.sh
    日志文件
    /opt/modules/hadoop-2.8.2/logs/
    sh脚本命令位置
    /opt/modules/hadoop-2.8.2/sbin
    启动hadoop集群
    start-all.sh
    单独启动HDFS集群
    start-dfs.sh
    单独启动YARN集群
    start-yarn.sh
    单独启动NameNode进程
    hadoop-daemon.sh start namenode
    hadoop-daemon.sh stop namenode
    查看启动情况
    http://192.168.0.181:50070
    http://192.168.0.181:8088

      

    八、查看节点启动进程

    jps

    [hadoop@centos04 tmp]$ hostname
    centos04
    [hadoop@centos04 tmp]$ jps
    13328 SecondaryNameNode
    26404 Jps
    13753 ResourceManager
    13899 NodeManager
    12893 DataNode
    12558 NameNode

     
    分类: hadoop
  • 相关阅读:
    linux下区分各种SCSI磁盘类型
    Linux那些事儿之我是SCSI硬盘(3)磁盘磁盘你动起来!
    待机(STR)suspend device flow
    %pf
    ftrace misc
    reboot系统调用的时候会调用shutdown函数
    Linux进程调度
    一张图让你读懂Linux内核运行原理
    linux O1 and CFS process sched
    SQL 视图 触发器 等
  • 原文地址:https://www.cnblogs.com/xuchen0117/p/12508845.html
Copyright © 2020-2023  润新知