• hadoop 环境搭建


    1  基础集群环境准备

    1.1修改主机名

      root 账户下 vi /etc/sysconfig/network   或者 sudo vi /etc/sysconfig/network

    NETWORKING=yes
    HOSTNAME=hadoop01

    1.2设置系统默认启动级别

      root 账号下输入 vi /etc/inittab    将默认的5改为3即可  --最后一行

    id:3:initdefault:

    1.3配置hadoop用户 sudoer权限

      root 账号下,命令终端输入: vi /etc/sudoers

      在这一行 root ALL=(ALL) ALL下面添加如下一行:

      hadoop ALL=(ALL) ALL

    1.4配置IP

      具体网上搜索好多种方式

      比如命令:vi /etc/sysconfig/network-scripts/ifcfg-eth0   --修改其中内容

    1.5关闭防火墙

      查看防火墙状态: service iptables status
      关闭防火墙: service iptables stop
      开启防火墙: service iptables start
      重启防火墙: service iptables restart
      关闭防火墙开机启动: chkconfig iptables off  -----执行这条
      开启防火墙开机启动: chkconfig iptables on

    1.6添加内网域名映射

      vi /etc/hosts

    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    192.168.123.201 hadoop01
    192.168.123.202 hadoop02
    192.168.123.203 hadoop03
    192.168.123.204 hadoop04
    192.168.123.205 hadoop05
    192.168.123.206 hadoop06
    192.168.123.207 hadoop07
    192.168.123.208 hadoop08
    192.168.123.209 hadoop09
    
    192.168.123.199 hadoop

    1.7安装JDK

    完以上步骤就开始克隆虚拟机了

    二、hadoop集群安装

            1、hadoop版本选择

               

           2、同步服务器时间   设置crontab  ---这一步最好放在克隆虚拟机前这样克隆后都有了

              ntpdate 202.120.2.101  --或者使用这个

         ntpdate us.pool.ntp.org     --或者使用这个

              ntpdate cn.ntp.org.cn        --或者使用这个

         ntpdate edu.ntp.org.cn     --或者使用这个

           3、配置免密登录

        克隆后需要修改的每台克隆机器的相关配置:

        a、vi /etc/udev/rules.d/70-persistent-net.rules   --删除eth0的部分,并将eth1部分的NAME改为“eth0”

        b、vi /etc/sysconfig/network-scripts/ifcfg-eth0   --删除UUID、HWADDR行删除,修改ip比如hadoop02这台修改为 ...202

        c、vi /etc/sysconfig/network  --修改主机名

           4、hadoop分布式集群安装(伪分布式)

           4、hadoop分布式集群安装

               总共三个datanode,设置副本数为2,是为了观察数据块分布方便

             集群规划:

                                               HDFS                                            YARN

    hadoop01             NameNode+DataNode                       NodeManager

    hadoop02            DataNode+SecondaryNameNode          NodeManager

    hadoop03           DataNode                                           NodeManager+ResourceManager

              hadoop01是HDFS的主节点(namenode进程)、hadoop03是Yarn的主节点(ResourceManager进程)

          具体安装步骤:

    修改环境变量:

    vi  /home/hadoop/.bash_profile

    最后面添加如下两行:

    export HADOOP_HOME=/home/hadoop/apps/hadoop-2.6.4
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

    保存退出

    然后执行: source .bash_profile

    三、集群初步使用

         1、hadoop集群启动          

    DFS 集群启动: sbin/start-dfs.sh
    DFS 集群关闭: sbin/stop-dfs.sh
    YARN 集群启动: sbin/start-yarn.sh
    YARN 集群启动: sbin/stop-yarn.sh

         2、HDFS初步使用

    查看集群文件: hadoop fs –ls /
    上传文件: hadoop fs –put filepath destpath
    下载文件: hadoop fs –get destpath
    创建文件夹: hadoop fs –mkdir /hadoopdata
    查看文件内容: hadoop fs –cat /hadoopdata/mysecret.txt

        3、mapreduce 初步使用

         

  • 相关阅读:
    06-按钮Button
    05-文本视图TextView
    02-运行配置AndroidManifest.xml
    01-编译配置文件build.gradle详解
    jquery获取焦点和失去焦点
    Liunx下安装Oracle11g时Oracle Grid安装包下载向导
    配置虚拟机上的RedHat6 Linux系统的网络(选择的是仅主机模式)
    Redhat镜像-RHEL-官方镜像下载大全
    在VMware中创建一个新的虚拟机 ,安装Linux4.X系统 ,之后在此基础上安装openfiler(网络存储管理实用程序)
    Oracle18C安装后首次创建数据库并用sql developer 创建连接和用户
  • 原文地址:https://www.cnblogs.com/liwenzhen238/p/8620316.html
Copyright © 2020-2023  润新知