• Ubuntu Hadoop环境搭建(Hadoop2.6.5+jdk1.8.0_121)


    1、JDK的安装

    2、配置hosts文件(这个也要拷贝给所有slave机,scp /etc/hosts root@slave1:/etc/hosts
    gedit /etc/hosts

    添加:

    122.205.135.211 master

    122.205.135.212 slave1

    122.205.135.213 slave2

    3、SSH无密码登录(见另一章)
    4、Hadoop的安装与配置
    (1)下载Hadoop
      官网下载
    (2)配置Hadoop
      1>修改hadoop-2.6.5/etc/hadoop/hadoop-env.sh,添加JDK支持:(注意这里必须用绝对路径,不能用${JAVA_HOME})

        export JAVA_HOME=/usr/jdk/jdk1.8.0_121

      2>修改hadoop-2.6.5/etc/hadoop/core-site.xml 

      添加:

      <configuration>
      <property>
      <name>hadoop.tmp.dir</name>
      <value>/usr/local/hadoop/hadoop-2.6.5/tmp</value>
      </property>
      <property>
      <name>fs.default.name</name>
      <value>hdfs://Master:9000</value>
      </property>
      </configuration>

     

      3>修改hadoop-2.6.5/etc/hadoop/hdfs-site.xml
      添加:
      <configuration>
      <property>
      <name>dfs.http.address</name>
      <value>Master:50070</value>
      </property>
      <property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>Master:50090</value>
      </property>
      <property>
      <name>dfs.replication</name>
      <value>2</value>
      </property>
      <property>
      <name>dfs.namenode.name.dir</name>
      <value>/usr/local/hadoop/hadoop-2.6.5/dfs/name</value>
      </property>
      <property>
      <name>dfs.datanode.data.dir</name>
      <value>/usr/local/hadoop/hadoop-2.6.5/dfs/data</value>
      </property>
      </configuration>

      4>修改hadoop-2.6.0/etc/hadoop/mapred-site.xml(原先文件名为mapred-site.xml.templete,将其改为现在文件名

    <configuration>
    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
    </configuration>
      5>修改hadoop-2.6.5/etc/hadoop/slaves 添加所有datanode的机器名

        slave1
        slave2

      6>将master结点上配置好的hadoop文件夹拷贝到所有的slave结点上

        以slave1为例:命令如下:

        scp -~/hadoop-2.6.5 root@slave1:~(具体目录具体定)

      7>配置master上的profile文件
         gedit /etc/profile 
        添加:
    #JAVA_HOME
    
    JAVA_HOME=/usr/local/jdk/jdk1.8.0_121
    JRE_HOME=JAVA_HOME/jre
    CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib
    PATH=$PATH:$JAVA_HOME/bin
    
    export PATH JAVA_HOME JRE_HOME CLASSPATH
    
    #HADOOP_HOME
    export HADOOP_HOME=/usr/local/hadoop/hadoop-2.6.5
    export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
    #choice----
    export HADOOP_MAPRED_HOME=${HADOOP_HOME}
    export HADOOP_COMMON_HOME=${HADOOP_HOME}
    export HADOOP_HDFS_HOME=${HADOOP_HOME}
    export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_HOME}/lib/native
    export YARN_HOME=$HADOOP_HOME
    export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
    
    export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

     

      8>将配置文件拷贝到所有的slave结点上

        以slave1为例:命令如下:

        scp /etc/profile root@slave1:/etc/profile


    5.启动Hadoop

    1>格式化HDFS文件系统的namenode

      (这里要进入hadoop-2.6.5目录来格式化):

      cd hadoop-2.6.5  //进入hadoop-2.6.5目录

      bin/hdfs namenode -format  //格式化(特别注意:这个只能格式化一次,否则会出很多问题

    2>启动Hadoop集群
      启动hdrs命令如下:

      sbin/start-dfs.sh //开启进程

      补充,关闭hdfs集群的命令如下:sbin/stop-dfs.sh(每次启动完必须关

      开启yarn:sbin/start-yarn.sh

        补充:之后开启就直接用sbin/start-all.sh 来代替上面两个开启项,关闭用sbin/stop-all.sh

    6.查看是否成功

      通过网页来看是否正常安装与配置,地址如下:http://master:50070/; http://master:8088;

  • 相关阅读:
    linux常用命令整理
    pg_sql常用查询语句整理
    python 爬取媒体文件(使用chrome代理,启动客户端,有防火墙)
    python 爬取媒体文件(无防火墙)
    python读写符号的含义
    python数据分析开发中的常用整理
    wget: 无法解析主机地址
    ## nginx 使用
    iptables防火墙
    【redis】Could not connect to Redis at 127.0.0.1:6379: Connection refused
  • 原文地址:https://www.cnblogs.com/LazyJoJo/p/6413615.html
Copyright © 2020-2023  润新知