• Spark入门实战系列--2.Spark编译与部署(中)--Hadoop编译安装


    【注】该系列文章以及使用到安装包/测试数据 可以在《倾情大奉送--Spark入门实战系列》获取

    1编译Hadooop

    1.1 搭建环境

    1.1.1 安装并设置maven

    1. 下载maven安装包,建议安装3.0以上版本,本次安装选择的是maven3.0.5的二进制包,下载地址如下

    http://mirror.bit.edu.cn/apache/maven/maven-3/

    clip_image002

    2. 使用ssh工具把maven包上传到/home/hadoop/upload目录

    clip_image004

    3. 解压缩apache-maven-3.0.5-bin.tar.gz

    $tar -zxvf apache-maven-3.0.5-bin.tar.gz

    clip_image006

    4. apache-maven-3.0.5目录移到/usr/local目录下

    $sudo mv apache-maven-3.0.5 /usr/local

    clip_image008

    5. /etc/profile配置文件中加入如下设置

    export PATH=$JAVA_HOME/bin:/usr/local/apache-maven-3.0.5/bin:$PATH

    clip_image010

    6. 编辑/etc/profile文件并验证配置是否成功:

    $source /etc/profile

    $mvn -version

    clip_image012

    1.1.2 root用户使用yum安装svn

    #yum install svn

    clip_image014

    clip_image016

    1.1.3 root用户使用yum安装autoconf automake libtool cmake

    #yum install autoconf automake libtool cmake

    clip_image018

    clip_image020

    1.1.4 root用户使用yum安装ncurses-devel

    #yum install ncurses-devel

    clip_image022

    1.1.5 root用户使用yum安装openssl-devel

    #yum install openssl-devel

    clip_image024

    clip_image026

    1.1.6 root用户使用yum安装gcc*

    #yum install gcc*

    clip_image028

    clip_image030

    1.1.7 安装并设置protobuf

    注:该程序包需要在gcc安装完毕后才能安装,否则提示无法找到gcc编译器。

    1. 下载protobuf安装包

    下载链接为: https://code.google.com/p/protobuf/downloads/list

    clip_image032

    2. 使用ssh工具把protobuf-2.5.0.tar.gz包上传到/home/hadoop/Downloads目录

    clip_image034

    3. 解压安装包

    $tar -zxvf protobuf-2.5.0.tar.gz

    clip_image036

    clip_image038

    4. protobuf-2.5.0目录转移到/usr/local目录下

    $sudo mv protobuf-2.5.0 /usr/local

    clip_image040

    5. 进行目录运行命令

    进入目录以root用户运行如下命令:

    #./configure

    #make

    #make check

    #make install

    clip_image042

    clip_image044

    6. 验证是否安装成功

    运行成功之后,通过如下方式来验证是否安装成功

    #protoc

    clip_image046

    1.2 编译Hadoop

    1.2.1 下载Hadoop源代码 Release2.2.0

    通过SVN获取Hadoop2.2.0源代码,在/home/hadoop/Downloads目录下命令:

    $svn checkout http://svn.apache.org/repos/asf/hadoop/common/tags/release-2.2.0

    获取时间较长,大小约75.3M

    clip_image048

    1.2.2 编译Hadoop源代码

    :) 由于hadoop2.2.0svnpom.xml有点问题,会造成编译中出错,可先参考3.2修复该问题。在Hadoop源代码的根目录执行如下命令:

    $mvn package -Pdist,native -DskipTests –Dtar

    (注意:这行命令需要手工输入,如果复制执行会报异常!)

    clip_image050

    耗费的时间较长,总共花费了32分钟,在编译过程需要联网,从网络中下载所需要的资料。

    clip_image052

    clip_image054

    1.2.3 验证编译是否成功

    hadoop-dist/target/hadoop-2.2.0/lib/native 目录中查看libhadoop.so.1.0.0属性:

    $file ./libhadoop.so.1.0.0

    该文件为ELF 64-bit LSB则表示文件成功编译为64

    clip_image056

    hadoop-dist/target目录中已经打包好了hadoop-2.2.0.tar.gz,该文件作为Hadoop2.X 64位安装包。

    clip_image058

    2安装Hadoop

    2.1 配置准备

    2.1.1 上传并解压Hadoop安装包

    1.Apache网站上提供Hadoop2.X安装包只支持32位操作系统安装,在64位服务器安装会出现4.1的错误异常。我们使用上一步骤编译好的hadoop-2.2.0.tar.gz文件作为安装包(也可以从网上下载native文件夹或者打包好的64hadoop安装包),使用"Spark编译与部署(上)"1. 3.1介绍的工具上传到/home/hadoop/upload 目录下

    clip_image060

    2. 在主节点上解压缩

    $cd /home/hadoop/upload/

    $tar -xzf hadoop-2.2.0.tar.gz

    clip_image062

    3. hadoop-2.2.0目录移到/app/hadoop目录下

    $ mv hadoop-2.2.0 /app/hadoop

    $ls /app/hadoop

    clip_image064

    2.1.2 Hadoop目录下创建子目录

    hadoop用户在/app/hadoop/hadoop-2.2.0目录下创建tmpnamedata目录

    $cd /app/hadoop/hadoop-2.2.0/

    $mkdir tmp

    $mkdir name

    $mkdir data

    $ll

    clip_image066

    2.1.3 配置hadoop-env.sh

    1.     打开配置文件hadoop-env.sh

    $cd /app/hadoop/hadoop-2.2.0/etc/hadoop

    $sudo vi hadoop-env.sh

    clip_image068

    2. 加入配置内容,设置JAVA_HOMEPATH路径

    export JAVA_HOME=/usr/lib/java/jdk1.7.0_55

    export PATH=$PATH:/app/hadoop/hadoop-2.2.0/bin

    clip_image070

    3. 编译配置文件hadoop-env.sh,并确认生效

    $source hadoop-env.sh

    $hadoop version

    clip_image072

    2.1.4 配置yarn-env.sh

    1. /app/hadoop/hadoop-2.2.0/etc/hadoop打开配置文件yarn-env.sh

    $cd /app/hadoop/hadoop-2.2.0/etc/hadoop

    $sudo vi yarn-env.sh

    clip_image074

    2. 加入配置内容,设置JAVA_HOME路径

    export JAVA_HOME=/usr/lib/java/jdk1.7.0_55

    clip_image076

    3. 编译配置文件yarn-env.sh,并确认生效

    $source yarn-env.sh

    clip_image078

    2.1.5 配置core-site.xml

    1. 使用如下命令打开core-site.xml配置文件

    $sudo vi core-site.xml

    clip_image080

    2. 在配置文件中,按照如下内容进行配置

    <configuration>

      <property>

        <name>fs.default.name</name>

        <value>hdfs://hadoop1:9000</value>

      </property>

      <property>

        <name>fs.defaultFS</name>

        <value>hdfs://hadoop1:9000</value>

      </property>

      <property>

        <name>io.file.buffer.size</name>

        <value>131072</value>

      </property>

      <property>

        <name>hadoop.tmp.dir</name>

        <value>file:/app/hadoop/hadoop-2.2.0/tmp</value>

        <description>Abase for other temporary directories.</description>

      </property>

      <property>

        <name>hadoop.proxyuser.hduser.hosts</name>

        <value>*</value>

      </property>

      <property>

        <name>hadoop.proxyuser.hduser.groups</name>

        <value>*</value>

      </property>

    </configuration>

    clip_image082

    2.1.6 配置hdfs-site.xml

    1. 使用如下命令打开hdfs-site.xml配置文件

    $sudo vi hdfs-site.xml

    clip_image084

    2. 在配置文件中,按照如下内容进行配置

    <configuration>

      <property>

       <name>dfs.namenode.secondary.http-address</name>

       <value>hadoop1:9001</value>

      </property>

      <property>

       <name>dfs.namenode.name.dir</name>

       <value>file:/app/hadoop/hadoop-2.2.0/name</value>

      </property>

      <property>

       <name>dfs.datanode.data.dir</name>

       <value>file:/app/hadoop/hadoop-2.2.0/data</value>

      </property>

      <property>

       <name>dfs.replication</name>

       <value>2</value>

      </property>

      <property>

       <name>dfs.webhdfs.enabled</name>

       <value>true</value>

      </property>

    </configuration>

    clip_image086

    2.1.7 配置mapred-site.xml

    1. 默认情况下不存在mapred-site.xml文件,可以从模板拷贝一份

    $cp mapred-site.xml.template mapred-site.xml

    clip_image088

    2. 使用如下命令打开mapred-site.xml配置文件

    $sudo vi mapred-site.xml

    clip_image090

    3. 在配置文件中,按照如下内容进行配置

    <configuration>

      <property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

      </property>

      <property>

        <name>mapreduce.jobhistory.address</name>

        <value>hadoop1:10020</value>

      </property>

      <property>

        <name>mapreduce.jobhistory.webapp.address</name>

        <value>hadoop1:19888</value>

      </property>

    </configuration>

    clip_image092

    2.1.8 配置yarn-site.xml

    1. 使用如下命令打开yarn-site.xml配置文件

    $sudo vi yarn-site.xml

    clip_image094

    2. 在配置文件中,按照如下内容进行配置

    <configuration>

      <property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

      </property>

      <property>

        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

        <value>org.apache.hadoop.mapred.ShuffleHandler</value>

      </property>

      <property>

        <name>yarn.resourcemanager.address</name>

        <value>hadoop1:8032</value>

      </property>

      <property>

        <name>yarn.resourcemanager.scheduler.address</name>

        <value>hadoop1:8030</value>

      </property>

      <property>

        <name>yarn.resourcemanager.resource-tracker.address</name>

        <value>hadoop1:8031</value>

      </property>

      <property>

        <name>yarn.resourcemanager.admin.address</name>

        <value>hadoop1:8033</value>

      </property>

      <property>

        <name>yarn.resourcemanager.webapp.address</name>

        <value>hadoop1:8088</value>

      </property>

    </configuration>

    clip_image096

    2.1.9 配置Slaves文件

    使用$sudo vi slaves打开从节点配置文件,在文件中加入

    hadoop1

    hadoop2

    hadoop3

    clip_image098 

    2.1.10 向各节点分发Hadoop程序

    1.确认hadoop2hadoop3节点/app/hadoop所属组和用户均为hadoop,然后进入hadoop1机器/app/hadoop目录,使用如下命令把hadoop文件夹复制到hadoop2hadoop3机器

    $cd /app/hadoop

    $scp -r hadoop-2.2.0 hadoop@hadoop2:/app/hadoop/

    $scp -r hadoop-2.2.0 hadoop@hadoop3:/app/hadoop/

    clip_image100

    clip_image102

     

    2. 在从节点查看是否复制成功

    clip_image104

    2.2 启动部署

    2.2.1 格式化NameNode

    $cd /app/hadoop/hadoop-2.2.0/

    $./bin/hdfs namenode -format

    clip_image106

    clip_image108

    2.2.2 启动HDFS

    $cd /app/hadoop/hadoop-2.2.0/sbin

    $./start-dfs.sh

    clip_image110

    如果服务器操作系统为32位时,出现问题3.1异常,可以参考解决

    2.2.3 验证HDFS启动

    此时在hadoop1上面运行的进程有:NameNodeSecondaryNameNodeDataNode

    clip_image112

    hadoop2hadoop3上面运行的进程有:NameNodeDataNode

    clip_image114

    2.2.4 启动YARN

    $cd /app/hadoop/hadoop-2.2.0/sbin

    $./start-yarn.sh

    clip_image116

    2.2.5 验证YARN启动

    此时在hadoop1上运行的进程有:NameNodeSecondaryNameNodeDataNodeNodeManagerResourceManager

    clip_image118

    hadoop2hadoop3上面运行的进程有:NameNodeDataNodeNodeManager

    clip_image120

    clip_image122

    3问题解决

    3.1 CentOS 64bit安装Hadoop2.2.0中出现文件编译位数异常

    在安装hadoop2.2.0过程中出现如下异常:Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

    clip_image124

    通过分析是由于lib/native目录中有些文件是在32位编译,无法适应CentOS 64位环境造成

    clip_image126

    有两种办法解决:

    l  重新编译hadoop,然后重新部署

    l  暂时办法是修改配置,忽略有问题的文件

    clip_image128

    3.2 编译Hadoop2.2.0出现代码异常

    目前的2.2.0 Source Code 压缩包解压出来的code有个bug 需要patch后才能编译。否则编译hadoop-auth 会提示下面错误:

    [ERROR] Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:2.5.1:testCompile (default-testCompile) on project hadoop-auth: Compilation failure: Compilation failure:

    [ERROR] /home/hadoop/Downloads/release-2.2.0/hadoop-common-project/hadoop-auth/src/test/java/org/apache/hadoop/security/authentication/client/AuthenticatorTestCase.java:[88,11] error: cannot access AbstractLifeCycle

    [ERROR] class file for org.mortbay.component.AbstractLifeCycle not found

    [ERROR] /home/hadoop/Downloads/release-2.2.0/hadoop-common-project/hadoop-auth/src/test/java/org/apache/hadoop/security/authentication/client/AuthenticatorTestCase.java:[96,29] error: cannot access LifeCycle

    [ERROR] class file for org.mortbay.component.LifeCycle not found

    clip_image130

    直接修改hadoop-common-project/hadoop-auth/pom.xml,其实就是少了一个包,添加一个dependency

    <dependency>

          <groupId>org.mortbay.jetty</groupId>

          <artifactId>jetty-util</artifactId>

          <scope>test</scope>

    </dependency>

    clip_image132

     

    clip_image134

    3.3 安装Hadoop2.2.0出现不能找到/etc/hadoop目录异常

    在安装过程中启动HDFS出现如下错误:

    2015-01-14 22:55:16,076 WARN  [main] util.NativeCodeLoader (NativeCodeLoader.java:<clinit>(62)) - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable]

    Error: Cannot find configuration directory: /etc/hadoop

    Error: Cannot find configuration directory: /etc/hadoop

    clip_image136

    127.0.0.1           localhost

    改为

    192.168.0.61      localhost

    clip_image138

    重启机器即可

  • 相关阅读:
    【腾讯敏捷转型NO.1】敏捷是什么鬼?
    【敏捷实用工具】JIRA介绍以及使用方法
    SpringCloud学习总结(三)——案例环境搭建
    SpringCloud学习总结(二)——SpringCloud微服务概述
    SpringCloud学习总结(一)——微服务基础知识
    IDEA jrebel 破解
    IDEA的几个常用配置,日常开发必备。
    java中实体类的区别
    zookeeper 学习总结(四)——基本使用
    zookeeper 学习总结(三)——linux上部署单机以及集群
  • 原文地址:https://www.cnblogs.com/erbing/p/7991779.html
Copyright © 2020-2023  润新知