• Apache Hadoop集群离线安装部署(一)——Hadoop(HDFS、YARN、MR)安装


    虽然我已经装了个Cloudera的CDH集群(教程详见:http://www.cnblogs.com/pojishou/p/6267616.html),但实在太吃内存了,而且给定的组件版本是不可选的,如果只是为了研究研究技术,而且是单机,内存较小的情况下,还是建议安装Apache的原生的集群拿来玩,生产上自然是Cloudera的集群,除非有十分强大的运维。

    我这次配了3台虚拟机节点。各给了4G,要是宿主机内存就8G的,可以搞3台2G,应该也是ok的。

    Apache Hadoop集群离线安装部署(一)——Hadoop(HDFS、YARN、MR)安装:http://www.cnblogs.com/pojishou/p/6366542.html

    Apache Hadoop集群离线安装部署(二)——Spark-2.1.0 on Yarn安装:http://www.cnblogs.com/pojishou/p/6366570.html

    Apache Hadoop集群离线安装部署(三)——Hbase安装:http://www.cnblogs.com/pojishou/p/6366806.html

    〇、安装文件准备

    Hadoop 2.7.3:http://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz

    一、虚拟机准备

    设置ip地址,hosts,ssh免密登录,scp,sudo,关闭防火墙,yum,ntp时间同步 略。

    Java安装 略。

    参考:http://www.cnblogs.com/pojishou/p/6267616.html

    二、Hadoop安装

    1、解压

    tar -zxvf hadoop-2.7.3.tar.gz -C /opt/program/
    ln -s /opt/hadoop-2.7.3 /opt/hadoop

    2、修改配置文件

    (1)、hadoop-env.sh

    vi /opt/hadoop/etc/hadoop/hadoop-env.sh
    
    export JAVA_HOME=/opt/java

    (2)、core-site.xml

    vi /opt/hadoop/etc/hadoop/core-site.xml
    
    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://node00:9000</value>
        </property>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/opt/hadoop/tmp</value>
        </property>
    </configuration>

    (3)、hdfs-site.xml

    vi /opt/hadoop/etc/hadoop/hdfs-site.xml
    
    <configuration>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>/opt/hadoop/data/name</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>/opt/hadoop/data/data</value>
        </property>
    
        <property>
            <name>dfs.replication</name>
            <value>3</value>
        </property>
    
        <property>
            <name>dfs.secondary.http.address</name>
            <value>node00:50090</value>
        </property>
    </configuration>

    (4)、mapred-site.xml

    vi /opt/hadoop/etc/hadoop/mapred-site.xml
    
    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>

    (5)、yarn-site.xml

    vi /opt/hadoop/etc/hadoop/yarn-site.xml
    
    <configuration>
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>node00</value>
        </property>
    
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>

    (6)、slaves

    node01
    node02

    3、初始化HDFS

    /opt/hadoop/bin/hadoop namenode -format

    4、启动集群

    /opt/hadoop/sbin/start-all.sh

    5、测试

    /opt/hadoop/bin/hadoop jar /opt/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar pi 5 10

    求出pi就ok了

  • 相关阅读:
    Python+Selenium自动化篇-3-设置浏览器大小、刷新页面、前进和后退
    Python+Selenium自动化篇-2-定位页面元素的八种方法
    Python+Selenium自动化篇-1-安装模块和浏览器驱动操作方法
    02_Python_数据容器(列表、元祖、集合、字典)
    01_Python_基础知识(变量、字符串、条件控制)
    orm单表操作
    模版导入与继承
    django模板层
    orm视图函数层
    orm路由层
  • 原文地址:https://www.cnblogs.com/pojishou/p/6366542.html
Copyright © 2020-2023  润新知