• hadoop分布式安装



    1、上传
    2、解压

    tar -zxvf hadoop-2.6.5.tar.gz -C apps/

    3、重命名

    mv hadoop-2.6.5/ hadoop

    4、配置hadoop环境变量
    5、修改配置文件
    5.1、编辑hadoop-env.sh,修改JAVA_HOME

    export JAVA_HOME=/usr/jdk1.7.0_79 

    5.2、编辑core-site.xml修改如下

    <configuration>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://m1:9000</value>
    </property>
    <property>
    <name>hadoop.tmp.dir</name>
    <value>/home/hadoop/apps/hadoop/tmp</value>
    </property>
    <property>
    <name>hadoop.proxyuser.hadoop.hosts</name>
    <value>*</value>
    </property>
    <property>
    <name>hadoop.proxyuser.hadoop.groups</name>
    <value>*</value>
    </property>
    </configuration>

    5.3、修改hdfs-site.xml,如下

    <configuration>
    <property>
    <name>dfs.replication</name>
    <value>2</value>
    </property>
    </configuration>

    5.4、修改mapred-site.xml,如下

    <configuration>
    <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
    </property>
    </configuration>

    5.4、修改yarn-site.xml,如下

    <configuration>
    <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
    </property>
    
    <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>m1</value>
    </property>
    </configuration>

    5.5、修改slaves,执行DataNode节点,一行一个

    m2
    m3

    6、分发到其他机器

    scp -r hadoop/ m2:$PWD
    scp -r hadoop/ m3:$PWD

    7、由于是第一次启动,因此在启动前需要格式化(NameNode节点上格式化)

    hdfs namenode -format
    

      


    8、启动hdfs, start-dfs.sh
    9、启动yarn, start-yarn.sh
    10、访问 http://m1:50070, 查看hdfs是否启动正常
    11、访问 http://m1:8088, 查看yarn是否启动正常

  • 相关阅读:
    10_树基础部分
    11_多线程
    14_JUC
    Servlet代码实例
    关于JSP引用资源路径
    Struts2代码实例
    hadoop三大核心组件介绍
    presto自定义函数开发
    git使用
    hive优化总结
  • 原文地址:https://www.cnblogs.com/heml/p/6760827.html
Copyright © 2020-2023  润新知