• Ubuntu 14.10 下安装伪分布式hdoop 2.5.0


    折腾了一天,其间配置SSH时候出现了问题,误删了ssh-keygen相关文件,导致配置SSH彻底萎了,又重装了系统。。。。

    采用伪分布式模式,即hadoop将所有进程运行于同一台主机上,但此时Hadoop将使用分布式文件系统,而且各jobs也是由JobTracker服 务管理的独立进程。同时,由于伪分布式的Hadoop集群只有一个节点,因此HDFS的块复制将限制为单个副本,其secondary-master和 slave也都将运行于本地主机。此种模式除了并非真正意义的分布式之外,其程序执行逻辑完全类似于完全分布式,因此,常用于开发人员测试程序执行。

    安装步骤

    1 下载hadoop源码包,自己编译。参考前面文章http://www.cnblogs.com/liuchangchun/p/4087231.html

    2 JDK安装

      (1)jdk下载
          链接: http://pan.baidu.com/s/1jGr41SU 密码: rawv
      (2)jdk解压到合适目录

      (3)配置环境变量

    export JAVA_HOME=/usr/dev/jdk1.7.0_51
    export HADOOP_HOME=/home/lcc/software/hadoop/hadoop-2.5.0
    export HBASE_HOME=/home/lcc/software/hadoop/hbase-0.99.0
    export LD_LIBRARY_PATH=/home/lcc/software/dev/protobuf-2.5.0
    export ANT_HOME=/usr/dev/apache-ant-1.9.4
    export PATH=$PATH:$ANT_HOME/bin:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin
    export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib

    3 配置hadoop

      3.1 解压hadoop到合适位置

      3.2 配置hadoop环境变量,参考上面

      3.3 进入hadoop文件家,配置etc/hadoop中的文件

        3.3.1 配置hadoop-env.sh

    export JAVA_HOME="/usr/dev/jdk1.7.0_51"

        3.3.2 配置core-site.xml

    <configuration>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://localhost:9000</value>
        </property>
    
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/home/lcc/software/hadoop/hadoop-2.5.0/tmp</value>
        </property>
    </configuration>

        3.3.3 配置hdfs-site.xml,做如下配置(系统默认文件保存3份,因伪分布模式,故改为1份)

    <configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
    <property> <name> dfs.namenode.name.dir</name> <value>/home/lcc/software/hadoop/hadoop-2.5.0/dfs/name</value> </property>
    <property> <name>dfs.datanode.data.dir</name> <value>/home/lcc/software/hadoop/hadoop-2.5.0/dfs/data</value> </property> </configuration>

        3.3.4 配置mapred-site.xml.template

    <configuration>
         <property>
           <name>mapred.job.tracker</name>
           <value>localhost:9001</value>
         </property> </configuration>

        3.3.5 配置yarn-site.xml

    <configuration>
    
    <!-- Site specific YARN configuration properties -->
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
          </property>
    
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
          </property>
    </configuration>

      3.4 设置ssh免密码登录,注意实在root目录下

    ssh-keygen -t rsa -P ""
    cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_key

        输入ssh localhost 看看能否登录

      3.5 格式化节点信息

    hadoop namenode –format

      3.6 进度hadoop目录,启动hadoop

    sbin/start-all.sh

      3.7 用命令jps查看是否启动成功,如果出现大概如下信息说明成功了

    28522 NodeManager
    27997 DataNode
    28206 SecondaryNameNode
    28380 ResourceManager
    27823 NameNode
    6612 Jps

      3.8 进度hadoop目录,停止hadoop

    sbin/stop-all.sh

      3.9 http://localhost:50070 这是hdfs的页面

      3.10 http://localhost:8088 hadoop进程管理页面

      3.11 禁用IPV6

        3.11.1 编辑grup文件

    sudo nano /etc/default/grub

        3.11.2 将文件中的  GRUB_CMDLINE_LINUX_DEFAULT="quiet spalsh"  修改为

    GRUB_CMDLINE_LINUX_DEFAULT="ipv6.disable=1 quiet splash"

        3.11.3 保存后运行sudo update-grub更新
        3.11.4 重启网络服务

    /etc/init.d/network-manager restart

        3.11.5. 可以使用  ip a | grep inet6 查看关闭情况,若没有结果则说明禁用IPv6成功

  • 相关阅读:
    AR_销售订单收款基本操作(流程)
    AR_标准应收过账至总账基本操作(流程)
    AP_建立银行信息总行、分行、账户(设定)
    AP_费用报表报销基本操作(流程)
    AP_付款方式汇总:标准付款、退款退货付款、撤销付款(概念)
    AP_标准预付款核销基本操作(流程)
    AP_标准采购单付基本操作(流程)
    AP_创建标准发票后会计科目的变化(概念)
    Workflow_标准控件Wait_For_Flow和Contiune_Flow的用法(案例)
    Workflow_将一个消息同时发给通过用户(案例)
  • 原文地址:https://www.cnblogs.com/liuchangchun/p/4097286.html
Copyright © 2020-2023  润新知