• ubuntu 在下面 hadoop 安装


    这两天已经安装hadoop 这些道路是曲折的,记录它

    在redhat安装后一直无法开始datanode,因为jdk 问题,换了一个jdk后问题依然,自己猜測是redhat版本号太低的原因,于是仅仅好舍弃,换ubuntu


    ubantu版本号是13.04.比較稳定。


    安装前首先准备好材料。

    vmare 虚拟机 ,准备好jdk  和hadoop


    由于是虚拟机安装所以放到vmvare 共享目录以下。

    =====================================================================================================

    在安装这些之前要先安装ssh 我在開始装的时候没有发现ubantu没有装ssh 的server端仅仅有client。

    然后直接apt-get 发现又不能直接下,所以每次启动hadoop后仅仅有namenode的进程,datanode进程报错链接被拒绝,后来换了非常多个数据源包含国内国外都有,都是在更新数据源(sudo apt-get update)。失败。不知什么原因找了好久也没有解决方式(有知道的大牛能够告诉我)。最后没有办法仅仅能自己手动安装ssh了。

    安装ssh 准备好材料:


    1 安装zlib

    解压zlib 进入文件夹

    编译安装(1 ./configure 2 make 3 make install)

    2 安装openssl 

     步骤同上(./configure 改为./config)

    3 安装openssh

    同1

    4 getdit /etc/passwd

    增加以下一行

     sshd:x:74:74:Privilege-separated SSH:/var/empty/sshd:/sbin/nologin 

    5  启动ssh。ssh默认安装在/usr/local/sbin/文件夹下。使用 /usr/local/sbin/sshd 启动ssh服务,该服务默认侦听22port。

    检查ssh服务是否启动监听port是否为22:netstat -tnlp|grep :22

    ==============================================================================

    以上为安装ssh

    以下进入安装HADOOP正题:

    1 安装java 

    jdk 解压到/usr/java/jdk

    cd 到指定文件夹

    /mnt/hgfs/Ubantu/jdk-6u24-linux-i586.bin

    解压Hadoop安装包 

    hadoop 解压到/usr

    cd 到指定文件夹

    tar -zxvf /mnt/hgfs/Ubantu/hadoop-1.2.1.tar

    3 配置环境变量

    vi /etc/profile

    增加下面

    export JAVA_HOME=/usr/java/jdk1.6.0_24
    export HADOOP_HOME=/usr/hadoop-1.2.1

    export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH
    CLASSPATH=.:$HADOOP_HOME/bin:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
    export CLASSPATH

    4编辑conf/hadoop-env.sh

    增加 export JAVA_HOME=/usr/java/jdk1.6.0_24

    5伪分布式模式下Hadoop的配置例如以下(共同拥有三个文件要配置 位置在/conf下  )

    (1)core-site.xml

    <configuration>
        <property>
    <name>hadoop.tmp.dir</name>
    <value>/usr/hadoop-1.2.1/tmp</value>
        </property>
        <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
        </property>
    </configuration>

    (2)hdfs-site.xml

    <configuration>
    <property>
    <name>dfs.replication</name>
    <value>1</value>
    </property>
    </configuration>

    (3)mapred-site.xml

    <configuration>
    <property>
    <name>mapred.job.tracker</name>
    <value>localhost:9001</value>
    </property>
    </configuration>

    6 免passwordSSH设置

    生成密钥对 ssh-keygen -t rsa

    进入.ssh文件夹 运行 sp id_ras.pub authorized_keys

    运行ssh localhost 发现能够实现SSH链接不须要password

    7 创建tmp文件每次进行第八步都会生成一个tmp文件(注意每次又一次格式化的时候要删除tmp 由于当中tmp存有上次的namenode的namespaceID,但每次又一次format 会生成新的namenode namespaceID造成版本号不一致,从而下次运行9时。会造成namenode进程起不来)

    步骤5中core-site.xml中已经将tmp文件指向配置。

    8 格式化分布式文件系统

    bin/hadoop namenode -format


    9 启动Hadoop守护进程

    bin/start-all.sh


    jps命令能够发现有除了jps以外五个线程


    10 停止Hadoop守护进程

    bin/stop-all.sh


    版权声明:本文博客原创文章,博客,未经同意,不得转载。

  • 相关阅读:
    iOS开发UI篇—Quartz2D使用(绘图路径)
    iOS开发UI篇—Quartz2D简单使用(三)
    iOS开发UI篇—Quartz2D使用(图片剪切)
    WordPress主题开发: 制作文章页面single.php
    Wordpress页面判断
    为WordPress某个文章添加额外的样式
    Wordpress本地伪静态设置
    Wordpress添加关键词和描述
    Wordpress制作sidebar.php
    Wordpress固定链接设置
  • 原文地址:https://www.cnblogs.com/lcchuguo/p/4748449.html
Copyright © 2020-2023  润新知