• Hadoop的学习前奏(一)——在Linux上安装与配置Hadoop


    前言

      笔者眼下是在做Android开发,又是在一个信息安全的公司。公司的主要是做在虚拟机上运行的产品,又涉猎云计算,心想是要去搞一下云计算。自我感觉移动互联网 + 云计算 + 信息安全会是一个非常好的方向,于是投身当中。

    由于是Java出身。所以自然而然选择了Hadoop。


    笔者系统环境

    Linux:  CentOS release 6.5 (Final)
    JDK:    java version "1.7.0_75"
            OpenJDK Runtime Environment (rhel-2.5.4.0.el6_6-x86_64 u75-b13)
            OpenJDK 64-Bit Server VM (build 24.75-b04, mixed mode)
    SSH:    OpenSSH_5.3p1, OpenSSL 1.0.1e-fips 11 Feb 2013

    Hadoop: hadoop-1.2.1


    环境搭建

    1.安装JDK

      关于JDK的安装。不是本博客的讨论范围,大家能够自行百度或是Google进行安装。


    2.配置SSH免password登录

      在你的机器能够联网的前提下进行例如以下操作

      (1) # yum install openssh-server # 安装SSH

      (2) # yum -y install openssh-clients

          # 假设你安装SSh完毕之后,运行ssh出现系统无法识别ssh的话,须要另外安装openssh-clients

      (3) # mkdir -p ~/.ssh # 假设你在安装完SSH后,这些文件夹都未自己主动生成,请自行创建

      (4) # ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa

          ssh-keygen 表示生成密钥

          -t 表示指定生成的密钥类型

          dsa 是dsa密钥认证的意思,即密钥类型

          -P 提供密语

          -f 指定生成的密钥文件

      (5) # cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

          # 将公钥加到用于认证的公钥文件里。authorized_keys是用于认证的公钥文件

      (6) # ssh -version

          # 验证SSH是否安装完毕,正确安装会有相似例如以下的结果:

          

      (7)至此主要的配置已经几乎相同了,只是还是不能够进行免password登录。最后一步就是要配置两个东西的权限属性:

         $ chmod 700 ~/.ssh
         $ chmod 600 ~/.ssh/authorized_keys

         这两步是必要的。不然你可能就不能免password登录了。

      (8)$ ssh localhost # 验证


    3.安装并运行Hadoop

      (1)下载hadoop-x.x.x

         解压到指定文件夹。比如/home/u


      (2)改动配置文件的配置信息

          # vim ~/hadoop-1.2.1/conf/core-site.xml

          

          # vim ~/hadoop-1.2.1/conf/hdfs-site.xml

          

          # vim ~/hadoop-1.2.1/conf/mapred-site.xml

          

      (3) # ~/hadoop-1.2.1/bin/hadoop namenode -format # 格式化文件系统


      (4) # ~/hadoop-1.2.1/bin/start-all.sh # 启动全部进程


      (5)验证Hadoop是否成功安装

         进入浏览器,分别输入下面网址进行验证:

         http://localhost:50030 (MapReduce的Web页面)

         http://localhost:50070 (HDFS的Web页面)

         验证演示样例:

         MapReduce的Web页面

         


         HDFS的Web页面

         


    遇到的问题

    1.启动Hadoop时,总是说JAVA_HOME未配置

      

      当我使用教程中的shell命令在hadoop文件夹中运行bin/start-all.sh时,老是报JAVA_HOME is not set.

      但是我在shell里也设置了JAVA_HOME了啊,并且我去查看系统中的JAVA_HOME也是OK的,例如以下:

      

      这一点让我非常是奇怪。如是我找到一篇论坛,里面的情况和我的有一些相似。只是他的一句话让我察觉到自己的搞错了一个地方。那就是上面提示的JAVA_HOME事实上是要在配置文件里去设置的。

      运行vim ~/hadoop-1.2.1/conf/hadoop-env.sh,这个文件夹请依据自己你的路径来写,改动例如以下:

      


    2.-bash: bin/hadoop: Permission denied

    这里假设你是在Linux下直接从网络上下载的话,应该会没什么事情。只是,假设你跟笔者一样。是使用WinSCP上传到Linux上的话,这里能够会有一个小地方须要改动。

    不然会报这样一个错误:

      

      能够看到这个错误是在我们运行hadoop这个可运行文件时报的错误。那我们就仅仅要对这个文件进行权限的改动就能够了。由于后面的还会用到一些其它的可运行文件,那么这里我就对全部的文件都做了一个可运行权限的改动(当然,这里是由于我们是在学习和測试阶段,为了避免麻烦,偷了个懒。假设要从安全的角度来考虑,这里我们是不能这样做的)。


    3.Hadoop SafeMode: ON - HDFS unavailable

      当然我们把之前的一些配置信息都搞了的时候。这时可能还会有一个问题,就是我们HDFS的Web页面无法訪问。

      

      这个问题事实上是我们之前的一些错误配置遗留下来的问题。我们之前说过一个运行文件的权限问题,我们在操作格式化HDFS时,这个正是这个权限的问题在干扰。如是我把之前启动的进程都stop掉。

    然后又一次format就OK了。

      格式化HDFS正确时的提示信息例如以下:

      

  • 相关阅读:
    C艹老师布置的思考题
    计蒜客练习题:网页跳转(java / C++仔细)
    计蒜客练习题:水果店(嵌套map)
    计蒜客练习题:蒜头君面试(map + max_element)
    小希的迷宫 HDU 1272(并查集)
    OpenJ_Bailian 1061
    Aizu 2224(并查集)
    Aizu 0189 (最短路)
    POJ 2377(最大生成树)
    OpenJ_Bailian 4118(dp)
  • 原文地址:https://www.cnblogs.com/wgwyanfs/p/6728020.html
Copyright © 2020-2023  润新知