• 搭建单节点Hadoop应用环境


    虚拟机: VirtualBox 5

    Server操作系统: 
    Ubuntu Server 14.04.3 LTS

    如果对虚拟机空间和性能不做考虑, 且不习惯用Linux命令, 你也可以使用Ubuntu Desktop版本, 配合VirtualBox的增强功能包, 操作简便, 可实现和主机相互拖拽文件, 以及共享剪贴板等等, 但虚拟机的资源消耗较大.
    也可以使用CentOS 6的各个版本, 比如LiveCD版.

    Hadoop版本: 2.6.2

    准备工作

    添加Hadoop专用用户

    optional, 出于安全性和便于管理的角度考虑, 建议单独为hadoop添加用户. 本例中用户名为hm

    安装相关软件包:

    • SSH:   本例使用openssh-server, 和openssh-client(一般Linux发行版都有默认安装)
    • JAVA: 本例使用openjdk-7-jdk (如果有多个openjdk版本, 请选择devel版本, 否则jps命令有可能无法使用)

    检查软件包是否已经安装

    输入命令

    hm@u14s64:~$ dpkg -l|grep -e ssh

    可以查看ssh软件包的安装状态. ii代表已经成功安装. 同理, 把ssh换做jdk即可查看jdk的安装情况.

    如果尚未安装上述软件包, 使用命令apt-get进行安装. 

    hm@u14s64:~$ sudo apt-get install openssh-server
    hm@u14s64:~$ sudo apt-get install openjdk-7-jdk

    如报错

    E: Package 'openssh-server' has no installation candidate

    运行一下apt-get update即可. 仍然有问题, 可以尝试去更新/etc/apt/source.list, 换个好一点的源, 比如mirrors.163.com/ubuntu等等.

    验证安装结果

    1. jps - JVM进程查看工具, 将来要用于查看Hadoop守护进程

    hm@u14s64:~$ jps

    应该可以看到至少有jps进程存在.

    2. ssh - 单机免密码登录 (hadoop伪分布模式和分布模式需要用到)

    hm@u14s64:~$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
    hm@u14s64:~$ cat .ssh/id_dsa.pub >> .ssh/authorized_keys
    hm@u14s64:~$ ssh localhost

    成功登录后, 输入exit退出当前ssh登录. 以后再输入ssh localhost就可以直接无密码登录.

    如果再次登录仍需要密码, 可能是authorized_keys的权限设置不对, 请修改后再测试

    hm@u14s64:~$ sudo chmod 600 .ssh/authorized_keys

     

    安装Hadoop

    下载解压

    从官网下载安装包, 这里使用2.6.2版本, 通过psftp把hadoop安装包上传到本server. e.g. /home/hm/hadoop-2.6.2.tar.gz

    解压文件到你的安装目录, 这里我把它安装在/home/hm/hadoop目录下:

    hm@u14s64:~$ tar -xzvf hadoop-2.6.2.tar.gz -C ~
    hm@u14s64:~$ mv hadoop-2.6.2 hadoop

    确认权限

    输入ls -la 确认hadoop文件夹及包含的所有文件所属的user和group是hm.

    hm@u14s64:~$ ls -la
    hm@u14s64:~$ ls -la hadoop/

    如果不是, 输入下面的命令改变拥有权: (保证hm用户可以正常运行hadoop的各个命令)

    hm@u14s64:~$ sudo chown -R -v hm:hm hadoop/

    修改环境变量

    hm@u14s64:~/hadoop$ vi etc/hadoop/hadoop-env.sh

    找到export JAVA_HOME=${JAVA_HOME}, 修改为绝对路径 export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

    使用yarn框架的话, 建议同时修改文件 etc/hadoop/yarn-env.sh, 找到下面这行:
    #export JAVA_HOME=/home/y/libexec/jdk1.6.0/
    修改为: export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-amd64

    注意: 如果不知道JDK安装路径, 使用下面的命令查找: (第一行命令用于确定server上jdk的软件包名称)

    hm@u14s64:~/hadoop$ dpkg -l|grep -e jdk
    hm@u14s64:~/hadoop$ dpkg -L openjdk-7-jdk

    Optional:
    如果想在其他路径下运行hadoop命令, 需要先运行下面的命令:

    hm@u14s64:~/hadoop$ export HADOOP_PREFIX=/home/hm/hadoop/
    hm@u14s64:~/hadoop$ export PATH=$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin

    如果要对所有用户永久生效, 则去/etc/profile文末添加这两行, 保存后, 运行source profile命令可以使其立即生效. (不推荐)

    在Ubuntu Server版中, 如果只对当前用户永久更改的话, 则将上述两个export加到.profile文件末尾: (推荐)

    hm@u14s64:~/hadoop$ vi ~/.profile
    hm@u14s64:~/hadoop$ source ~/.profile

    测试jdk设置是否成功

    hm@u14s64:~/hadoop$ bin/hadoop

    此时应该能显示hadoop命令的usage选项

    Local(Standalone)模式

    这是Hadoop的默认模式, 运行在单个Java进程里, 主要用于debug.

    下面我们做个演示, 拷贝hadoop自己的一些配置文件到input目录模拟需要处理的大数据, 运用MapReduce来分析dfs开头的字串的出现次数以及名字, 最后把结果输出到屏幕上

    1 hm@u14s64:~/hadoop$ mkdir input
    2 hm@u14s64:~/hadoop$ cp etc/hadoop/*.xml input
    3 hm@u14s64:~/hadoop$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.2.jar grep input output 'dfs[a-z.]+'
    4 hm@u14s64:~/hadoop$ cat output/*

    可以看到符合dfs开头的单次总共出现一次, 名为"dfsadmin"

    Pseudo-Distributed Mode (伪分布模式)

    修改hadoop配置文件

    一般来说总共有4个配置文件可以修改: (demo的具体修改见后文)

    core-site.xml    配置全局属性
    hdfs-site.xml    配置hdfs分布式文件系统相关属性
    mapred-site.xml   配置旧框架MapReduce相关属性
    yarn-site.xml    配置新框架yarn相关属性

    注意, mapred-site.xml比较特殊:

    • 使用MapReduce框架时, 通过该文件对MapReduce相关属性进行配置.
    • 使用yarn框架时, 该文件的新属性mapreduce.framework.name必须配置. 
      通常情况下这个配置的值都设置为 yarn, 如果没有配置这项, 那么提交的 yarn job 只会运行在Local模式,而不是分布式模式.
      此外, 新框架也可以通过该属性来支持第三方 MapReduce 开发框架, 比如 SmartTalk/DGSG 等非 Yarn 架构.


    想查看默认配置, 或者查看配置项解释, 可以在本地hadoop解压包里面, 搜索core-default.xml或者其他xxx-default.xml来参考. 一般位于share/doc/hadoop/hadoop-project-dist/hadoop-common中.

    也可以去 http://hadoop.apache.org/docs/ 选择你需要的版本, 点击左下侧的configuration中对应的xml文件即可. 

    不同Hadoop版本的属性名称有差别, 本例采用了较新的Hadoop 0.23.X 配置写法. 详细对比请看 http://www.ibm.com/developerworks/cn/opensource/os-cn-hadoop-yarn/

    etc/hadoop/core-site.xml
    输入命令

    hm@u14s64:~/hadoop$ sudo vi etc/hadoop/core-site.xml

    添加fs.defaultFS属性来指定默认文件系统的URI. 由于是单点伪分布式, host设为localhost. port设置要尽量避免冲突的可能性. 可以用netstat -anp | grep portNumber命令来查看端口使用状态.

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:49000</value>
        </property>
    </configuration>

    etc/hadoop/hdfs-site.xml

    同上, 使用vi设置缺省的hdfs数据块的默认副本数, 非伪分布式模式下, 如果有多个slave, 可以把默认副本数设置成至少和slave数量一致. 本例并无多个slave, 因此设置成1即可.

    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
    </configuration>

    使用旧MapReduce框架的单点伪分布式配置 (运行MapReduce Job)

    格式化文件系统

    注意, 默认情况下, 该操作会使用/tmp/hadoop-{username}/dfs/name作为hdfs的common storage路径, 如果之后再次格式化NameNode发生错误, 可以去删除tmp下对应目录来解决. 重启server也会自动删除tmp下的文件. 

    hm@u14s64:~/hadoop$ bin/hdfs namenode -format

    启动NameNode和DataNode的守护进程(deamon)

    hm@u14s64:~/hadoop$ sbin/start-dfs.sh

    仔细看输出的信息, 会看到

    Starting secondary namenodes [0.0.0.0]
    The authenticity of host '0.0.0.0 (0.0.0.0)' can't be established.

    SecondaryNameNode(snn)是作为NameNode的灾难备份而存在的, 我们的演示中暂时用不到, 所以直接忽略这个错误即可.

    此时输入命令jps, 查看jvm中的相关进程, 可以看到我们需要的守护进程都已经开启了:

    • SecondaryNameNode
    • DataNode
    • NameNode
    • Jps

    守护进程相关的log放在~/hadoop/logs文件夹中, 这些内容非常重要, 将来debug可以依靠这些log.

    配置HDFS

    hm@u14s64:~/hadoop$ bin/hdfs dfs -mkdir -p /user/hm

    既然是伪分布式, 我们接下来都不在本地进行文件操作, 而是去hdfs里面. 可以用命令

    hm@u14s64:~/hadoop$ bin/hdfs dfs -ls /user/hm

    查看hdfs中的文件和文件夹.

    接下来将input文件放到我们的分布式系统上去

    hm@u14s64:~/hadoop$ bin/hdfs dfs -mkdir /user/hm/input
    hm@u14s64:~/hadoop$ bin/hdfs dfs -put etc/hadoop/*.xml input

    运行MapReduce Job

    hm@u14s64:~/hadoop$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.2.jar grep input output 'dfs[a-z.]+'

    把hdfs上的output文件夹拿到本地来查看结果, 或者直接在hdfs上查看结果:

    hm@u14s64:~/hadoop$ bin/hdfs dfs -get output output
    hm@u14s64:~/hadoop$ cat output/*
    hm@u14s64:~/hadoop$ bin/hdfs dfs -cat /user/hm/output/*

    停止HDFS守护进程

    完工后, 停掉hdfs守护进程(daemon), 可以用jps检验

    hm@u14s64:~/hadoop$ sbin/stop-dfs.sh

    使用新yarn框架的单点伪分布式配置 (运行Yarn Job)

    修改etc/hadoop/mapred-site.xml

    默认情况下这个文件不存在, 所以先从模板新建一个

    hm@u14s64:~/hadoop$ cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

    设置好Framework名称

    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
    </configuration>

    修改etc/hadoop/yarn-site.xml

    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
    </configuration>

    配置HDFS

    接下来和旧框架的步骤一样:
    先格式化分布式文件系统(如果没重启, 接上面的步骤操作, 这个可以省略)
    启动NameNode和DataNode daemon
    然后创建好用户目录和input目录, 上传input数据 (没重启, 接上面操作的话, 这步也省略, 但是记得把output目录删除, 命令: hm@u14s64:~/hadoop$ bin/hdfs dfs -rm -r -f /user/hm/output )

    启动yarn框架的守护进程

    两个守护进程: ResourceManager和NodeManager

    hm@u14s64:~/hadoop$ sbin/start-yarn.sh

    可以用jps命令检查, 正确启动, 则可以看到, 除了NameNode, DataNode和SecondaryNameNode, 多了ResourceManager和NodeManager两个进程.

    运行MapReduce Job

    hm@u14s64:~/hadoop$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.2.jar grep input output 'dfs[a-z.]+' 

    对比输出信息, 可以看到和旧框架的运行方式有诸多不同. 

    如果运行出错, 可以根据具体的container id, 去logs文件夹查找root cause.

    同样, 运行output命令可以查看最终结果.

    结束守护进程

    任务完成, 运行下面的命令结束yarn守护进程

    hm@u14s64:~/hadoop$ sbin/stop-yarn.sh

    如果不再用到hdfs的守护进程, 则

    hm@u14s64:~/hadoop$ sbin/stop-dfs.sh
  • 相关阅读:
    在千万级的数据库查询中,如何提高效率?
    SQL的触发器和存储过程详解
    如何提高mysql的安全性?
    mysql的触发器
    HDU5564 Clarke and digits
    JOI2014Final 飞天鼠
    Topcoder10073 SRM418 BarracksEasy
    Topcoder9902 SRM416 DancingCouples
    Topcoder8307 SRM390 SetOfPatterns
    POJ1741 Tree(点分治)
  • 原文地址:https://www.cnblogs.com/haibinyuan/p/5148903.html
Copyright © 2020-2023  润新知