• 基于大数据的电影网站项目开发之Hadoop2.6.0伪分布式设置(二)


    一、jdk的安装

    1、将linux版本的jdk通过xftp上传到hadoop用户目录下,在这之前首先需要安装Xshell和Xftp,在安装完成后,打开xshell并新建会话;

    输入会话名称,协议选择SSH,输入虚拟机内主机的IP,这个IP的配置在上一篇文章已经进行了讲解。

    在输入完毕后进行连接,然会会提示你输入用户名和密码,即主机的用户名和密码(用户名为你当时配置的简称),然会连接成功,如下图所示

    接下来打开xftp


    新建一个soft文件夹,用于存放jdk、hadoop等软件

    将jdk免安装压缩包(我这里使用的是jdk-8u121-linux-x64.tar.gz,请在网上自行下载)Ctrl+C、Ctrl+V复制到soft目录下;

    然后在xshell中输入命令 cd soft进入soft文件夹,输入tar -zxvf jdk-8u121-linux-x64.tar.gz命令进行解压;

    解压完成后,在oracle用户的根目录有一个jdk1.8.0_121目录

     

    2、配置环境变量,需要修改/etc/profile文件(root用户操作)

    切到root用户,输入命令vi /etc/profile;进去编辑器后,输入i,进入vi编辑器的插入模式;

    在profile文件最后添加

    JAVA_HOME=/home/hadoop/jdk1.8.0_121

    export PATH=$PATH:$JAVA_HOME/bin

    编辑完成后,按下esc退出插入模式

    输入:,这时在左下角有一个冒号的标识,输入wq进行保存退出

    q   退出不保存

    wq 保存退出

    q!   强制退出

    3、把修改的环境变量生效(hadoop用户操作)

    在用户根目录下执行source /etc/profile(进入用户根目录的命令:cd ~)

    二、Hadoop安装

    1、通过xftp将hadoop-2.6.0.tar.gz上传到虚拟机中,操作步骤和上传jdk基本一致,在soft目录下使用tar -zxvf hadoop-2.6.0.tar.gz进行解压;

    解压完成在oracle用户的根目录下有一个hadoop-2.6.0目录

    2、修改配置文件hadoop-2.6.0/etc/hadoop/hadoop-env.sh(hadoop用户操作)

    export JAVA_HOME=/home/hadoop/soft/jdk1.8.0_121

    3、修改配置文件hadoop-2.6.0/etc/hadoop/core-site.xml,添加(hadoop用户操作)

    <property>

             <name>fs.defaultFS</name>

             <value>hdfs://oracle:9000</value>

    </property>

    4、修改配置文件hadoop-2.6.0/etc/hadoop/hdfs-site.xml,添加(hadoop用户操作)

    <property>

            <name>dfs.replication</name>

             <value>1</value>

    </property>

    5、修改修改配置文件hadoop-2.6.0/etc/hadoop/mapred-site.xml(hadoop用户操作)

    这个文件没有,需要复制一份

    cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

    添加

    <property>

    <name>mapreduce.framework.name</name>

    <value>yarn</value>

    </property>

    6、修改配置文件hadoop-2.6.0/etc/hadoop/yarn-site.xml,添加(hadoop用户操作)

    <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

    </property>

    7、修改/etc/hosts文件(root用户操作),添加:ip 主机名称(这里根据自己的设置填写)

    192.168.159.99  hadoop

    8、格式化HDFS,在hadoop解压目录下,执行如下命令:(hadoop用户操作)

    bin/hdfs namenode –format

    注意:格式化只能操作一次,如果因为某种原因,集群不能用,需要再次格式化,需要把上一次格式化的信息删除,在/tmp目录里执行rm–rf *

    9、启动集群,在hadoop解压目录下,执行如下命令:(hadoop用户操作)

    启动集群:sbin/start-all.sh需要输入四次当前用户的密码(通过配置ssh互信解决)

    启动后,在命令行输入jps有以下输出

    [meng@hadoop hadoop-2.6.0]$ jps

    32033 Jps

    31718 SecondaryNameNode

    31528 DataNode

    31852 ResourceManager

    31437 NameNode

    31949 NodeManager

    关闭集群:sbin/stop-all.sh需要输入四次当前用户的密码(通过配置ssh互信解决)

    三、SSH互信配置(hadoop用户操作)

    rsa加密方法,公钥和私钥

    1、生成公钥和私钥

    在命令行执行ssh-keygen(注意-前没有空格),然后回车,然后会提示输入内容,什么都不用写,一路回车

    在hadoop用户根目录下,有一个.ssh目录

    id_rsa        私钥

    id_rsa.pub  公钥

    known_hosts    通过SSH链接到本主机,都会在这里有记录

    2、把公钥给信任的主机(本机)

    在命令行输入ssh-copy-id 主机名称

    例如 ssh-copy-id hadoop

    复制的过程中需要输入信任主机的密码

    3、验证,在命令行输入:ssh 信任主机名称

    ssh hadoop

    如果没有提示输入密码,则配置成功

    接下来会简单介绍一下hadoop的基本操作命令

  • 相关阅读:
    《朗读手册》【美】吉姆·崔利斯
    《web全栈工程师的自我修养》 读书笔记
    2016/06 书单
    PostgreSQL数据库的安装
    MySQL数据库的安装
    异构数据库迁移——DATAX
    初探12C碰到的那些“坑”
    关于Ubuntu 16.04 pip安装Docker-Compose
    启动与关闭容器
    容器标识符
  • 原文地址:https://www.cnblogs.com/java-meng/p/7513502.html
Copyright © 2020-2023  润新知