• CentOS7上安装伪分布式Hadoop


    1.下载安装包

    下载hadoop安装包

    官网地址:https://hadoop.apache.org/releases.html

    版本:建议使用hadoop-2.7.3.tar.gz

    系统环境:CentOS 7

    注:需要装有JDK支持,版本1.8或者更高

    2.解压安装包

    • 默认软件安装路径为 /usr/soft,因此先传输安装包到该路径下
    cd /usr/soft
    tar -zxvf hadoop-2.7.3.tar.gz
    

    3.环境变量配置

    vi /ect/profile
    

    文件末尾换行追加以下内容

    export HADOOP_HOME=/usr/soft/hadoop-2.7.3
    export HADOOP_MAPRED_HOME=HADOOP_HOME
    export HADOOP_COMMON_HOME=HADOOP_HOME
    export HADOOP_HDFS_HOME=HADOOP_HOME
    export YARN_HOME=HADOOP_HOME
    export HADOOP_COMMON_LIB_NATIVE_DIR=HADOOP_HOME/lib/native
    export PATH=PATH:HADOOP_HOME/sbin:HADOOP_HOME/bin
    export HADOOP_INSTALL=$HADOOP_HOME
    

    修改完配置后,更新文件

    source /etc/profile
    

    4.伪分布式配置

    文件目录:/usr/soft/hadoop-2.7.3/etc/hadoop/

    需要修改的文件:core-site.xml、hdfs-site.xml、mapred-site.xml 、yarn-site.xml

    a) core-site.xml

    先在hadoop文件夹内touch一个目录名为tmp

    cd /usr/soft/hadoop-2.7.3
    mkdir tmp
    

    向文件中的configuration标签内添加以下内容:

    1)fs.defaultFS = hdfs://192.168.0.103:9000 默认文件系统(本地默认 file:/位置)此处端口与HBASE端口设成一样

    2)hadoop.tmp.dir=/usr/soft/hadoop-2.7.3/tmp

    b) hdfs.site.xml

    dfs.replication = 1 (副本个数,最少3个伪分布只写1个),进程于主机关系

    c) mapred-site.xml

    目录内并没有全名为mapred-site.xml的文件,但是有一个名为:mapred-site.xml.template

    复制该文件重新命名为mapred-site.xml;

    cd /usr/soft/hadoop-2.7.3/etc/hadoop/
    cp mapred-site.xml.template mapred-site.xml
    

    修改配置文件:Mapreduce.framewok.name=yarn ,设置映射化简模型框架为yarn

    <property>
    <name>mapreduce.framewok.name</name>
    <value>yarn</value>
    </property>
    

    d) yarn-site.xml

    Yarn.resourcemanager.localhost=localhost //yarn站点名称

    Yarn.nodemanager.aux-service=mapreduce_shuffle //辅助节点管理

    e) hadoop-env.sh (可选)

    最好将jdk配置的相对路径更改为绝对路径

    文件修改完成!

    5.配置SSH(安全套接字处理)

    目的是使用脚步启动远程服务器的启动,必须使用shell登陆远程服务,但每个登陆都需要输入密码就非常麻烦,所有需要配置无密配置,需要在NameNode上生成私钥,把公钥发给DataNode

    a) 生成秘钥对

    ssh-keygen -t rsa
    

    b)把公钥拷贝到秘钥库中

    伪分布式时,复制到自己

    cd ~/.ssh/
    cat id_rsa.pub >> authorized_keys
    

    完全分布式时,复制到DataNode(另一个计算机节点)

    scp  root@主机名:~/.ssh/id_rsa.pub  ~/.ssh/id_rsa.pub
    cat  ~/.ssh/id_rsa.pub  >> ~/.ssh/authorized_keys
    

    c) 把authorized_key权限设置为600

    chmod 600 ~/.ssh/authorized_keys

    注:想在宿主机中访问hadoop站点步骤

    修改虚拟机中/etc/hosts文件删除127.0.0.1信息

    增加信息

    本机IP master
    本机IP slave
    本机IP localhost
    

    6.格式化NameNode

    hdfs namenode -format
    

    如果提示没找到命令,重新检查第三步环境变量配置

    7.启动Hadoop

    启动命令(都存放在sbin 文件夹下)

    cd /usr/soft/hadoop-2.7.3/sbin/
    
    start-all.sh
    或
    start-dfs.sh 
    start-yarn.sh
    

    8 检查启动状态

    浏览器访问地址,出现页面即成功

    本机地址:50070
    

  • 相关阅读:
    网线接线分类
    MongoDB修改用户密码
    win10计算器和商店英文改中文
    电脑微信双开
    ajax
    get和post的区别
    javascript中各种继承方式的优缺点
    原型
    高阶函数的封装
    深浅拷贝
  • 原文地址:https://www.cnblogs.com/whoyoung/p/10988546.html
Copyright © 2020-2023  润新知