• CentOS6.9安装HDFS


    1、安装依赖包

    yum install -y gcc openssh-clients

    2、升级glib2.14

    升级glibc-2.14用到的rpm

    下载地址:https://pan.baidu.com/s/1v-Uk579TGM6498cExst6ow

    开始升级glib2.14

    rpm -Uvh glibc-2.14.1-6.x86_64.rpm glibc-common-2.14.1-6.x86_64.rpm glibc-headers-2.14.1-6.x86_64.rpm glibc-devel-2.14.1-6.x86_64.rpm nscd-2.14.1-6.x86_64.rpm

    查看glib版本

    ldd --version

    3、配置jdk1.8

    下载地址:https://pan.baidu.com/s/1wCJ4P3049nJyOCQDu8PYzw

    将gz包放在/usr/local下

    tar zxvf jdk-8u161-linux-x64.tar.gz
    mv jdk1.8.0_161 jdk

    配置/etc/profile文件,在最后增加如下内容

    vi /etc/profile

    export JAVA_HOME=/usr/local/jdk
    export JRE_HOME=/usr/local/jdk/jre
    export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
    export PATH=$JAVA_HOME/bin:$PATH

    让配置生效

    source /etc/profile

    4、配置hosts文件

    先用hostname获取机器名

    vi /etc/hosts

    配置机器的IP和机器名

    5、设置ssh-keyge

    ssh-keygen -t rsa

    一路回车

    cd /root/.ssh
    cat id_rsa.pub >>authorized_keys

    6、开始安装hadoop

    下载地址:https://pan.baidu.com/s/1Q0171QSfL1E6AgaQs2tQ9g

    将gz包放在/usr/local下

    tar zxvf hadoop-3.0.0.tar.gz
    mv hadoop-3.0.0 hadoop

    创建目录

    mkdir -p /usr/local/hadoop/tmp
    mkdir -p /usr/local/hadoop/hdfs/name
    mkdir -p /usr/local/hadoop/hdfs/data

    修改配置文件

    vi /usr/local/hadoop/etc/hadoop/core-site.xml

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://10.10.6.170:9000</value>
        </property>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>file:/usr/local/hadoop/tmp</value>
        </property>
    </configuration>

    vi /usr/local/hadoop/etc/hadoop/hdfs-site.xml

    <configuration>
        <property>  
            <name>dfs.replication</name>
            <value>1</value>
        </property> 
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/usr/local/hadoop/hdfs/name</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/usr/local/hadoop/hdfs/data</value>
        </property>  
    </configuration>

    vi /usr/local/hadoop/sbin/start-dfs.sh
    vi /usr/local/hadoop/sbin/stop-dfs.sh

    这两个文件的第二行增加下如内容:

    HDFS_DATANODE_USER=root
    HDFS_DATANODE_SECURE_USER=hdfs
    HDFS_NAMENODE_USER=root
    HDFS_SECONDARYNAMENODE_USER=root

    vi /usr/local/hadoop/etc/hadoop/hadoop-env.sh

    在55行左右增加如下内容

    export JAVA_HOME=/usr/local/jdk/

    执行HDFS的格式化

    /usr/local/hadoop/bin/hadoop namenode -format

    启动HDFS

    /usr/local/hadoop/sbin/start-dfs.sh

    出现Warning没关系,停止HDFS再启动就没有了

    停止HDFS

    /usr/local/hadoop/sbin/stop-dfs.sh

    简单使用

    cd /usr/local/hadoop/bin

    查看根目录下的空间使用情况

    ./hadoop fs -df -h /

     

    使用touchz创建一个空文件

    ./hadoop fs -touchz /hello

    查看根目录下的文件

    ./hadoop fs -ls /

    使用put从其他目录拷贝一个文件到HDFS根目录下

    ./hadoop fs -put /usr/local/jdk-8u161-linux-x64.tar.gz /

    再次查看根目录下的文件

    ./hadoop fs -ls /

  • 相关阅读:
    复制构造函数
    c++运算符优先级
    std::condition_variable(二)
    std::condition_variable
    std::unique_lock
    std::lock_guard
    Oracle 11gR2 11.2.0.1 ( 11.2.0.1的BUG?):ohasd不能正常启动:ioctl操作:npohasd的问题:【chmod a+wr /var/tmp/.oracle/npohasd】
    bat、cmd、dos窗口:后台调用,不显示黑色的控制台dos(命令行)窗口
    Ubuntu 安装 Oracle11gR2:'install' of makefile '/home/oracle/app/oracle/product/11.2.0/dbhome_1/ctx/lib/ins_ctx.mk'
    Ubuntu 10.04 安装 Oracle11gR2
  • 原文地址:https://www.cnblogs.com/kgdxpr/p/8616565.html
Copyright © 2020-2023  润新知