• 单节点安装cdh版 hdfs hive


    本篇文章单节点安装 hdfs hive ,实乃学习大数据必备的教程,环境为:Centos7 JDK8.0 cdh5.15.1

    下载地址: http://archive.cloudera.com/cdh5/cdh/5/

    hadoop版本:hadoop-2.6.0-cdh5.15.1.tar.gz

    hive: http://archive.cloudera.com/cdh5/cdh/5/hive-1.1.0-cdh5.15.1.tar.gz

    官方hadoop单节点安装教程: http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html

    关闭防火墙

    systemctl status firewalld.service
    
    systemctl disable firewalld.service
    

      

    配置java 环境变量

    export JAVA_HOME=/usr/local/java
    
    export CLASSPATH=.:JAVA_HOME/jre/lib/rt.jar:JAVAH​OME/jre/lib/rt.jar:JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
    
    export PATH=PATH:PATH:JAVA_HOME/bin
    

      

    配置ssh免密登录

    注意:单节点机器也需要配置本机 ssh无密码登录 ssh-keygen -t rsa

    cat id_rsa.pub >> authorized_keys
    
    chmod g-w authorized_keys 设置权限 否则不起效
    

      

    解压到 app目录

    /home/hadoop/app/hadoop-2.6.0-cdh5.15.1

    • hadoop目录基本了解
    • bin/ hadoop客户端
    • etc/hadoop hadoop 相关配置目录
    • sbin 启动hadoop相关进程脚本
    • share 示例程序

    配置 hadoop-env.sh

    vim hadoop-env.sh

    #配置 java_home
    export JAVA_HOME=/usr/local/java/jdk1.8.0_221
    

    配置 core-site.xml

    配置HDFS文件默认系统主节点和端口

    <configuration>
    	<property>
    		<name>fs.defaultFS</name>
    		<value>hdfs://hadoop:8020</value>
    	</property>
    </configuration>
    

      

    配置 hdfs-site.xml

    因为是单节点,所以要调整副本系数

    <configuration>
    	<property>
    		<name>dfs.replication</name>
    		<value>1</value>
    	</property>
    </configuration>
    

      

    还需要配置 hadoop.tmp.dir 临时目录放在我们 /home/hadop/app/tmp 下

    <property>
     <name>hadoop.tmp.dir</name>
     <value>/home/hadoop/app/tmp</value>
     </property>
    

      

    配置datanode机器地址

    vim  slaves   填入  hadoop
    
    

    配置hadoop到环境变量

    vim ~/.bash_profile
    export HADOOP_HOME=/home/hadoop/app/hadoop-2.6.0-cdh5.15.1
    export PATH=$HADOOP_HOME/bin:$PATH
    

      

    启动 hdfs

    第一次执行的时候一定要格式化 hdfs 文件系统。

    hdfs namenode -format
    
    

    正式启动 到 hadoop/sbin目录下面

    ./start-dfs.sh
    
    

    浏览器查看 http://192.168.1.100:50070/dfshealth.html#tab-overview

    停止 hdfs

    ./stop-dfs.sh 
    
    

    单独启动

    hadoop-daemon.sh start namenode
    hadoop-daemon.sh start datanode
    hadoop-daemon.sh start secondarynamenode
    

      

  • 相关阅读:
    模板 素数筛选
    模板 BFS
    模板 01背包
    模板 计算1的个数
    模板 最长公共子序列
    模板 最长递增子序列
    模板 最长公共递增子序列
    zjuoj 3602 Count the Trees
    zjuoj 3608 Signal Detection
    zjuoj 3606 Lazy Salesgirl
  • 原文地址:https://www.cnblogs.com/gwyy/p/12204503.html
Copyright © 2020-2023  润新知