• HADOOP之HDFS环境搭建(一)


    单机环境搭建

    安装
        mkdir /opt/bigdata
        tar xf hadoop-2.6.5.tar.gz
        mv hadoop-2.6.5  /opt/bigdata/
        pwd
            /opt/bigdata/hadoop-2.6.5
        
        vi /etc/profile    
            export  JAVA_HOME=/usr/java/default
            export HADOOP_HOME=/opt/bigdata/hadoop-2.6.5
            export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
        source /etc/profile
    配置hadoop的角色:
        cd   $HADOOP_HOME/etc/hadoop
            必须给hadoop配置javahome要不ssh过去找不到
        vi hadoop-env.sh
            export JAVA_HOME=/usr/java/default
            给出NN角色在哪里启动
        vi core-site.xml
                <property>
                    <name>fs.defaultFS</name>
                    <value>hdfs://node01:9000</value>
                </property>
            配置hdfs  副本数为1.。。。
        vi hdfs-site.xml
                <property>
                    <name>dfs.replication</name>
                    <value>1</value>
                </property>
                <property>
                    <name>dfs.namenode.name.dir</name>
                    <value>/var/bigdata/hadoop/local/dfs/name</value>
                </property>
                <property>
                    <name>dfs.datanode.data.dir</name>
                    <value>/var/bigdata/hadoop/local/dfs/data</value>
                </property>
                <property>
                    <name>dfs.namenode.secondary.http-address</name>
                    <value>node01:50090</value>
                </property>
                <property>
                    <name>dfs.namenode.checkpoint.dir</name>
                    <value>/var/bigdata/hadoop/local/dfs/secondary</value>
                </property>
    
    
            配置DN这个角色再那里启动
        vi slaves
            node01
    
    

    初始化&启动:
    
        hdfs namenode -format  
            创建目录
            并初始化一个空的fsimage
            VERSION
                CID
        
        start-dfs.sh
            第一次:datanode和secondary角色会初始化创建自己的数据目录
            
        http://node01:50070
            修改windows: C:WindowsSystem32driversetchosts
                192.168.150.11 node01
                192.168.150.12 node02
                192.168.150.13 node03
                192.168.150.14 node04

    格式化成功:

    格式化后:只创建的name目录

    启动dfs后:

    
    

    简单使用:
        hdfs dfs -mkdir /bigdata
        hdfs dfs -mkdir  -p  /user/root
    
    


    验证知识点:
        cd   /var/bigdata/hadoop/local/dfs/name/current
            观察 editlog的id是不是再fsimage的后边
        cd /var/bigdata/hadoop/local/dfs/secondary/current
            SNN 只需要从NN拷贝最后时点的FSimage和增量的Editlog
    
    
        hdfs dfs -put hadoop*.tar.gz  /user/root
        cd  /var/bigdata/hadoop/local/dfs/data/current/BP-281147636-192.168.150.11-1560691854170/current/finalized/subdir0/subdir0
            
    
        for i in `seq 100000`;do  echo "hello hadoop $i"  >>  data.txt  ;done
        hdfs dfs -D dfs.blocksize=1048576  -put  data.txt 
        cd  /var/bigdata/hadoop/local/dfs/data/current/BP-281147636-192.168.150.11-1560691854170/current/finalized/subdir0/subdir0
        检查data.txt被切割的块,他们数据什么样子

     文件被切割后的样子:

    注意点:

    • 一定要同步时间
    • 一定要关闭防火墙,
    • 如果先启动hdfs,在关闭防火墙或者同步时间,就会启动不起来dataNode,解决方式: 1.关闭hdfs、 2.删除目录 /var/bigdata/hadoop/local/dfs下所有的文件、 3.重新格式化文件、 4.重新启动

    启动成功后editslog和fsimage

    jps进程信息:成功启动dataNode、nameNode、secondary

  • 相关阅读:
    vue全局启用 emulateJSON 选项
    vue全局配置数据接口的根域名
    CSS实现按钮YES-NO按钮+Jquery获取按钮状态。
    Redis命令
    在js中获取 input checkbox里选中的多个值
    Python中常见字符串去除空格的方法总结
    e.target.value和this的区别
    用脚本来运行scrapy crawl ...
    生成器的两种方式
    python中ord()函数,chr()函数,unichr()函数
  • 原文地址:https://www.cnblogs.com/bigdata-familyMeals/p/14071695.html
Copyright © 2020-2023  润新知