• hdfs的部署


    1.hdfs三个进程分别为namenode、datanode、secondarynamenode   hdfs是hadoop的一个组件,hadoop一共有3个组件分别为hdfs,yarn,mapreduce,这三个组件的功能分别为存储,调度,计算

    hdfs三个进程要以hadoop002启动需要配置文件,步骤如下:

    etc/hadoop
    conf

    [hadoop@hadoop001 hadoop]$ pwd
    /home/hadoop/app/hadoop-2.6.0-cdh5.7.0/etc/hadoop

    [hadoop@hadoop002 hadoop]$ ll
    total 140
    -rw-r--r-- 1 hadoop hadoop 884 Feb 13 22:34 core-site.xml
                                                                                                    核心的配置文件把hdfs mapreduce yarn 一些核心的共有的提供出来
    -rw-r--r-- 1 hadoop hadoop 4294 Feb 13 22:30 hadoop-env.sh    JDK目录 hadoop家目录

    -rw-r--r-- 1 hadoop hadoop 867 Feb 13 22:34 hdfs-site.xml

    -rw-r--r-- 1 hadoop hadoop 11291 Mar 24 2016 log4j.properties

    -rw-r--r-- 1 hadoop hadoop 758 Mar 24 2016 mapred-site.xml.template
    -rw-r--r-- 1 hadoop hadoop 10 Mar 24 2016 slaves

    -rw-r--r-- 1 hadoop hadoop 690 Mar 24 2016 yarn-site.xml

    后缀为cmd的文件是window部署此处已经删除
    [hadoop@hadoop002 hadoop]$

    hadoop的三个组件分别为 hdfs mapreduce yarn

    生产 学习: 不用ip部署,统一机器名称hostname部署
    只需要/etc/hosts 修改即可(第一行 第二行不要删除)
    因为一旦网段地址发生改变重新部署很麻烦,如果用机器名称部署,
    只需要在hosts文件里做好ip和机器名称的映射即可


    namenode进程:
    [hadoop@hadoop002 hadoop]$ vi core-site.xml

    <configuration>
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://hadoop002:9000</value>   此处红色字体是指机器名称
    </property>
    </configuration>

    datanode进程:
    [hadoop@hadoop002 hadoop]$ vi slaves   slaves里的内容是启动datanode的机器名称  后边还可以有很多歌机器名称用逗号隔开,如红色字体
    hadoop002,hadoop001,hadoop003

    secondarynamenode进程:

    [hadoop@hadoop001 hadoop]$ vi hdfs-site.xml
    <property>
    <name>dfs.namenode.secondary.http-address</name> 这里的红色字体是从官网上查看的http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/hdfs-                                                                                                                                                                default.xml  (在浏览器中输入hadoop.apache.org,在最左侧一栏找到hdfs-default.xml

                                                                                                                                                     点击进去搜索secondary  对应着名称就找到了)
    <value>hadoop002:50090</value>
    </property>
    <property>
    <name>dfs.namenode.secondary.https-address</name>
    <value>hadoop002:50091</value>
    </property>


    [hadoop@hadoop002 hadoop-2.6.0-cdh5.7.0]$
    [hadoop@hadoop002 hadoop-2.6.0-cdh5.7.0]$ cd
    [hadoop@hadoop002 ~]$
    [hadoop@hadoop002 ~]$
    [hadoop@hadoop002 ~]$
    [hadoop@hadoop002 ~]$ ll
    total 8
    drwxrwxr-x 3 hadoop hadoop 4096 Feb 13 22:21 app
    drwxrwxr-x 8 hadoop hadoop 4096 Feb 13 20:46 d5
    [hadoop@hadoop002 ~]$ ll -a
    total 68
    drwx------ 7 hadoop hadoop 4096 Feb 16 20:25 .
    drwxr-xr-x. 5 root root 4096 Oct 22 10:45 ..
    drwxrwxr-x 3 hadoop hadoop 4096 Feb 13 22:21 app
    -rw------- 1 hadoop hadoop 15167 Feb 13 23:29 .bash_history
    -rw-r--r-- 1 hadoop hadoop 18 Mar 23 2017 .bash_logout
    -rw-r--r-- 1 hadoop hadoop 293 Sep 19 23:22 .bash_profile
    -rw-r--r-- 1 hadoop hadoop 124 Mar 23 2017 .bashrc
    drwxrwxr-x 8 hadoop hadoop 4096 Feb 13 20:46 d5
    drwxrw---- 3 hadoop hadoop 4096 Sep 19 17:01 .pki
    drwx------ 2 hadoop hadoop 4096 Feb 13 22:39 .ssh
    drwxr-xr-x 2 hadoop hadoop 4096 Oct 14 20:57 .vim
    -rw------- 1 hadoop hadoop 8995 Feb 16 20:25 .viminfo
    [hadoop@hadoop002 ~]$ ll .ssh
    total 16
    -rw------- 1 hadoop hadoop 398 Feb 13 22:37 authorized_keys
    -rw------- 1 hadoop hadoop 1675 Feb 13 22:36 id_rsa
    -rw-r--r-- 1 hadoop hadoop 398 Feb 13 22:36 id_rsa.pub
    -rw-r--r-- 1 hadoop hadoop 780 Feb 13 22:49 known_hosts

  • 相关阅读:
    idea主题更换pycharm/intellij
    随机生成n张扑克牌。
    JAVA生成6个1-8的随机数,要求无重复。
    一道简单 的循环
    linux虚拟机互访
    linux中grep命令
    vi和vim编辑器
    文件压缩打包以及备份
    文件内容查询
    目录相关操作
  • 原文地址:https://www.cnblogs.com/xuziyu/p/10403353.html
Copyright © 2020-2023  润新知