• 001.hadoop及hbase部署


    一 环境准备

    1.1 相关环境

    • 系统:CentOS 7

    #CentOS 6.x系列也可参考,转换相关命令即可。

    • hadoop包:hadoop-2.7.0.tar.gz

    #下载官方地址:http://www.apache.org/dyn/closer.cgi/hadoop/common/

    • hbase包:hbase-1.0.3-bin.tar.gz

    #下载官方地址:http://www.apache.org/dyn/closer.cgi/hbase

    • java环境:jdk-8u111-linux-x64.tar.gz

    #下载官方地址:http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

    • 其他:zookeeper-3.4.9.tar.gz

    #下载官方地址:http://www.apache.org/dyn/closer.cgi/zookeeper/

     

    1.2 网络环境

    主机名
    IP
    master
    172.24.8.12
    slave01
    172.24.8.13
    slave02
    172.24.8.14

    二 基础环境配置

    2.1 配置相关主机名

      1 [root@localhost ~]# hostnamectl set-hostname master
      2 [root@localhost ~]# hostnamectl set-hostname slave01
      3 [root@localhost ~]# hostnamectl set-hostname slave02
     

    提示:三台主机都需要配置。

      1 [root@localhost ~]# vi /etc/hosts
      2 ……
      3 172.24.8.12 master
      4 172.24.8.13 slave01
      5 172.24.8.14 slave02
      6 [root@localhost ~]# scp /etc/hosts root@slave01:/etc/hosts
      7 [root@localhost ~]# scp /etc/hosts root@slave02:/etc/hosts
     

    提示:直接将hosts文件复制到slave01和slave02。

    2.2 防火墙及SELinux

      1 [root@master ~]# systemctl stop firewalld.service #关闭防火墙
      2 [root@master ~]# systemctl disable firewalld.service #禁止开机启动防火墙
      3 [root@master ~]# vi /etc/selinux/config
      4 ……
      5 SELINUX=disabled
      6 [root@master ~]# setenforce 0
     

    提示:三台主机都需要配置,配置相关的端口放行和SELinux上下文,也可不关闭。

    2.3 时间同步

      1 [root@master ~]# yum -y install ntpdate
      2 [root@master ~]# ntpdate cn.ntp.org.cn
     

    提示:三台主机都需要配置。

    三 jdk安装配置

    注意:将所需安装包上传至/usr/即可。

    3.1 jdk环境安装

      1 [root@master ~]# cd /usr/
      2 [root@master usr]# tar -zxvf jdk-8u111-linux-x64.tar.gz
     

    提示:三台都需要配置。

    3.2 jdk系统变量增加

      1 [root@master ~]# vi .bash_profile
      2 ……
      3 PATH=$PATH:$HOME/bin:$JAVA_HOME/bin
      4 export PATH
      5 export JAVA_HOME=/usr/jdk1.8.0_111
      6 [root@master ~]# scp /root/.bash_profile root@slave01:/root/.bash_profile
      7 [root@master ~]# scp /root/.bash_profile root@slave02:/root/.bash_profile
      8 [root@master ~]# source /root/.bash_profile		#重新加载环境变量
     

    提示:

    1 直接将变量配置复制到slave01和slave02;
    2 也可在/etc/profile添加变量。
      1 [root@master ~]# java -version					#测试
      2 [root@slave01 ~]# java -version					#测试
      3 [root@slave02 ~]# java -version					#测试
     

    四 SSH无密钥访问

    4.1 master-slave01之间无密钥登录

      1 [root@master ~]# ssh-keygen -t rsa
      2 [root@slave01 ~]# ssh-keygen -t rsa
      3 [root@slave02 ~]# ssh-keygen -t rsa
     

    提示:三台都需要生成key密钥。

      1 [root@slave01 ~]# scp /root/.ssh/id_rsa.pub root@master:/root/.ssh/slave01.id_rsa.pub
      2 #将slave01主机的公钥复制给master,并命名为slave01.id_rsa.pub。
      3 [root@master ~]# cat /root/.ssh/id_rsa.pub >>/root/.ssh/authorized_keys
      4 [root@master ~]# cat /root/.ssh/slave01.id_rsa.pub >>/root/.ssh/authorized_keys
      5 [root@master ~]# scp /root/.ssh/authorized_keys slave01:/root/.ssh/
      6 #将master中关于master的公钥和slave01的公钥同时写入authorized_keys文件,并将此文件传送至slave01。
     
    提示:以上实现master<---->slave01双向无密钥登录。
    4.2 master-slave02之间无密钥登录
      1 [root@slave02 ~]# scp /root/.ssh/id_rsa.pub root@master:/root/.ssh/slave02.id_rsa.pub
      2 #将slave02主机的公钥复制给master,并命名为slave02.id_rsa.pub。
      3 [root@master ~]# cat /root/.ssh/id_rsa.pub >/root/.ssh/authorized_keys
      4 注意:此处为防止slave之间互相登录,采用覆盖方式写入。
      5 [root@master ~]# cat /root/.ssh/slave02.id_rsa.pub >>/root/.ssh/authorized_keys
      6 [root@master ~]# scp /root/.ssh/authorized_keys slave02:/root/.ssh/
      7 #将master中关于master的公钥和slave01的公钥同时写入authorized_keys文件,并将此文件传送至slave01。
      8 #以上实现master<---->slave01双向无密钥登录。
      9 [root@master .ssh]# cat slave01.id_rsa.pub >>authorized_keys
     10 #为实现master和slave01、slave02双向无密钥登录,将slave01的公钥重新写入。
     11 [root@master ~]# cat /root/.ssh/authorized_keys		#存在master和slave01、slave02的三组公钥
     12 [root@slave01 ~]# cat /root/.ssh/authorized_keys	#存在master和slave01的公钥
     13 [root@slave02 ~]# cat /root/.ssh/authorized_keys	#存在master和slave02的公钥
     

    五 安装hadoop及配置

    5.1 解压hadoop

      1 [root@master ~]# cd /usr/
      2 [root@master usr]# tar -zxvf hadoop-2.7.0.tar.gz
     

    5.2 创建相应目录

      1 [root@master usr]# mkdir /usr/hadoop-2.7.0/tmp			#存放集群临时信息
      2 [root@master usr]# mkdir /usr/hadoop-2.7.0/logs			#存放集群相关日志
      3 [root@master usr]# mkdir /usr/hadoop-2.7.0/hdf			#存放集群信息
      4 [root@master usr]# mkdir /usr/hadoop-2.7.0/hdf/data		#存储数据节点信息
      5 [root@master usr]# mkdir /usr/hadoop-2.7.0/hdf/name		#存储Name节点信息
     

    5.3 master修改相关配置

    5.3.1 修改slaves

      1 [root@master ~]# vi /usr/hadoop-2.7.0/etc/hadoop/slaves
      2 slave01
      3 slave02
      4 #删除localhost,添加相应的主机名。
     

    5.3.2 修改core-site.xml

      1 [root@master ~]# vi /usr/hadoop-2.7.0/etc/hadoop/core-site.xml
      2 ……
      3 <configuration>
      4         <property>
      5                 <name>fs.default.name</name>
      6                 <value>hdfs://master:9000</value>
      7         </property>
      8         <property>
      9                 <name>hadoop.tmp.dir</name>
     10                 <value>file:/usr/hadoop-2.7.0/tmp</value>
     11                 <description>
     12                         Abase for other temporary directories.
     13                 </description>
     14         </property>
     15         <property>
     16                 <name>hadoop.proxyuser.root.hosts</name>
     17                 <value>master</value>
     18         </property>
     19         <property>
     20                 <name>hadoop.proxyuser.root.groups</name>
     21                 <value>*</value>
     22         </property>
     23 </configuration>
     

    5.3.3 修改hdfs-site.xml

      1 [root@master ~]# vi /usr/hadoop-2.7.0/etc/hadoop/hdfs-site.xml
      2 ……
      3 <configuration>
      4         <property>
      5                 <name>dfs.datanode.data.dir</name>
      6                 <value>/usr/hadoop-2.7.0/hdf/data</value>
      7                 <final>true</final>
      8         </property>
      9         <property>
     10                 <name>dfs.namenode.name.dir</name>
     11                 <value>/usr/hadoop-2.7.0/hdf/name</value>
     12                 <final>true</final>
     13         </property>
     14 </configuration>
     

    5.3.4 修改mapred-site.xml

      1 [root@master ~]# cp /usr/hadoop-2.7.0/etc/hadoop/mapred-site.xml.template /usr/hadoop-2.7.0/etc/hadoop/mapred-site.xml
      2 [root@master ~]# vi /usr/hadoop-2.7.0/etc/hadoop/mapred-site.xml
      3 ……
      4 <configuration>
      5         <property>
      6                 <name>mapreduce.framework.name</name>
      7                 <value>yarn</value>
      8         </property>
      9         <property>
     10                 <name>mapreduce.jobhistory.address</name>
     11                 <value>master:10020</value>
     12         </property>
     13         <property>
     14                 <name>mapreduce.jobhistory.webapp.address</name>
     15                 <value>master:19888</value>
     16         </property>
     17 </configuration>
     

    5.3.5 修改yarn-site.xml

      1 [root@master ~]# vi /usr/hadoop-2.7.0/etc/hadoop/yarn-site.xml
      2 <configuration>
      3 ……
      4 <property>
      5         <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
      6         <value>org.apache.mapred.ShuffleHandler</value>
      7 </property>
      8 <property>
      9         <name>yarn.resourcemanager.address</name>
     10         <value>master:8032</value>
     11 </property>
     12 <property>
     13         <name>yarn.resourcemanager.scheduler.address</name>
     14         <value>master:8030</value>
     15 </property>
     16 <property>
     17         <name>yarn.resourcemanager.resource-tracker.address</name>
     18         <value>master:8031</value>
     19 </property>
     20 <property>
     21         <name>yarn.resourcemanager.admin.address</name>
     22         <value>master:8033</value>
     23 </property>
     24 <property>
     25         <name>yarn.resourcemanager.webapp.address</name>
     26         <value>master:8088</value>
     27 </property>
     28 </configuration>
     

    5.4 slave节点安装hadoop

      1 [root@master ~]# scp -r /usr/hadoop-2.7.0 root@slave01:/usr/
      2 [root@master ~]# scp -r /usr/hadoop-2.7.0 root@slave02:/usr/
     

    提示:直接将master的hadoop目录复制到slave01和slave02。

    六 系统变量及环境修改

    6.1 hadoop环境变量

      1 [root@master ~]# vi /usr/hadoop-2.7.0/etc/hadoop/hadoop-env.sh
      2 export JAVA_HOME=/usr/jdk1.8.0_111
      3 [root@master ~]# vi /usr/hadoop-2.7.0/etc/hadoop/yarn-env.sh
      4 export JAVA_HOME=/usr/jdk1.8.0_111
     

    6.2 系统环境变量

      1 [root@master ~]# vi /root/.bash_profile
      2 ……
      3 PATH=$PATH:$HOME/bin:$JAVA_HOME/bin
      4 export PATH
      5 export JAVA_HOME=/usr/jdk1.8.0_111
      6 export HADOOP_HOME=/usr/hadoop-2.7.0
      7 export HADOOP_LOG_DIR=/usr/hadoop-2.7.0/logs
      8 export YARN_LOG_DIR=$HADOOP_LOG_DIR
      9 [root@master ~]# scp /root/.bash_profile root@slave01:/root/
     10 [root@master ~]# scp /root/.bash_profile root@slave02:/root/
     11 [root@master ~]# source /root/.bash_profile
     12 [root@slave01 ~]# source /root/.bash_profile
     13 [root@slave02 ~]# source /root/.bash_profile
     
    提示:三台主机都需要配置,直接将master的profile文件复制到slave01和slave02。

    七 格式化namenode并启动

      1 [root@master ~]# cd /usr/hadoop-2.7.0/bin/
      2 [root@master bin]# ./hadoop namenode -format		#或者./hdfs namenode -format
      3 提示:其他主机不需要格式化。
      4 [root@master ~]# cd /usr/hadoop-2.7.0/sbin
      5 [root@master sbin]# ./start-all.sh				#启动
     

    提示:其他节点不需要启动,主节点启动时,会启动其他节点,查看其他节点进程,slave也可以单独启动datanode和nodemanger进程即可,如下——

      1 [root@slave01 ~]# cd /usr/hadoop-2.7.0/sbin
      2 [root@slave01 ~]# hadoop-daemon.sh start datanode
      3 [root@slave01 ~]# yarn-daemon.sh start nodemanager
     

    八 检测hadoop

    8.1 确认验证

    浏览器输入http://172.24.8.12:50070

    http://172.24.8.12:8088/cluster

    01

     
    02

    8.2 java检测

      1 [root@master ~]# /usr/jdk1.8.0_111/bin/jps
      2 21346 NameNode
      3 21703 ResourceManager
      4 21544 SecondaryNameNode
      5 21977 Jps
      6 [root@slave01 ~]# jps
      7 16038 NodeManager
      8 15928 DataNode
      9 16200 Jps
     10 15533 SecondaryNameNode
     11 [root@slave02 ~]# jps
     12 15507 SecondaryNameNode
     13 16163 Jps
     14 16013 NodeManager
     15 15903 DataNode
     

    九 安装Zookeeper

    9.1 安装并配置zookeeper

      1 [root@master ~]# cd /usr/
      2 [root@master usr]# tar -zxvf zookeeper-3.4.9.tar.gz		#解压zookeeper
      3 [root@master usr]# mkdir /usr/zookeeper-3.4.9/data		#创建zookeeper数据保存目录
      4 [root@master usr]# mkdir /usr/zookeeper-3.4.9/logs		#创建zookeeper日志保存目录
     

    9.2 修改zookeeper相关配置项

      1 [root@master ~]# cp /usr/zookeeper-3.4.9/conf/zoo_sample.cfg /usr/zookeeper-3.4.9/conf/zoo.cfg
      2 #从模板复制zoo配置文件
      3 [root@master ~]# vi /usr/zookeeper-3.4.9/conf/zoo.cfg
      4 tickTime=2000
      5 initLimit=10
      6 syncLimit=5
      7 dataDir=/usr/zookeeper-3.4.9/data
      8 dataLogDir=/usr/zookeeper-3.4.9/logs
      9 clientPort=2181
     10 server.1=master:2888:3888
     11 server.2=slave01:2888:3888
     12 server.3=slave02:2888:3888
     

    9.3 创建myid

      1 [root@master ~]# vi /usr/zookeeper-3.4.9/data/myid
      2 1
     

    注意:此处创建的文件myid内容为zoo.cfg配置中server.n中的n。即master为1,slave01为2,slave02为3。

    9.4 修改环境变量

      1 [root@master ~]# vi /root/.bash_profile				#修改环境变量
      2 PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin	#增加zookeeper变量路径
      3 export PATH
      4 export JAVA_HOME=/usr/jdk1.8.0_111
      5 export HADOOP_HOME=/usr/hadoop-2.7.0
      6 export HADOOP_LOG_DIR=/usr/hadoop-2.7.0/logs
      7 export YARN_LOG_DIR=$HADOOP_LOG_DIR
      8 export ZOOKEEPER_HOME=/usr/zookeeper-3.4.9/		#增加zookeeper路径
      9 [root@master ~]# source /root/.bash_profile
     

    9.5 Slave节点的zookeeper部署

      1 [root@master ~]# scp -r /usr/zookeeper-3.4.9/ root@slave01:/usr/
      2 [root@master ~]# scp -r /usr/zookeeper-3.4.9/ root@slave02:/usr/
      3 [root@master ~]# scp /root/.bash_profile root@slave01:/root/
      4 [root@master ~]# scp /root/.bash_profile root@slave02:/root/
     

    提示:三台主机都需要配置,依次将zookeeper和环境变量文件profile复制到slave01和slave02。

    9.6 Slave主机修改myid

      1 [root@slave01 ~]# vi /usr/zookeeper-3.4.9/data/myid
      2 2
      3 [root@slave02 ~]# vi /usr/zookeeper-3.4.9/data/myid
      4 3
     

    9.7 启动zookeeper

      1 [root@master ~]# cd /usr/zookeeper-3.4.9/bin/
      2 [root@master bin]# ./zkServer.sh start
      3 [root@slave01 ~]# cd /usr/zookeeper-3.4.9/bin/
      4 [root@slave01 bin]# ./zkServer.sh start
      5 [root@slave02 ~]# cd /usr/zookeeper-3.4.9/bin/
      6 [root@slave02 bin]# ./zkServer.sh start
     

    提示:三台主机都需要启动,命令方式一样。

    十 安装及配置hbase

    10.1 安装hbase

      1 [root@master ~]# cd /usr/
      2 [root@master usr]# tar -zxvf hbase-1.0.3-bin.tar.gz		#解压hbase
      3 [root@master ~]# mkdir /usr/hbase-1.0.3/logs			#创建hbase的日志存放目录
      4 [root@master ~]# mkdir /usr/hbase-1.0.3/temp			#hbase的临时文件存放目录
      5 [root@master ~]# mkdir /usr/hbase-1.0.3/temp/pid		#hbase相关pid文件存放目录
     

    10.2 修改环境变量

      1 [root@master ~]# vi /root/.bash_profile
      2 PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$HBASE_HOME/bin
      3 export PATH
      4 export JAVA_HOME=/usr/jdk1.8.0_111
      5 export HADOOP_HOME=/usr/hadoop-2.7.0
      6 export HADOOP_LOG_DIR=/usr/hadoop-2.7.0/logs
      7 export YARN_LOG_DIR=$HADOOP_LOG_DIR
      8 export ZOOKEEPER_HOME=/usr/zookeeper-3.4.9/
      9 export HBASE_HOME=/usr/hbase-1.0.3
     10 export HBASE_LOG_DIR=$HBASE_HOME/logs
     11 [root@master ~]# source /root/.bash_profile
     12 [root@master ~]# scp /root/.bash_profile slave01:/root/
     13 [root@master ~]# scp /root/.bash_profile slave02:/root/
     

    提示:三台主机都需要配置,可直接将环境变量复制给slave01和slave02。

      1 [root@master ~]# vi /usr/hbase-1.0.3/conf/hbase-env.sh
      2 export JAVA_HOME=/usr/jdk1.8.0_111
      3 export HBASE_MANAGES_ZK=true
      4 export HBASE_CLASSPATH=/usr/hadoop-2.7.0/etc/hadoop/
      5 export HBASE_PID_DIR=/usr/hbase-1.0.3/temp/pid
     

    注意:分布式运行的一个Hbase依赖一个zookeeper集群。所有的节点和客户端都必须能够访问zookeeper。默认Hbase会管理一个zookeep集群,即HBASE_MANAGES_ZK=true,这个集群会随着 Hbase 的启动而启动。也可以采用独立的 zookeeper 来管理 hbase,即HBASE_MANAGES_ZK=false。

    10.4 修改hbase-site.xml

      1 [root@master ~]# vi /usr/hbase-1.0.3/conf/hbase-site.xml
      2 ……
      3 <configuration>
      4 <property>
      5         <name>hbase.rootdir</name>
      6         <value>hdfs://master:9000/hbase</value>
      7 </property>
      8 <property>
      9         <name>hbase.cluster.distributed</name>
     10         <value>true</value>
     11 </property>
     12 <property>
     13         <name>hbase.zookeeper.quorum</name>
     14         <value>slave01,slave02</value>
     15 </property>
     16 <property>
     17         <name>hbase.master.maxclockskew</name>
     18         <value>180000</value>
     19 </property>
     20 <property>
     21         <name>hbase.zookeeper.property.dataDir</name>
     22         <value>/usr/zookeeper-3.4.9/data</value>
     23 </property>
     24 <property>
     25         <name>hbase.tmp.dir</name>
     26         <value>/usr/hbase-1.0.3/temp</value>
     27 </property>
     28 <property>
     29         <name>hbase.master</name>
     30         <value>hdfs://master:60000</value>
     31 </property>
     32 <property>
     33         <name>hbase.master.info.port</name>
     34         <value>60010</value>
     35 </property>
     36 <property>
     37         <name>hbase.regionserver.info.port</name>
     38         <value>60030</value>
     39 </property>
     40 <property>
     41         <name>hbase.client.scanner.caching</name>
     42         <value>200</value>
     43 </property>
     44 <property>
     45         <name>hbase.balancer.period</name>
     46         <value>300000</value>
     47 </property>
     48 <property>
     49         <name>hbase.client.write.buffer</name>
     50         <value>10485760</value>
     51 </property>
     52 <property>
     53         <name>hbase.hregion.majorcompaction</name>
     54         <value>7200000</value>
     55 </property>
     56 <property>
     57         <name>hbase.hregion.max.filesize</name>
     58         <value>67108864</value>
     59 </property>
     60 <property>
     61         <name>hbase.hregion.memstore.flush.size</name>
     62         <value>1048576</value>
     63 </property>
     64 <property>
     65         <name>hbase.server.thread.wakefrequency</name>
     66         <value>30000</value>
     67 </property>
     68 </configuration>
     69 #直接将imxhy01的相关配置传送给imxhy02即可。
     70 [root@master ~]# scp -r /usr/hbase-1.0.3 root@imxhy02:/usr/
     

    10.5 配置 regionservers

      1 [root@master ~]# vi /usr/hbase-1.0.3/conf/regionservers
      2 slave01
      3 slave02
     

    十一 启动hbase

      1 [root@master ~]# cd /usr/hbase-1.0.3/bin/
      2 [root@master bin]# ./start-hbase.sh
      3 [root@slave01 ~]# cd /usr/hbase-1.0.3/bin/
      4 [root@slave01 bin]# ./hbase-daemon.sh start regionserver
      5 [root@slave02 ~]# cd /usr/hbase-1.0.3/bin/
      6 [root@slave02 bin]# ./hbase-daemon.sh start regionserver
     

    十二 测试

    12.1 浏览器检测

    浏览器访问:http://172.24.8.12:60010/master-status
    03
     

    12.2 java检测

      1 [root@master ~]# /usr/jdk1.8.0_111/bin/jps
      2 21346 NameNode
      3 23301 Jps
      4 21703 ResourceManager
      5 21544 SecondaryNameNode
      6 22361 QuorumPeerMain
      7 23087 HMaster
      8 [root@slave01 ~]# jps
      9 17377 HRegionServer
     10 17457 Jps
     11 16038 NodeManager
     12 15928 DataNode
     13 16488 QuorumPeerMain
     14 15533 SecondaryNameNode
     15 [root@slave02 ~]# jps
     16 16400 QuorumPeerMain
     17 15507 SecondaryNameNode
     18 16811 HRegionServer
     19 17164 Jps
     20 16013 NodeManager
     21 15903 DataNode
  • 相关阅读:
    解决在火狐中不支持onreadystatechange的方法
    jquery ajax与分页的实现(mvc下)
    通过ChekBox设置EditText内容是否呈现密码显示
    Android自定义dialog
    Android Intent笔记
    启动另外的一个应用程序的Activity(三种方式)(转载)
    Android代码中声明一个layout
    在Linux下创建函数库
    五分钟讲清楚UML
    QT中使用QProcess启用外部程序
  • 原文地址:https://www.cnblogs.com/itzgr/p/9891238.html
Copyright © 2020-2023  润新知