一.集群规划
Name | Master | Slave1 | Slave2 |
IP | 192.168.2.98 | 192.168.2.99 | 192.168.2.100 |
Jdk版本 | 1.8.0.171 | 1.8.0.171 | 1.8.0.171 |
Zookeeper版本 | 3.4.10 | 3.4.10 | 3.4.10 |
Hadoop版本 | 2.7.3 | 2.7.3 | 2.7.3 |
Scala版本 | 2.11.12 | 2.11.12 | 2.11.12 |
Spark版本 | 2.4.0 | 2.4.0 | 2.4.0 |
Hbase版本 | 1.2.4 | 1.2.4 | 1.2.4 |
HMaster | 有 | 无 | 无 |
HRegionServer | 有 | 有 | 有 |
二.搭建Hbase全分布式
在已完成此配置的基础上执行以下。tar包链接: https://pan.baidu.com/s/1hwLPI0eUwkpGmP5ROqM6Lw 提取码: k7m3
在Hbase服务启动前Zookeeper、Hadoop得先启动,如果没有搭建可移至ZooKeeper全分布式、Hadoop全分布式进行搭建。
# mkdir /usr/hbase 建立目录 # tar -zxvf hbase-1.2.4-bin.tar.gz -C /usr/hbase/ 解压 # vim /etc/profile 添加环境变量 export HBASE_HOME=/usr/hbase/hbase-1.2.4 export PATH=$PATH:$HBASE_HOME/bin # source /etc/profile 生效环境变量 # hbase version 验证是否成功安装HBase # cd /usr/hbase/hbase-1.2.4/conf/ # vim hbase-env.sh 配置1添加如下 export JAVA_HOME=/usr/java/jdk1.8.0_171 jdk目录 # vim hbase-site.xml 配置2在<configuration> </configuration>间添加 <property>
<!-- 这里要与hadoop的core-site.xml内fs.default.name(单机)、fs.defaultFS(HA)配置的主机:端口一致 --> <name>hbase.rootdir</name> <value>hdfs://master:9000/hbase</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> <property> <name>hbase.zookeeper.quorum</name> <value>master,slave1,slave2</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/usr/zookeeper-3.4.12/zkdata</value> </property> # vim regionservers 配置3添加 master slave1 slave2 # echo master > backup-masters 配置4添加HBase的备机名 # scp -r /usr/hbase root@slave1:/usr/ 将配好的hbase发往结点 # scp -r /usr/hbase root@slave2:/usr/ # scp -r /etc/profile root@slave1:/etc/ 环境分发各子结点 # scp -r /etc/profile root@slave2:/etc/ # source /etc/profile 各结点执行生效环境变量 # start-hbase.sh 主结点启动stop为关闭、zookeeper、hadoop要提前启动。 # ./hbase shell bin下启动进入shell后台 访问web管理界面打开浏览器网址栏输: 192.168.2.98:16010主结点IP+16010