HA(High aviliable)高可用
高可用的需求
在很多公司里面,都会存在着一些不愿被中断的业务,但是由于硬件故障,软件故障,人为因素等各种因素,往往会不经意的造成我们重要的业务中断,因此高可用技术就由此而生。
评价的标准
A = MTBF / (MTBF + MTTR)
MTBF: Mean Time Between Failover 平均无故障时间
MTTR: Mean Time To Repair 平均修复时间
一般来说,A的值越大,高可用性能就越好,通过增大MTBF或者减小MTTR可以提高系统的高可用性能,
但是一般来说MTBF的提高难度有点大,因此现在HA的主要方法就是通过增加备用节点来减小MTTR.
HA架构
高可用架构比较复杂,因为HA用了分层的结构来实现它的功能,但是说到底目的只有一个,那就是高效快速的实现资源的转移。
Message Layer:用来交换心跳信息
CRM(Cluster Resource Management):对心跳信息进行管理,从而做出一些决策
LRM(Local Resource Management):根据CRM的决策信息进行真正的管理
RA(Resource Agent):真正实现资源转移的脚本文件
1.Messaging Layer(集群信息交流层)
集群信息交流层的作用,主要是为了交换个自己节点的心跳信息(heartbeat),从名字我们都可以看出来,heartbeat主要是主要来标志着一个节点是否处于活动状态,也就是是否正常工作的意思,集群信息交换层通过交换彼此的信息给予CRM一些重要的通知,以助于完成后续资源转移的目的。
2.CRM(集群资源管理层)
集群资源管理层分为两个层次
DC(Design coordinater)指定候选人,DC会通过PE(Policy
Engender)策略引擎对心跳信息进行分析然后根据某种规则进行策略分析,然后把分析的结果送交给LRM进行执行
3.LRM本地资源管理器
本地资源管理器主要用于接受自上一层DC的策略结果,通过调用RA对资源进行一些操作
4.RA资源代理
资源代理主要是一些脚本,可以接受参数,然后对资源进行处理的,类型有四种
<1. service(heartbeat lengacy)
<2. LSB(Linux Standart )
<3.OCF(Open Cluster Framework)
<4.STONISH
<5.SYSTEMD
Resource(资源)
资源是什么呢?举例来说,对于高可用的web集群来说,资源指的是vip,httpd,filesystem,对于mysql高可用来讲,资源指的是vip,mysqld,filesystem。简单来说,资源指的是当我们的集群节点发生故障之后,使另一个节点能够具备和此节点一样功能的可转移目标。对于web集群来说,本来vip,httpd,filesystem三个资源在A上,当A发生了故障,我把这三个资源转移到B上,一样可以正常的实现web服务。
资源类型
1.primitive(主资源)
主资源指的是对于一个集群服务而言,只能在一个节点上面处于活动状态的资源。例如一个web高可用集群,vip,httpd,filesystem都是primitive,因为他们只能在一个节点上处于active,只有当次节点发生故障之后,才会进行资源转移
2.clone(克隆资源)
与主资源刚好相反,克隆资源是指能够在多个节点上面处于活动状态的资源。例如STONISH,STONISH是用来防止集群发生heart
split(脑裂)的,在收不到节点发的heartbeat信息时,就要使光电交换机自动的切断自己认为是错误节点的电源,以防止发生脑裂现象。
3.master/slave(主从资源)
主从资源是克隆资源的一个特例,指只能够在两个节点上面处于活动状态的资源。
4.group(组资源)
和排列约束还是蛮相近的,指的是让一些资源合并成一个组资源,运行在同一个节点上面。
资源约束
1.location位置约束
和资源粘性一起使用,用来定义某个资源对此节点的倾向性,用值来表示倾向性的强度
inf:表示只要此节点处于活动状态,就立马转移到此节点上面
-inf:表示只要有其他节点处于活动状态,就不会转移到此节点上面
2.order(顺序约束)
定义一些资源启动和关闭的顺序的
3.colacation(排列约束)
定义几个资源是否能够在一起的
inf:这几个资源必须在一起
-inf:这几个资源一定不能放在一起
资源粘性
资源粘性和资源约束的location比较相像,指的是某个资源更倾向与在某个节点上面,一般与资源约束的值进行
相加来最终判断资源是否倾向于此节点上面。
资源隔离
有些资源是不能放在同一个节点上面的,因此在进行了资源约束的情况下,一般还需要对资源进行隔离
1.节点隔离(STONISH)
2.资源隔离(FENCE)
架构的具体实现软件
因为linux内核的不断更新,各厂商的不同,以及高可用技术的分层技术复杂,因此造成了高可用集群技术软件的实现有着很大的不同的局面,很多的软件架构在不同的操作系统上面多依赖的库文件不同,安装很是麻烦,对于初学者来说,简直了,不管怎么样,我还是简单的说一下软件架构。
1.Messaging Layer
- heartbeatv1
- heartbeatv2
- hearteatv3
- corosync
- cman
2.CRM
3.全生命周期的管理软件
- pcs(因为其没有命令行补全工具,而且命令又不是嵌入shell里面,因此不是特别友好)
- crmsh(具有命令行工具,命令类似于一个全新的shell)
以上软件具体的作用我会在之后的实验里面进行介绍,今天我先介绍一种架构,近来因为看的学习视频有点老,很多的软件都找不到,有时候就算找到了也很难安装成功,况且高可用软件对于linux内核版本的依赖性很高,,因此建议用以下架构,因为centos7.0默认具有以下组件,我们可以非常轻松的用yum进行软件的安装,但是因为centos第一次接触,有很多地方和之前的版本有很大的不同,让我们一起来克服吧。
- corosync v2 + pacemaker
+ pcs
- centos 7.0
- node1 192.168.1.128
-
node2 192.168.1.129
-
node3 192.168.1.130
- ntp_server nfs_server 192.168.1.127
因为第一次接触centos7.0,首先我先说一下我在配置安装过程中出现的几个问题。
1、no server suitable for synchronization
found
这个问题主要是由于没有在各个节点上面开启ntp服务造成的,本来我以为只用一个ntp服务器需要开启ntp服务就可以了,然后就一直提示此错误
2、device eth0 does not seem to be present delaying
initialization centos 7
这个问题产生的原因是在克隆了一个系统之后出现的错误,可能是由于克隆的时候mac地址冲突的问题导致的
解决方法
cat
/etc/udev/rule.d/70-persisent-ipoib.rules
找eth1的mac地址,替换以下文件的mac地址
vim
/etc/sysconfig/network-scripts/cfg-ens33
然后重启服务
systemctl restart
network
配置高可用集群服务的先决条件
1.节点名称要一直,可以进行互相的通信
节点一
#hostname node1 修改主机名,临时生效
#vim /etc/sysconfig/network 永久生效
HOSTNAME=node1
#vim /etc/hosts 使主机能够解析node1,node2,node3
192.168.1.128 node1
192.168.1.129 node2
192.168.1.130 node3
#ping node2 测试是否能够ping通
#ping node3
节点二
#hostname node2 修改主机名,临时生效
#vim /etc/sysconfig/network 永久生效
HOSTNAME=node2
#vim /etc/hosts 使主机能够解析node1,node2,node3
192.168.1.128 node1
192.168.1.129 node2
192.168.1.130 node3
#ping node3 测试是否能够ping通
#ping node1
节点三
#hostname node3 修改主机名,临时生效
#vim /etc/sysconfig/network 永久生效
HOSTNAME=node3
#vim /etc/hosts 使主机能够解析node1,node2,node3
192.168.1.128 node1
192.168.1.129 node2
192.168.1.130 node3
#ping node2 测试是否能够ping通
#ping node1
2.ssh可以相互进行通信
节点一
#ssh-keygen -t rsa
在家目录下面生成秘钥文件
#ssh-copy-id -i ~/.ssh/id-rsa.pub
root@node2 和node2进行秘钥的交换
#ssh-copy-id -i ~/.ssh/id-rsa.pub
root@node3 和node3进行秘钥的交换
#ssh node2 "ifconfig" 检测是否交换成功,注意此时的ip地址为node2的地址
#ssh node3 "ifconfig" 检测是否交换成功,注意此时的ip地址为node3的地址
节点二
#ssh-keygen -t rsa
在家目录下面生成秘钥文件
#ssh-copy-id -i ~/.ssh/id-rsa.pub
root@node1 和node1进行秘钥的交换
#ssh-copy-id -i ~/.ssh/id-rsa.pub
root@node3 和node3进行秘钥的交换
#ssh node1 "ifconfig" 检测是否交换成功,注意此时的ip地址为node1的地址
#ssh node3 "ifconfig" 检测是否交换成功,注意此时的ip地址为node3的地址
节点三
#ssh-keygen -t rsa
在家目录下面生成秘钥文件
#ssh-copy-id -i ~/.ssh/id-rsa.pub
root@node2 和node2进行秘钥的交换
#ssh-copy-id -i ~/.ssh/id-rsa.pub
root@node1 和node1进行秘钥的交换
#ssh node1 "ifconfig" 检测是否交换成功,注意此时的ip地址为node1的地址
#ssh node2 "ifconfig" 检测是否交换成功,注意此时的ip地址为node2的地址
3.时间同步
NTP服务器
<1.yum源的配置
#mkdir -pv /mnt/cdrom
#vim /etc/yum.repos.d/huwentao.repo配置一下信息
[huwentao]
name=huwentao
baseurl=file:///mnt/cdrom
此处最关键,对于centos7.0没有了Server,Cluster,因此就写成这样可以了
enabled=1
gpgcheck=0
<2.安装ntpd服务
#yum list all | grep ntp 看看是否有一下信息输出
ntp.x86_64
4.2.6p5-25.el7.centos
@hu
#yum install ntp -y 安装时间服务器
#systemctl restart ntpd.service
节点二
<1.和节点一一样配置yum源,安装启动服务
#ntpdate 192.168.1.127
节点三
<1.和节点一一样配置yum源,安装启动服务
#ntpdate 192.168.1.127
至此,配置高可用web集群服务的基础架构就已经完成了
4.安装软件
节点一,二,三节点都要执行
#yum -y install corosync pacemaker pcs
httpd
#systemctl stop firewalld.service
对于不知道怎么设置防火墙的,而且是仅仅只是做实验的人来说,这一步必须要有
#setenforce 0
#systemctl enable httpd.service 设置为开机自启
5.详解配置文件corosync.conf
totem {
version:
2
crypto_cipher: none 不
crypto_hash: none
secauth: off
interface
{
ringnumber:
0
bindnetaddr: 192.168.1.0
网段地址
mcastaddr:
239.188.1.31 组播地址
mcastport:
5405
ttl:
1
}
nodelist {
node {
ring0_addr: 192.168.1.128
nodeid: 1
}
node {
ring0_addr: 192.168.1.129
nodeid: 2
}
node {
ring0_addr: 192.168.1.130
nodeid: 3
}
}
logging {
fileline:
off 在记录日志的时候不同的日志是否需要下划线
to_stderr: no
是否需要错误输出
to_logfile:
yes 输出为日志文件
logfile:
/var/log/cluster/corosync.log
to_syslog: no
是否传送给标准的日志文件
debug:
off
timestamp: off 时间戳是否要进行记录
logger_subsys
{
subsys:
QUORUM
debug:
off
}
}
quorum {
provider:
corosync_votequorum 开启投票系统
}
6.配置nfs服务器
#mkdir /www/huwentao 首先创建一个共享目录,以及httpd服务的默认页面
#echo "
Test HA Cluster script.
" > /www/huwentao/index.html
#vim /etc/exports 默认为只读文件
/www/huwentao 192.168.1.0/24(ro)
#service nfs start
#showmount -e localhost 查看是否有信息
节点一测试
#systemctl restart httpd.service 启动httpd服务
#mount -t nfs 192.168.1.127:/www/huwentao /var/www/html
查看是否能够挂载成功,注意防火墙不关闭,selinux不设置成0,一般是不能够挂载成功的,因此上面的步骤一定要完成了以后在进行测试
在浏览器中输入192.168.1.127 ,出现以下字样,表明测试成功
Test HA Cluster script.
##systemctl stop httpd.service
关闭httpd服务
7.pcs的使用
节点一
#cp corosync.conf.example corosync.conf
复制样例文件,并进行第五步骤的修改
#scp /etc/corosync/corosync.conf
node2:/etc/corosync/
复制文件到node2
#scp /etc/corosync/corosync.conf
node2:/etc/corosync/
复制文件到node3
开启node1,node2,node3的corosync服务
#systemctl start corosync.service
#ssh node2 "systemctl start corosync.service "
#ssh node2 "systemctl start corosync.service "
开启node1,node2,node3的pacemaker服务
#systemctl start pacemaker.service
#ssh node2 "systemctl start pacemaker.service "
#ssh node2 "systemctl start pacemaker.service "
#systemctl start
pcs.service 开启node1上面的pcsd服务
#crm_mon 看到以下信息
Stack: corosync
Current DC: node3 (version 1.1.15-11.el7-e174ec8) - partition with quorum
Last updated: Mon May 15 07:51:56
2017
Last change: Mon May 15 05:52:38 2017 by root via cibadmin on
node1
3 nodes and 3 resources configured
Online: [ node1 node2 node3
]
配置资源
pcs的用法,pcs有很多的子命令
- cluster 定义集群服务
- resource 定义一些资源
- config 查看当前的一些配置
- status 查看当前集群的状态
- constraint 定义资源约束
- property 设置一些全局属性
这里只是简单的配置一些资源,详细的使用信息这里就不在赘述
以下为设置web高可用集群的三个必要资源webip,webstore,webserver,并把这三个资源放在一个组内
#pcs property set
stonith-enabled=false因为当前没有stonish设备,因此将此参数设置成false
#pcs source create webip
ocf:heartbeat:IPaddr ip="192.168.1.2"
op monitor interval=30s
#pcs source create webstore
ocf:heartbeat:Filesystem device="192.168.1.127:/www/huwentao/"
directory="/var/www/html" fstype="nfs"
#pcs source create webserver systemd:httpd
#pcs source group webservice webip webserver webstore
#pcs status 显示以下信息
Cluster name:
WARNING: corosync and pacemaker node names do not match (IPs used
in setup?)
Stack: corosync
Current DC: node3 (version 1.1.15-11.el7-e174ec8) - partition with
quorum
Last updated: Mon May 15 08:04:22
2017
Last change: Mon May 15 05:52:38 2017 by root via cibadmin on
node1
3 nodes and 3 resources configured
Online: [ node1 node2 node3 ]
Full list of resources:
Resource Group: webservice
webip
(ocf::heartbeat:IPaddr):
Started node1
webstore
(ocf::heartbeat:Filesystem):
Started node1
webserver
(systemd:httpd):
Started node1
Daemon Status:
corosync: active/disabled
pacemaker: active/disabled
pcsd: active/disabled
8.测试
在浏览器中输入 192.168.1.2显示以下信息
Test HA Cluster script.
至此高可用的web服务就配置完成了