• 通过LVS+Keepalived搭建高可用的负载均衡集群系统


    1、 安装LVS软件
          (1)安装前准备
    操作系统:统一采用Centos6.5版本,地址规划如下:

    1  服务器名               IP地址                 网关                 虚拟设备名    虚拟ip
    2  Director Server       192.168.12.25         192.168.12.1        eth0:0       192.168.12.135
    3  Real Server1          192.168.12.246        192.168.12.1        lo:0         192.168.12.135
    4  Real Server2          192.168.12.247        192.168.12.1        lo:0         192.168.12.135

    更详细的信息如下图所示: 
     图中的VIP指的是虚拟IP地址,还可以叫做LVS集群的服务IP,在DR、TUN模式中,数据包是直接返回给用户的,所以,在Director Server上以及集群的每个节点上都需要设置这个地址。此IP在Real Server上一般绑定在回环地址上,例如lo:0,同样,在Director Server上,虚拟IP绑定在真实的网络接口设备上,例如eth0:0。
     各个Real Server可以是在同一个网段内,也可以是相互独立的网段,还可以是分布在internet上的多个服务器.
    1、 安装LVS软件
          (1)安装前准备
    安装的LVS负载均衡集群拓扑图:

        (2)安装操作系统需要注意的事项
     Centos6.5版本的Linux,内核默认支持LVS功能,为了方便编译安装IPVS管理软件,在安装操作系统时,建议选择如下这些安装包:
     桌面环境:xwindows system、GNOME desktop environment。
     开发工具:development tools、x software development、gnome software、development、kde software development。
    系统安装完毕,可以通过如下命令检查kernel是否已经支持LVS的ipvs模块:

    1 [root@localhost ~]#modprobe -l |grep ipvs
    2 /lib/modules/2.6.18-194.11.1.el5/kernel/net/ipv4/ipvs/ip_vs.ko
    3 /lib/modules/2.6.18-194.11.1.el5/kernel/net/ipv4/ipvs/ip_vs_dh.ko

    如果有类似上面的输出,表明系统内核已经默认支持了IPVS模块。接着就可以安装IPVS管理软件了.

    (3)在Director Serve上安装IPVS管理软件
     IPVS提供的软件包有源码方式的也有rpm方式的,这里介绍下源码方式安装IPVS,首先从http://www.linuxvirtualserver.org/software/ipvs.html下载对应版本的ipvs源码,这里我们下载ipvsadm-1.24版本,进行安装:

    1 [root@localhost ~]#tar zxvf ipvsadm-1.24.tar.gz
    2 [root@localhost ~]#cd ipvsadm-1.24
    3 [root@localhost ~]#make
    4 [root@localhost ~]#make install

    注意:在make时可能会出现错误编译信息,这是由于编译程序找不到对应内核的原因,按照如下操作就可以正常编译:

    [root@localhost ~]#ln -s /usr/src/kernels/2.6.18-128.el5-i686/  /usr/src/linux

    也可以下载rpm安装包,通过rpm方式进行安装:

    1 [root@localhost ~]#rpm –ivh ipvsadm-1.24-6.1.i386.rpm
    2 然后执行:
    3 [root@localhost ~]# ipvsadm --help 

    如果看到帮助提示,表明IPVS已经成功安装。

    (4)ipvsadm的用法:

    2、 开始配置LVS集群
     下面通过搭建www服务的负载均衡实例,讲述基于DR模式的LVS集群配置。
     (1) Director Server的配置
     在Director Server上配置LVS负载均衡集群,有两种方法:
     <1.通过ipvsadm命令行进行配置
     <2.通过Redhat提供的工具piranha来配置LVS

    1)通过ipvsadm命令行方式配置LVS  安装IPVS后,就可以配置LVS集群了,首先在Director Server上绑定一个虚拟IP(也叫VIP),此IP用于对外提供服务,执行如下命令:

    [root@localhost ~]#ifconfig eth0:0 192.168.12.135 broadcast 192.168.12.135 netmask 255.255.255.255 up     #此处在eth0设备上绑定了一个虚拟设备eth0:0,
    同时设置了一个虚拟IP是192.168.12.135,也就是上面我们规划的IP地址,然后指定广播地址也为192.168.12.135,需要特别注意的是,这里的子网掩码为255.255.255.255。 然后给设
    备eth0:0指定一条路由,执行如下指令:
    [root@localhost ~]#route add -host 192.168.12.135 dev eth0:0
    [root@localhost ~]#echo "1" >/proc/sys/net/ipv4/ip_forward #指令中,参数值为1时启用ip转发,为0时禁止ip转发。其实在DR模式中,开启系统的包转发功能不是
    必须的,而在NAT模式下此操作是必须的。

    然后开始配置ipvs,执行如下操作:

    1 [root@localhost ~]#ipvsadm -C
    2 [root@localhost ~]#ipvsadm -A -t 192.168.12.135:80 -s rr -p 600
    3 [root@localhost ~]#ipvsadm -a -t 192.168.12.135:80 -r 192.168.12.246:80 -g
    4 [root@localhost ~]#ipvsadm -a -t 192.168.12.135:80 -r 192.168.12.237:80 -g
    5 #上面操作中,第一行是清除内核虚拟服务器列表中的所有记录,第二行是添加一条新的虚拟IP记录。这个新的IP是192.168.12.135,同时指定持续服务时间为600秒。
    6 #第三、四行是在新加虚拟IP记录中添加两条新的Real Server记录,并且指定LVS 的工作模式为直接路由模式。
    7 最后,启动LVS服务,执行如下操作: 8 [root@localhost ~]#ipvsadm

    这样,LVS在Director Server上的配置就完成了.
    为了管理和配置的方便,可以将上面的操作写成一个脚本文件,脚本内容如下:

    #!/bin/sh
    # description: Start LVS of Director server
    VIP=192.168.12.135
    RIP1=192.168.12.246
    RIP2=192.168.12.237
    ./etc/rc.d/init.d/functions
    case "$1" in
        start)
            echo " start LVS of Director Server"
    # set the Virtual  IP Address and sysctl parameter
     /sbin/ifconfig eth0:0 $VIP broadcast $VIP netmask 255.255.255.255 up
           echo "1" >/proc/sys/net/ipv4/ip_forward 
    #Clear IPVS table
           /sbin/ipvsadm -C
    #set LVS
    /sbin/ipvsadm -A -t $VIP:80 -s rr -p 600
    /sbin/ipvsadm -a -t $VIP:80 -r $RIP1:80 -g
    /sbin/ipvsadm -a -t $VIP:80 -r $RIP2:80 -g
    #Run LVS
          /sbin/ipvsadm
           ;;
        stop)
            echo "close LVS Directorserver"
            echo "0" >/proc/sys/net/ipv4/ip_forward
            /sbin/ipvsadm -C
            /sbin/ifconfig eth0:0 down
            ;;
        *)
            echo "Usage: $0 {start|stop}"
            exit 1
    Esac
    管理脚本

    2)通过Redhat提供的工具piranha来配置LVS
     Piranha是REDHAT提供的一个基于Web的LVS配置软件,可以省去手工配置LVS的繁琐工作,同时,也可单独提供cluster功能,例如,可以通过Piranha激活Director Server的后备主机,也就是配置Director Server的双机热备功能。
     Piranha工具的安装非常简单,下载Piranha的rpm包,进行安装即可:

    [root@localhost ~]#rpm –ivh piranha-0.8.2-1.i386.rpm

    Piranha安装完毕后,会产生/etc/sysconfig/ha/lvs.cf文件,默认此文件是空的,可以通过Piranha提供的web界面配置此文件,也可以直接手动编辑此文件,编辑好的lvs.cf文件内容类似如下:

    [root@localhost ~]# more /etc/sysconfig/ha/lvs.cf
    serial_no = 18              #序号。
    primary = 192.168.12.25     #指定主Director Server的真实IP地址,是相对与有备用的Director Server而言的,也就是给Director Server做HA Cluster。
    service = lvs               #指定双机的服务名。
    backup_active = 0                   #是否激活备用Director Server。“0”表示不激活,“1”表示激活。
    backup = 0.0.0.0            #这里指定备用Director Server的真实IP地址,如果没有备用Director Server,可以用“0.0.0.0”代替。
    heartbeat = 0                    #是否开启心跳,1表示开启,0表示不开启。
    heartbeat_port = 539             #指定心跳的UDP通信端口。
    keepalive = 5               #心跳间隔时间,单位是秒。
    deadtime = 10                #如果主Director Server在deadtime(秒)后没有响应,那么备份DirectorServer就会接管主Director Server的服务。
    network = direct            #指定LVS的工作模式,direct表示DR模式,nat表示NAT模式,tunnel表示TUNL模式。
    debug_level = NONE          #定义debug调试信息级别。
    virtual www.ixdba.net{      #指定虚拟服务的名称。
    active = 1                                 #是否激活此服务。
    address = 192.168.12.135 eth0:0  #虚拟服务绑定的虚拟IP以及网络设备名。
    port = 80                   #虚拟服务的端口。
    send = "GET / HTTP/1.0
    
    "  #给real server发送的验证字符串
    expect = "HTTP"             #服务器正常运行时应该返回的文本应答信息,用来判断real server是否工作正常。
    use_regex = 0               # expect选项中是否使用正则表达式,0表示不使用,1表示使用。
    load_monitor = none         #LVS中的Director Server能够使用 rup 或 ruptime 来监视各个real server的负载状态。该选项有3个可选值,rup、ruptime和none,如果选
                      择rup,每个real server就必须运行rstatd服务。如果选择了ruptime,每个real server就必须运行 rwhod 服务。
    scheduler = rr #指定LVS的调度算法。 protocol = tcp #虚拟服务使用的协议类型。 timeout = 6 #real server失效后从lvs路由列表中移除失效real server所必须经过的时间,以秒为单位。 reentry = 15 #某个real server被移除后,重新加入lvs路由列表中所必须经过的时间,以秒为单位。 quiesce_server = 0 #如果此选项为1.那么当某个新的节点加入集群时,最少连接数会被重设 为零,因此LVS会发送大量请求到此服务节点,造成新的节点服务阻塞, 建议设置为0。 server RS1 { #指定real server服务名。 address = 192.168.12.246 #指定real server的IP地址。 active = 1 #是否激活此real server服务。 weight = 1 #指定此real server的权值,是个整数值,权值是相对于所有real server节点而言的,权值高的real server处理负载的性能相对较强。 } server RS2 { address = 192.168.12.237 active = 1 weight = 1 } } 编辑完成,然后启动pulse服务,即启动lvs服务 [root@localhost ~]#service pulse start 同理,此种方式下也要启用系统的包转发功能: [root@localhost ~]#echo "1" >/proc/sys/net/ipv4/ip_forward

    到此为止,Piranha工具方式配置Director Server完毕。

    3、Real server 的配置  在lvs的DR和TUn模式下,用户的访问请求到达真实服务器后,是直接返回给用户的,而不再经过前端的Director Server,因此,就需要在每个Real server节点上增加虚拟的VIP地址,这样数据才能直接返回给用户,增加VIP地址的操作可以通过创建脚本的方式来实现,创建文件/etc/init.d/lvsrs,脚本内容如下:

     1 #!/bin/bash
     2 VIP=192.168.12.135
     3 /sbin/ifconfig lo:0 $VIP broadcast $VIP netmask 255.255.255.255 up
     4 /sbin/route add -host $VIP dev lo:0
     5 echo “1″ >/proc/sys/net/ipv4/conf/lo/arp_ignore
     6 echo “2″ >/proc/sys/net/ipv4/conf/lo/arp_announce
     7 echo “1″ >/proc/sys/net/ipv4/conf/all/arp_ignore
     8 echo “2″ >/proc/sys/net/ipv4/conf/all/arp_announce
     9 sysctl -p
    10 #end

         此操作是在回环设备上绑定了一个虚拟IP地址,并设定其子网掩码为255.255.255.255,与Director Server上的虚拟IP保持互通,然后禁止了本机的ARP请求。
    由于虚拟ip,也就是上面的VIP地址,是Director Server和所有的Real server共享的,如果有ARP请求VIP地址时,Director Server与所有Real server都做应答的话,就出现问题了,因此,需要禁止Real server响应ARP请求。而lvsrs脚本的作用就是使Real Server不响应arp请求。

    4、在Director上配置冗余策略 Ldirectord

    如果是通过Piranha工具配置LVS,就无需使用ldirectord,Piranha工具对应的系统进程是pluse,此进程也会自动调用ipvsadm创建LVS路由表,同时会利用自身的nanny守护进程监控real server的状态,这里只是讲解其中的另一种配置方法.
     在heartbeat中,ldirectord其实是作为它的一个插件出现的,所以它默认包含在heartbeat软件包中,Ldirectord的核心作用是监控Real Server节点状态,当Real Server失效时,把它从虚拟服务器列表中删除,恢复时重新添加到列表,同时,它还能调用ipvsadm自动创建LVS路由表,这点从下面要讲述的ldirectord.cf中可以看出,这里需要说明的是,ldirectord和Piranha都具有监控Real Server的功能,如果要通过ldirectord监控节点状态,只需启动ldirectord服务,整个集群系统就可以运行起来,而无需执行上面我们配置的LVS脚本,因为ldirectord会自动调用ipvsadm创建LVS路由表,而我们上面讲述的利用ipvsadm命令行方式配置LVS,是为了让读者能更深入的了解ipvsadm的实现细节和实现机制。
     ldirectord的安装非常简单,直接通过yum就可以安装完成:
    [root@localhost root]#yum install  heartbeat-ldirectord
    安装完成后,默认的安装路径为/etc/ha.d,同时需要将模板配置文件拷贝到这个目录下,执行如下命令:
    [root@localhost root]# rpm -q heartbeat-ldirectord -d                              
    /usr/share/doc/heartbeat-ldirectord-2.1.3/ldirectord.cf
    /usr/share/man/man8/ldirectord.8.gz
    [root@localhost root]# cp /usr/share/doc/heartbeat-ldirectord-2.1.3/ldirectord.cf /etc/ha.d
    可以通过执行如下命令启动或关闭ldirectord服务
    /etc/init.d/ldirectord {start|stop}
    Ldirectord的配置文件是/etc/ha.d/ldirectord.cf,下面详述下这个文件每个参数的含义:

    下面是需要配置的选项,注意,“#”号后面的内容为注释:

    # Global Directives
    checktimeout=20           #判定real server出错的时间间隔。
    checkinterval=10          #指定ldirectord在两次检查之间的间隔时间。
    fallback=127.0.0.1:80     #当所有的real server节点不能工作时,web服务重定向的地址。
    autoreload=yes            #是否自动重载配置文件,选yes时,配置文件发生变化,自动载入配置信息。
    logfile="/var/log/ldirectord.log"      #设定ldirectord日志输出文件路径。
    quiescent=no              #当选择no时,如果一个节点在checktimeout设置的时间周期内没有响应,ldirectord将会从LVS的路由表中直接移除real server,此时,将中断现有的客
    户端连接,并使LVS丢掉所有的连接跟踪记录和持续连接模板,如果选择为yes,当某个real server失效时,ldirectord将失效节点的权值设置为0,新的连接将不能到达,但是并不从LVS路由
    表中清除此节点,同时,连接跟踪记录和程序连接模板仍然保留在Director上。
    注意:以上几行为ldirectord.cf文件的“全局”设置,它们可以应用到下面多个虚拟主机,下面是每个虚拟主机的配置。 # Sample for an http virtual service virtual=192.168.12.135:80 #指定虚拟的IP地址和端口号,注意,在virtual行后面的行必 须缩进4个空格或以一个tab字符进行标记。 real=192.168.12.246:80 gate #指定Real Server服务器地址和端口,同时设定LVS工作模式, 用gate表示DR模式,ipip表示TUNL模式,masq表示NAT模式。 real=192.168.12.237:80 gate fallback=127.0.0.1:80 gate service=http #指定服务的类型,这里是对http服务做负载均衡。 request="index.html" #ldirectord将根据指定的Real Server地址,结合该选项给出 的请求路径,发送访问请求,检查Real Server上的服务是否正常运行,确保这里给出的页面地址是可访问的,不然ldirectord会误认为此节点已经失效,发生错误监控现象。 receive="Test Page" #指定请求和应答字串。 scheduler=rr #指定调度算法,这里是rr(轮叫)算法。 protocol=tcp #指定协议的类型,LVS支持TCP和UDP协议。 checktype=negotiate #指定Ldirectord的检测类型,默认为negotiate。 checkport=80 #指定监控的端口号。 virtualhost=www.ixdba.net #虚拟服务器的名称,随便指定。

    5、 启动LVS集群服务
             LVS负载均衡管理和使用有两种方式,这里以Piranha工具为主进行介绍。
    首先,启动每个real server节点的服务:

    [root@localhost ~]# /etc/init.d/lvsrs  start
     start LVS  of  REALServer
    然后,在Director Server启动pulse服务:
    [root@DR1 ~]#/etc/init.d/pulse start
    [root@DR1 ~]#/ ipvsadm -L
    IP Virtual Server version 1.2.0 (size=4096)
    Prot LocalAddress:Port Scheduler Flags
      -> RemoteAddress:Port          Forward  Weight  ActiveConn InActConn
    TCP  192.168.12.135:http rr persistent 600
      -> 192.168.12.246:http          Route    1         3          22        
      -> 192.168.12.237:http          Route    1         9          10

    此时查看pulse服务的系统日志信息如下:

    [root@localhost ~]# tail -f /var/log/messages
    Nov 22 15:52:55 lvs lvs[7031]: starting virtual service www.ixdba.net active: 80
    Nov 22 15:52:55 lvs lvs[7031]: create_monitor for www.ixdba.net/RS1 running as pid 7039
    Nov 22 15:52:55 lvs nanny[7039]: starting LVS client monitor for 192.168.12.135:80
    Nov 22 15:52:55 lvs lvs[7031]: create_monitor for www.ixdba.net/RS2 running as pid 7040
    Nov 22 15:52:55 lvs nanny[7039]: making 192.168.12.246:80 available
    Nov 22 15:52:55 lvs nanny[7040]: starting LVS client monitor for 192.168.12.135:80
    Nov 22 15:52:55 lvs nanny[7040]: making 192.168.12.237:80 available

        从日志可以看出,pulse服务启动了一个www.ixdba.net的虚拟服务,同时加载了RS1和RS2两个节点,然后检测到RS1和RS2两个节点对应的80端口可用,最后启动了虚拟IP的80端口,对外提供服务。
    日志中“www.ixdba.net”、“RS1”、“RS2”等标识均在Piranha的配置文件/etc/sysconfig/ha/lvs.cf中定义。
    Pulse服务启动完毕,通过“ps –ef”命令可以看到有如下进程在运行:

    [root@localhost ~]#  ps -ef|grep nanny
    /usr/sbin/nanny -c -h 192.168.12.246 -p 80 -s GET / HTTP/1.0
    
     -x HTTP -a 15 -I /
    /usr/sbin/nanny -c -h 192.168.12.237 -p 80 -s GET / HTTP/1.0
    
     -x HTTP -a 15 -I /
    其中,nanny就是Pulse服务的守护进程,用于监控LVS服务节点的运行状态,类似与ldirectord的节点监控功能。

    6、 LVS+Keepalived构建拓扑图:

     7、安装Keepalived
     keepalived起初是为LVS设计的,专门用来监控集群系统中各个服务节点的状态,后来又加入了VRRP的功能,VRRP是Virtual Router Redundancy Protocol(虚拟路由器冗余协议)的缩写,VRRP出现的目的就是为了解决静态路由出现的单点故障问题,它能够保证网络的不间断、稳定的运行。所以,keepalived一方面具有服务器健康检测功能,另一方面也具有HA cluster功能。 
     Keepalived的官方站点是http://www.keepalived.org,可以在这里下载到各种版本,我们这里下载的是keepalived-1.1.19.tar.gz,安装步骤如下:

    [root@DR1 ~]#tar zxvf keepalived-1.1.19.tar.gz
    [root@DR1 ~]#cd keepalived-1.1.19
    [root@DR1 keepalived-1.1.19]#./configure   --sysconf=/etc 
    > --with-kernel-dir=/usr/src/kernels/2.6.18-8.el5-i686
    [root@DR1 keepalived-1.1.19]#make
    [root@DR1 keepalived-1.1.19]#make install
    [root@DR1 keepalived-1.1.19]#ln -s /usr/local/sbin/keepalived  /sbin/
       #在编译选项中,“--sysconf”指定了Keepalived配置文件的安装路径,即路径为/etc/Keepalived/Keepalived.conf,“--with-kernel-dir”这是个很重要的参数,但这个参数并不
    是要把Keepalived编译进内核,而是指定使用内核源码里面的头文件,就是include目录。如果要使用LVS时,才需要用到此参数,否则是不需要的。

    8、配置Keepalived
     Keepalived的配置非常简单,仅仅需要一个配置文件即可完成HA cluster和lvs服务节点监控功能,Keepalived的安装已经在上面章节进行了介绍,在通过Keepalived搭建高可用的LVS集群实例中,主、备Director Server都需要安装Keepalived软件,安装成功后,默认的配置文件路径为/etc/Keepalived/Keepalived.conf。一个完整的keepalived配置文件,有三个部分组成,分别是全局定义部分、vrrp实例定义部分以及虚拟服务器定义部分,下面详细介绍下这个配置文件中每个选项的详细含义和用法:

     1 #全局定义部分
     2 global_defs {
     3    notification_email {
     4      dba.gao@gmail.com        #设置报警邮件地址,可以设置多个,每行一个。注意,如果要开启邮件报警,需要开启本机的sendmail服务。
     5      ixdba@163.com
     6    }
     7    notification_email_from Keepalived@localhost        #设置邮件的发送地址。
     8    smtp_server 192.168.200.1    #设置smtp server地址。
     9    smtp_connect_timeout 30    #设置连接smtp服务器超时时间。
    10    router_id  LVS_MASTER    #运行Keepalived服务器的一个标识。发邮件时显示在邮件标题中的信息
    11 }
    12 
    13 #vrrp实例定义部分
    14 vrrp_instance VI_1 {
    15 state MASTER        #指定Keepalived的角色,MASTER表示此主机是主用服务器,BACKUP表示是备用服务器。
    16     interface eth0                                #指定HA监测网络的接口。
    17     virtual_router_id 51    #虚拟路由标识,这个标识是一个数字,并且同一个vrrp实例使用唯一的标识,即同一个vrrp_instance下,MASTER和BACKUP必须是一致的。
    18 priority 100    #定义优先级,数字越大,优先级越高,在一个vrrp_instance下,MASTER的优先级必须大于BACKUP的优先级。
    19     advert_int 1      #设定MASTER与BACKUP负载均衡器之间同步检查的时间间隔,单位是秒。
    20     authentication {                             #设定验证类型和密码。
    21         auth_type PASS                    #设置验证类型,主要有PASS和AH两种。
    22         auth_pass 1111    #设置验证密码,在一个vrrp_instance下,MASTER与BACKUP必须使用相同的密码才能正常通信。
    23     }
    24     virtual_ipaddress {        #设置虚拟IP地址,可以设置多个虚拟IP地址,每行一个。
    25         192.168.12.135
    26     }
    27 }
    28 
    29 #虚拟服务器定义部分
    30 virtual_server 192.168.12.135 80 {       #设置虚拟服务器,需要指定虚拟ip地址和服务端口,ip与端口之间用空格隔开。
    31     delay_loop 6                        #设置健康检查时间,单位是秒。
    32     lb_algo rr                   #设置负载调度算法,这里设置为rr,即轮询算法。
    33     lb_kind DR                          #设置LVS实现负载均衡的机制,可以有NAT、TUN和DR三个模式可选。
    34 persistence_timeout 50                  #会话保持时间,单位是秒,这个选项对于动态网页是非常有用的,为集群系统中session共享提供了一个很好的解决方案。
    35 protocol TCP #指定转发协议类型,有tcp和udp两种。 36 37 real_server 192.168.12.246 80 { #配置服务节点1,需要指定real server的真实IP地址和端口,ip与端口之间用空格隔开。 38 weight 3 #配置服务节点的权值,权值大小用数字表示,数字越大,权值越高.
    39 TCP_CHECK { #realserve的状态检测设置部分,单位是秒 40 connect_timeout 10 #10秒无响应超时 41 nb_get_retry 3 #重试次数 42 delay_before_retry 3 #重试间隔 43 } 44 } 45 46 real_server 192.168.12.237 80 { #配置服务节点2 47 weight 1 48 TCP_CHECK { 49 connect_timeout 3 50 nb_get_retry 3 51 delay_before_retry 3 52 } 53 } 54 }

    在配置Keepalived.conf时,需要特别注意配置文件的语法格式,因为Keepalived在启动时并不检测配置文件的正确性,即使没有配置文件,Keepalived也照样能启动起来,因而配置文件一定要正确。
     在默认情况下,Keepalived在启动时会查找/etc/Keepalived/Keepalived.conf配置文件,如果你的配置文件放在了其它路径下,可以通过“Keepalived  -f”参数指定你所在的配置文件路径即可。
     Keepalived.conf配置完毕后,将此文件拷贝到备用Director Server对应的路径下,然后做两个简单的修改即可:
     将“state MASTER”更改为“state BACKUP”
     将priority 100更改为一个较小的值,这里改为“priority 80”
     最后,还要配置集群的Real server节点,以达到与Director Server相互广播通信并忽略arp的目的,脚本的内容已经在上面进行介绍,这里不做解释。
    9、启动Keepalived+lvs集群系统
     在主、备Director Server上分别启动Keepalived服务,可以执行如操下作:

     [root@DR1 ~]#/etc/init.d/Keepalived  start

     接着在两个Real server上执行如下脚本:

     [root@rs1~]#/etc/init.d/lvsrs start

    至此,Keepalived+lvs高可用的LVS集群系统已经运行起来了。
    .

    .

    .

    本文内容摘自华章教育:

  • 相关阅读:
    Python数据分析与机器学习-Pandas_1
    Python数据分析与机器学习-NumPy_5
    Python数据分析与机器学习-NumPy_3
    Python数据分析与机器学习-NumPy_4
    Python数据分析与机器学习-NumPy_2
    Python数据分析与机器学习-NumPy_1
    早起的鸟儿会摔倒
    我讨厌这样的自己
    依然很迷茫?
    孵客总结
  • 原文地址:https://www.cnblogs.com/saneri/p/5093423.html
Copyright © 2020-2023  润新知