在分布式系统中为了解决单点问题,通常会把数据复制多个副本部署到其他机器,满足故障恢复和负载均衡等需求。Redis也是如此,它为我们提供了复制功能,实现了相同数据的多个Redis副本。复制功能是高可用Redis的基础,哨兵和集群都是在复制的基础上实现高可用的。复制也是Redis日常运维的常见维护点。
一、配置
1.建立复制
参与复制的Redis实例划分为主节点(master)和从节点(slave)。
默认情况下,Redis都是主节点。
每个从节点只能有一个主节点,而主节点可以同时具有多个从节点。
复制的数据流是单向的,只能由主节点复制到从节点。
配置复制的方式有三种:
- 在配置文件中加入slaveof{masterHost}{masterPort}随Redis启动生效。
- 在redis-server启动命令后加入--slaveof{masterHost}{masterPort}生效。
- 直接使用命令:slaveof{masterHost}{masterPort}生效。
复制示例:
本地启动两个端口为6379和6380的Redis节点,然后使用第三种配置方式启动复制,并查看复制相关状态:
192.168.131.130:6380> slaveof 192.168.131.130 6379 OK 192.168.131.130:6380> keys * 1) "FastJson" 2) "hot:user:list" 3) "user:99:ratio" 4) "Protostuff" 5) "Lua" 6) "user:8:ratio" 7) "user:1:ratio" 8) "JSON" 9) "XML" 10) "user:3:ratio" 11) "user:72:ratio" 192.168.131.130:6379> keys * 1) "hot:user:list" 2) "JSON" 3) "user:8:ratio" 4) "Lua" 5) "XML" 6) "user:1:ratio" 7) "user:72:ratio" 8) "user:99:ratio" 9) "user:3:ratio" 10) "Protostuff" 11) "FastJson"
192.168.131.130:6379> info replication
# Replication
role:master
connected_slaves:1
slave0:ip=192.168.131.130,port=6380,state=online,offset=154,lag=1
master_replid:8157a3b7a7e34328fc8d427a1ea65a2a37beb151
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:154
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:154
192.168.131.130:6380> info replication
# Replication
role:slave
master_host:192.168.131.130
master_port:6379
master_link_status:up
master_last_io_seconds_ago:9
master_sync_in_progress:0
slave_repl_offset:182
slave_priority:100
slave_read_only:1
connected_slaves:0
master_replid:8157a3b7a7e34328fc8d427a1ea65a2a37beb151
master_replid2:0000000000000000000000000000000000000000
master_repl_offset:182
second_repl_offset:-1
repl_backlog_active:1
repl_backlog_size:1048576
repl_backlog_first_byte_offset:1
repl_backlog_histlen:182
2.断开复制
(1)断开复制
slaveof命令不但可以建立复制,还可以在从节点执行slaveof no one来断开与主节点复制关系。
断开复制主要流程:
- 断开与主节点复制关系。
- 从节点晋升为主节点。
从节点断开复制后并不会抛弃原有数据,只是无法再获取主节点上的数据变化。
192.168.131.130:6380> slaveof no one OK 192.168.131.130:6380> keys * 1) "FastJson" 2) "hot:user:list" 3) "user:99:ratio" 4) "Protostuff" 5) "Lua" 6) "user:8:ratio" 7) "user:1:ratio" 8) "JSON" 9) "XML" 10) "user:3:ratio" 11) "user:72:ratio" 192.168.131.130:6379> set slave over OK 192.168.131.130:6380> get slave (nil)
(2)切主操作
通过slaveof命令还可以实现切主操作,所谓切主是指把当前从节点对主节点的复制切换到另一个主节点。执行slaveof {newMasterIp} {newMasterPort}命令即可。
切主操作流程如下:
- 断开与旧主节点复制关系。
- 与新主节点建立复制关系。
- 删除从节点当前所有数据。
- 对新主节点进行复制操作。
切主后从节点会清空之前所有的数据,线上人工操作时小心slaveof在错误的节点上执行或者指向错误的主节点。
3.安全性
对于数据比较重要的节点,主节点会通过设置requirepass参数进行密码验证,这时所有的客户端访问必须使用auth命令实行校验。从节点与主节点的复制连接是通过一个特殊标识的客户端来完成,因此需要配置从节点的masterauth参数与主节点密码保持一致,这样从节点才可以正确地连接到主节点并发起复制流程。
4.只读
默认情况下,从节点使用slave-read-only=yes配置为只读模式。由于复制只能从主节点到从节点,对于从节点的任何修改主节点都无法感知,修改从节点会造成主从数据不一致。因此建议线上不要修改从节点的只读模式。
5.传输延迟
主从节点一般部署在不同机器上,复制时的网络延迟就成为需要考虑的问题,Redis为我们提供了repl-disable-tcp-nodelay参数用于控制是否关闭TCP_NODELAY,默认关闭,说明如下:
- 当关闭时,主节点产生的命令数据无论大小都会及时地发送给从节点,这样主从之间延迟会变小,但增加了网络带宽的消耗。适用于主从之间的网络环境良好的场景,如同机架或同机房部署。
- 当开启时,主节点会合并较小的TCP数据包从而节省带宽。默认发送时间间隔取决于Linux的内核,一般默认为40毫秒。这种配置节省了带宽但增大主从之间的延迟。适用于主从网络环境复杂或带宽紧张的场景,如跨机房部署。
- 部署主从节点时需要考虑网络延迟、带宽使用率、防灾级别等因素,如要求低延迟时,建议同机架或同机房部署并关闭repl-disable-tcp-nodelay;如果考虑高容灾性,可以同城跨机房部署并开启repl-disable-tcp-nodelay。
二、拓扑
Redis的复制拓扑结构可以支持单层或多层复制关系,根据拓扑复杂性可以分为以下三种:一主一从、一主多从、树状主从结构。
三、原理
1.复制过程
2.数据同步
同步过程分为:全量复制和部分复制
从节点使用psync命令完成部分复制和全量复制功能:psync {runId} {offset}
psycn命令运行流程:
(1)从节点(slave)发送psync命令给主节点,参数runId是当前从节点保存的主节点运行ID,如果没有则默认值为,参数offset是当前从节点保存的复制偏移量,如果是第一次参与复制则默认值为-1。
(2)主节点(master)根据psync参数和自身数据情况决定响应结果:
- 如果回复+FULLRESYNC{runId}{offset},那么从节点将触发全量复制流程。
- 如果回复+CONTINUE,从节点将触发部分复制流程。
- 如果回复+ERR,说明主节点版本低于Redis2.8,无法识别psync命令,从节点将发送旧版的sync命令触发全量复制流程。
3.全量复制
4.部分复制
5.心跳
主从节点在建立复制后,它们之间维护着长连接并彼此发送心跳命令。
6.异步复制
主节点不但负责数据读写,还负责把写命令同步给从节点。写命令的发送过程是异步完成,也就是说主节点自身处理完写命令后直接返回给客户端,并不等待从节点复制完成。
- 主节点6379接收处理命令。
- 命令处理完之后返回响应结果。
- 对于修改命令异步发送给6380从节点,从节点在主线程中执行复制的命令。
四、开发与运维中的问题
1.读写分离
对于读占比较高的场景,可以通过把一部分读流量分摊到从节点(slave)来减轻主节点(master)压力,同时需要注意永远只对主节点执行写操作。
2.主从配置不一致
主从配置不一致是一个容易忽视的问题。对于有些配置主从之间是可以不一致,比如:主节点关闭AOF在从节点开启。但对于内存相关的配置必须要一致,比如maxmemory,hash-max-ziplist-entries等参数。当配置的maxmemory从节点小于主节点,如果复制的数据量超过从节点maxmemory时,它会根据maxmemory-policy策略进行内存溢出控制,此时从节点数据已经丢失,但主从复制流程依然正常进行,复制偏移量也正常。修复这类问题也只能手动进行全量复制。当压缩列表相关参数不一致时,虽然主从节点存储的数据一致但实际内存占用情况差异会比较大。
3.规避全量复制
全量复制是一个非常消耗资源的操作,因此如何规避全量复制是需要重点关注的运维点。
需要进行全量复制的场景:
- 第一次建立复制
- 节点运行ID不匹配
- 复制积压缓冲区不足
4.规避复制风暴
复制风暴是指大量从节点对同一主节点或者对同一台机器的多个主节点短时间内发起全量复制的过程。复制风暴对发起复制的主节点或者机器造成大量开销,导致CPU、内存、带宽消耗。因此我们应该分析出复制风暴发生的场景,提前采用合理的方式规避。
复制风暴发生的场景和规避复制风暴可以的方式:
- 单主节点复制风暴:减少主节点挂载从节点的数量,或者采用树状复制结构,加入中间层从节点来保护主节点。
- 单机器复制风暴:应该尽量把主节点分散在多台机器上,避免在单台机器上部署过多的主节点。或者当主节点所在机器故障后提供故障转移机制,避免机器恢复后进行密集的全量复制。