• redis初识


    linux环境搭建

    环境准备介绍

    Oracle VM VirtualBox,虚机管理工具,免费好用,用过就知道

    3台centos虚拟机,为后续搭建redis集群环境以及最简单的redis哨兵模式(一主二从,至少3台)

    配置虚机网络

    ​ 用centos7.ova导入VirtualBox,创建3台centos7虚拟机,内存跟cpu看自身笔记本硬件情况,需要注意的是,创建完成之后,这里的网络设置需要设置成桥接模式,如下

    1-1虚拟机网络设置桥接模式

    ​ 在创建完3台centos虚拟机后(这里使用的系统是centos7),将三台机子分别命名为eshop-cache01、eshop-cache02、eshop-cache03,方便称呼与后续管理(总比起三个ip地址为服务器名来的好吧)

    ​ 接下来配置下3台虚机的网络,先来看下eshop-cache01的网络

    centos7的查看ip指令是ip addr,centos7以下是ifconfig

    1-2eshop-cache01的ip地址

    ​ 然后关闭防火墙,避免因为防火墙导致ssh工具连接不上

    service iptables stop
    service ip6tables stop
    chkconfig iptables off
    chkconfig ip6tables off
    

    ​ 然后采用ssh工具连接,此处采用SecureCRT,使用SecureCRT登录上eshop-cache01之后,修改eshop-cache01的网络,将ip设置成静态ip并且设置网络随机子启动而主动连接(不采用动态地址导致地址更换频繁的浪费时间去纠正ip)

    vi /etc/sysconfig/network-scripts/ifcfg-enp0s3
    

    ​ 如下,修改的地方已用红框标注起来,首先修改ip分配方式为static,在文件末尾追加静态ip地址、子网掩码以及网关地址

    1-3eshop-cache01修改ifcfg-enp0s3图

    ​ 如下是我本地eshop-cache01的ifcfg-enp0s3文件内容

    TYPE="Ethernet"
    BOOTPROTO="static"
    DEFROUTE="yes"
    PEERDNS="yes"
    PEERROUTES="yes"
    IPV4_FAILURE_FATAL="no"
    IPV6INIT="yes"
    IPV6_AUTOCONF="yes"
    IPV6_DEFROUTE="yes"
    IPV6_PEERDNS="yes"
    IPV6_PEERROUTES="yes"
    IPV6_FAILURE_FATAL="no"
    NAME="enp0s3"
    UUID="f17ed393-95ad-4bdd-ab43-4228af6a64c3"
    DEVICE="enp0s3"
    ONBOOT="yes"
    
    IPADDR=172.29.45.168
    NETMASK=255.255.255.128
    GATEWAY=172.29.45.129
    

    ​ ifcfg-enp0s3文件修改完之后,重启网络

    service network restart
    

    1-4eshop-cache01重启网络图

    ​ eshop-cache02与eshop-cache03如法炮制,最终配置完三台虚拟机的网络之后,三台虚拟机的ip地址如下

    服务器 ip
    eshop-cache01 172.29.45.168
    eshop-cache02 172.29.45.170
    eshop-cache03 172.29.45.171

    修改host

    ​ 在三台虚拟机的host中,添加三者的ip以及服务器域名,后续搭建集群时,可以通过域名去请求虚机,不去拷贝ip,不好记又容易乱

    ​ host文件内容如下

    127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
    ::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
    172.29.45.168 eshop-cache01
    172.29.45.170 eshop-cache02
    172.29.45.171 eshop-cache03
    

    配置虚机间ssh免密码登录

    ​ 修改host文件完成后,在eshop-cache01可以用ssh指令去连接eshop-02,但是每次连接都要求输入密码,很不方便。有这样一个场景,就是eshop-cache01有个文件的配置与另外两台服务器的配置是一样,如果我们用SecureCRT去操作的话,需要将文件拷贝到本机,然后再在本机上传到另外两台,但是这样机器少还好,机器多就容易乱,我们可以用scp指令去拷贝文件到另外两台服务器,方便快捷,但是使用scp指令在服务器之间传文件也需要提供密码,也是个耗时的操作,所以这里有必要将三台虚机相互通讯配置免密登录。

    #生成本机的公钥,过程中不断敲回车即可,ssh-keygen命令默认会将公钥放在/root/.ssh目录下
    ssh-keygen -t rsa
    
    #将公钥复制为authorized_keys文件,此时使用ssh连接本机就不需要输入密码了
    cd /root/.ssh
    cp id_rsa.pub authorized_keys
    
    #使用ssh-copy-id -i hostname命令将本机的公钥拷贝到指定机器的authorized_keys文件中
    ssh-copy-id -i  eshop-cache02
    

    ​ 然后eshop-cache02与eshop-cache03也如法炮制。

    ​ 再提一个方法,就是这里我们只有3台服务器,但是如果再加几台,干这种工作也可能会让你干奔溃,所以有一个办法,就是在每个服务器上生成各自的公钥,然后使用ssh-copy-id -i eshop-cache01指令将其他服务器的authorized_keys集中复制到eshop-cache01,此时其他服务器的authorized_keys会在eshop-cache01中追加,最后将eshop-cache01的authorized_keys复制到其他的服务器

    1-5eshop-cache01的authorized_keys文件内容

    配置yum

    yum clean all
    yum makecache
    yum install wget
    

    安装perl

    #安装perl之前需要先安装gcc,如果确认自己的机子已经安装过gcc可以跳过该指令
    yum install -y gcc
    
    wget http://www.cpan.org/src/5.0/perl-5.16.1.tar.gz
    tar -xzf perl-5.16.1.tar.gz
    cd perl-5.16.1
    ./Configure -des -Dprefix=/usr/local/perl
    make && make test && make install
    perl -v
    

    ​ 为什么要装perl?我们整个大型电商网站的系统,复杂。应用架构是java+nginx+lua,需要perl。

    ​ perl,是一个基础的编程语言的安装,tomcat,跑java web应用

    安装单机版redis及其配置

    安装redis

    redis安装包:redis-3.2.8.tar.gz
    tcl安装包:tcl8.6.1-src.tar.gz

    #安装redis之前需要先安装tcl,否则在make的时候,会报错,安装不成功
    wget http://downloads.sourceforge.net/tcl/tcl8.6.1-src.tar.gz
    tar -xzvf tcl8.6.1-src.tar.gz
    cd  /usr/local/tcl8.6.1/unix/
    ./configure  
    make && make install
    
    #使用redis-3.2.8.tar.gz(截止2017年4月的最新稳定版)
    tar -zxvf redis-3.2.8.tar.gz
    cd redis-3.2.8
    make && make test && make install
    

    配置redis

    (1)redis安装目录的utils目录下,有个redis_init_script脚本

    (2)将redis_init_script脚本拷贝到linux的/etc/init.d目录中,将redis_init_script重命名为redis_6379,6379是我们希望这个redis实例监听的端口号

    cp /var/local/redis-3.2.8/utils/redis_init_script /etc/init.d/redis_6379
    

    (3)修改redis_6379脚本的第6行的REDISPORT,设置为相同的端口号(默认就是6379)

    2-1eshop-cache01的redis_6379内容

    (4)创建两个目录:/etc/redis(存放redis的配置文件),/var/redis/6379(存放redis的持久化文件)

    #/etc目录已经存在,直接创建redis目录
    mkdir /etc/redis
    #/var/redis的目录不存在,需要递归地创建目录加参数-p
    mkdir -p /var/redis/6379
    

    (5)修改redis配置文件(默认在根目录下,redis.conf),拷贝到/etc/redis目录中,修改名称为6379.conf

    cp /var/local/redis-3.2.8/redis.conf /etc/redis/6379.conf
    

    (6)修改redis.conf中的部分配置为生产环境

    #让redis以daemon进程运行
    daemonize yes
    #设置redis的pid文件位置
    pidfile /var/run/redis_6379.pid
    #设置redis的监听端口号
    port 6379
    #设置持久化文件的存储位置
    dir /var/redis/6379
    

    (7)启动redis

    cd /etc/init.d
    chmod 777 redis_6379
    ./redis_6379 start
    

    (8)确认redis进程是否启动

    ps -ef | grep redis
    

    (9)让redis跟随系统启动自动启动

    ​ 在redis_6379脚本中,最上面,在#!/bin/sh下,加入两行注释

    # chkconfig:   2345 90 10
    # description:  Redis is a persistent key-value database
    

    ​ 然后执行如下指令,让redis跟随系统启动自动启动

    chkconfig redis_6379 on
    

    测试redis安装成功

    #使用redis-cli指令连接eshop-cache01的redis服务器
    redis-cli -h eshop-cache01 -p 6379
    #连接成功,设置值
    set mykey1 v1
    #获取值
    get mykey1
    

    2-2eshop-cache01测试redis是否安装成功

    redis持久化

    redis做持久化的意义在于故障恢复。

    ​ 有这样的场景:你的电商项目部署了一个redis,作为cache缓存,当然也可以保存一些较为重要的数据,如果没有持久化的话,redis遇到灾难性故障的时候,就会丢失所有的数据,如果通过持久化将数据考一份儿在磁盘上去,然后定期比如说同步和备份到一些云存储服务上去,那么就可以保证数据不丢失全部,还是可以恢复一部分数据回来的。

    ​ 如果不做持久化,当redis挂了,所有缓存数据丢失,所有请求都会去重查数据库,网站的吞吐量会立马下降,然后碰上高峰期,数据库就会被搞崩溃,然后网站就GG了。

    所以,redis做持久化很有必要。

    3-1redis持久化的意义

    ​ 如果redis做了持久化,当redis挂了,服务器上的内存和磁盘上的数据都丢了,可以从云服务上拷贝回来之前的数据,放到指定的目录中,然后重新启动redis,redis就会自动根据持久化数据文件中的数据,去恢复内存中的数据,继续对外提供服务

    ​ redis的持久化有两种方式,RDB与AOF

    如果我们想要redis仅仅作为纯内存的缓存来用,那么可以禁止RDB和AOF所有的持久化机制

    RDB

    RDB持久化机制,对redis中的数据执行周期性的持久化。

    ​ 简单的说,RDB是比较简单粗暴,在配置开启RDB之后(redis默认开启),redis会根据配置的周期性时间将内存数据的快照保存到本地文件。

    ​ 也即,RDB,就是一份数据文件,恢复的时候,直接加载到内存中即可。

    ​ 所以,RDB非常适合做冷备,可以将这种完整的数据文件发送到一些远程的安全存储上去,比如说Amazon的S3云服务上去,在国内可以是阿里云的ODPS分布式存储上,以预定好的备份策略来定期备份redis中的数据。

    ​ RDB对redis对外提供的读写服务,影响非常小,可以让redis保持高性能,因为redis主进程只需要fork一个子进程,让子进程执行磁盘IO操作来进行RDB持久化即可。

    ​ 但是RDB也不是完美的,RDB也有缺点

    ​ (1)如果想要在redis故障时,尽可能少的丢失数据,那么RDB没有AOF好。一般来说,RDB数据快照文件,都是每隔5分钟,或者更长时间生成一次,这个时候就得接受一旦redis进程宕机,那么会丢失最近5分钟的数据

    ​ (2)RDB每次在fork子进程来执行RDB快照数据文件生成的时候,如果数据文件特别大,可能会导致对客户端提供的服务暂停数毫秒,或者甚至数秒

    RDB持久化的工作流程

    ​ (1)redis根据配置自己尝试去生成rdb快照文件
    (2)fork一个子进程出来
    (3)子进程尝试将数据dump到临时的rdb快照文件中
    (4)完成rdb快照文件的生成之后,就替换之前的旧的快照文件

    RDB的配置及实验

    ​ 修改redis.conf文件,也就是/etc/redis/6379.conf,去配置持久化

    #每隔60s,如果有超过1000个key发生了变更,那么就生成一个新的dump.rdb文件,就是当前redis内存中完整的数据快照,这个操作也被称之为snapshotting,快照
    save 60 1000	
    

    ​ 也可以手动调用save或者bgsave命令,同步或异步执行rdb快照生成

    save可以设置多个,就是多个snapshotting检查点,每到一个检查点,就会去check一下,是否有指定的key数量发生了变更,如果有,就生成一个新的dump.rdb文件

    3-2redis的RDB持久化默认配置

    SHUTDOWN指令redis实验

    ​ 默认配置不改的情况下,进行如下实验

    #用redis-cli连接eshop-cache01的redis服务器
    redis-cli -h eshop-cache01 -p 6379
    #查询所有key
    keys *
    #添加数据
    set key1 v1
    set key2 v2
    set key3 v3
    #查询所有key
    keys *
    #退出客户端
    exit
    #关闭eshop-cache01的redis服务器
    redis-cli -h eshop-cache01 -p 6379 SHUTDOWN
    #查看redis进程
    ps -ef|grep redis
    #找到启动脚本目录,重新启动
    cd /etc/init.d/
    ./redis_6379 start
    #用客户端连接重新查询数据
    redis-cli -h eshop-cache01 -p 6379
    keys *
    

    3-3redis的RDB持久化SHUTDOWN实验初试

    ​ 通过上述操作,我们可以知道,最后是可以查出数据的,理论上应该不能查到数据才对,因为默认的配置是1分钟有一万条数据更改、或5分钟有10条数据更改、或15分钟15分钟有一条数据更改,就生成dump.rdb文件

    3-4redis的RDB持久化SHUTDOWN实验结果

    这是由于,当我们调用 redis-cli -h eshop-cache01 -p 6379 SHUTDOWN指令停掉redis时,其实是一种安全退出的模式,redis在退出的时候会将内存中的数据立即生成一份完整的rdb快照

    删除dump文件重启实验

    ​ 如果我们此时把dump.rdb文件移动到一个别的地方,然后删除掉/var/redis/6379下的dump.rdb文件,重新启动redis服务器,再进行查询key就会发现数据不见了,因为rdb文件被我们删除了

    3-5redis的RDB持久化SHUTDOWN之后移动dump文件结果

    kill进程重启实验

    ​ 实验步骤也很简单,连接客户端添加键值对之后,退出客户端把redis服务进程给kill即可,实验结果如下,

    3-6redis的RDB持久化kill进程实验

    ​ 上面的实验也正好证实了,rdb持久化会丢失部分数据。

    3-7redis的RDB丢失数据的问题

    RDB恢复实验

    ​ 恢复实验过程也很简单,就是将一份dump.rdb的文件拷贝到redis持久化的目录下,重启redis服务器即可,实际上一个实验也体现了RDB持久化的数据恢复,这里就不再演示了。

    ​ 在实际的生产环境中,如果只做rdb持久化的情况下,最好是设置多个snapshotting检查点,如一个小时一次,以及2天一次,保证48小时内每个小时间隔的数据都做了备份(具体看自己系统的业务量而定),然后写个脚本将dump备份同步到云上去,当发生redis故障时,可以根据具体的情况恢复想要的数据。

    AOF

    ​ AOF不像RDB流程那样简单直接fork一个子进程,保存内存中的数据快照,然后替换旧的dump文件。

    ​ 如下,是RDB与AOF的流程对比图

    3-8RDB和AOF的介绍

    ​ AOF机制对每条写入命令作为日志,以append-only的模式写入一个日志文件中,在redis重启的时候,可以通过回放AOF日志中的写入指令来重新构建整个数据集。

    ​ AOF开启后,redis每次接收到一条写命令,就会写入日志文件中,当然是先写入os cache的,然后每隔一定时间再fsync一下。

    所以,相对来说,AOF的日志文件是人可以看懂的。

    AOF持久化的工作流程

    (1)AOF在接收到写命令之后,将指令写到os cache中

    (2)根据配置os cache的更新策略,将os cache的指令写入到日志中,默认是1秒钟刷新一次os cache

    AOF的Rewrite流程

    ​ redis中的数据其实有限的,很多数据可能会自动过期,可能会被用户删除,可能会被redis用缓存清除的算法清理掉。redis中的数据会不断淘汰掉旧的,就一部分常用的数据会被自动保留在redis内存中,所以可能很多之前的已经被清理掉的数据,对应的写日志还停留在AOF中,AOF日志文件就一个,会不断的膨胀,到很大很大

    ​ 所以AOF会自动在后台每隔一定时间做rewrite操作,比如日志里已经存放了针对100w数据的写日志了; redis内存只剩下10万; 基于内存中当前的10万数据构建一套最新的日志,到AOF中; 覆盖之前的老日志; 确保AOF日志文件不会过大,保持跟redis内存数据量一致

    ​ redis 2.4之前,还需要手动,开发一些脚本,crontab,通过BGREWRITEAOF命令去执行AOF rewrite,但是redis 2.4之后,会自动进行rewrite操作

    3-9AOF的rewrite原理剖析

    rewrite流程:

    (1)redis fork一个子进程
    (2)子进程基于当前内存中的数据,构建日志,开始往一个新的临时的AOF文件中写入日志
    (3)redis主进程,接收到client新的写操作之后,在内存中写入日志,同时新的日志也继续写入旧的AOF文件
    (4)子进程写完新的日志文件之后,redis主进程将内存中的新日志再次追加到新的AOF文件中
    (5)用新的日志文件替换掉旧的日志文件

    AOF的配置及实验

    AOF持久化,默认是关闭的,默认是打开RDB持久化

    ​ appendonly yes,可以打开AOF持久化机制,在生产环境里面,一般来说AOF都是要打开的,除非你的系统业务随便丢个几分钟的数据也无所谓

    3-10redis的AOF持久化默认配置

    ​ 如果AOF和RDB都开启了,redis重启的时候,也是优先通过AOF进行数据恢复的,因为AOF数据比较完整

    ​ AOF可以配置fsync策略,有三种策略可以选择:

    always: 每次写入一条数据,立即将这个数据对应的写日志fsync到磁盘上去,性能非常非常差,吞吐量很低; 确保说redis里的数据一条都不丢,那就只能这样了

    mysql -> 内存策略,大量磁盘,QPS到多少,一两k。QPS,每秒钟的请求数量

    redis -> 内存,磁盘持久化,QPS到多少,单机,一般来说,上万QPS没问题

    everysec: 每秒将os cache中的数据fsync到磁盘,这个最常用的,生产环境一般都这么配置,性能很高,QPS还是可以上万的

    no: redis仅仅负责将数据写入os cache就撒手不管了,然后后面os自己会时不时有自己的策略将数据刷入磁盘,不可控了

    修改AOF配置之后SHUTDOWN重启实验

    ​ 实验步骤是先修改/etc/redis/6379.conf配置文件,开启AOF持久化,然后重启应用查看结果

    #开启AOF持久化
    appendonly yes
    

    3-11redis的AOF持久化配置之后测试结果

    ​ 上图就是redis开启AOF持久化配置之后的测试结果,从上面的结果中,我们可以知道另外一个事情,就是如果同时开启RDB与AOF持久化时,优先从AOF中恢复,那么,如果开始你的redis是RDB备份的,现在需要添加开启AOF持久化,通过上面这种方式就显然是有问题的,原本系统的redis缓存数据全部丢失了,虽然还有dump.rdb文件,当发生数据变更,触发RDB持久化的周期备份,那么rdb的数据也没了!!也间接说明冷备很重要!冷备很重要!冷备很重要!

    ​ 回到上述问题,那如果出现这种场景,开始你的redis是RDB备份的,现在需要添加开启AOF持久化,那应该如何操作,才不会导致原有的数据丢失呢?

    ​ 恢复到之前的场景,将6379.conf中的appendonly的配置项改为no

    appendonly no
    

    3-12redis在已有rdb持久化的情况开启aof的数据场景

    ​ 在已开启rdb的情况,正确开启aof持久化的做法如下,

    #启动redis服务
    /etc/init.d/redis_6379 start
    Starting Redis server...
    [root@localhost 6379]# pwd
    /var/redis/6379
    [root@localhost 6379]# ll
    total 4
    -rw-r--r--. 1 root root 114 Jul 19 01:42 dump.rdb
    #客户端连接redis服务
    [root@localhost 6379]# redis-cli -h eshop-cache01 -p 6379
    eshop-cache01:6379> keys *
    1) "mykey1"
    2) "mykey3"
    3) "mykey2"
    #热修改配置参数,将appendonly设置为yes,但此时6379.conf配置文件并没有修改appendonly项
    eshop-cache01:6379> config set appendonly yes
    OK
    eshop-cache01:6379> config get appendonly
    1) "appendonly"
    2) "yes"
    

    ​ 在查看到aof持久化文件有数据后,可以将服务停掉,然后修改6379.conf配置文件,将appendonly改为yes,然后重启服务

    3-13redis在已有rdb持久化的情况开启aof的正确操作

    总结

    RDB持久化机制的优点

    (1)RDB会生成多个数据文件,每个数据文件都代表了某一个时刻中redis的数据,这种多个数据文件的方式,非常适合做冷备,可以将这种完整的数据文件发送到一些远程的安全存储上去,比如说Amazon的S3云服务上去,在国内可以是阿里云的ODPS分布式存储上,以预定好的备份策略来定期备份redis中的数据

    RDB也可以做冷备,生成多个文件,每个文件都代表了某一个时刻的完整的数据快照
    AOF也可以做冷备,只有一个文件,但是你可以,每隔一定时间,去copy一份这个文件出来

    RDB做冷备,优势在哪儿呢?由redis去控制固定时长生成快照文件的事情,比较方便; AOF,还需要自己写一些脚本去做这个事情,各种定时
    RDB数据做冷备,在最坏的情况下,提供数据恢复的时候,速度比AOF快

    (2)RDB对redis对外提供的读写服务,影响非常小,可以让redis保持高性能,因为redis主进程只需要fork一个子进程,让子进程执行磁盘IO操作来进行RDB持久化即可

    RDB,每次写,都是直接写redis内存,只是在一定的时候,才会将数据写入磁盘中
    AOF,每次都是要写文件的,虽然可以快速写入os cache中,但是还是有一定的时间开销的,速度肯定比RDB略慢一些

    (3)相对于AOF持久化机制来说,直接基于RDB数据文件来重启和恢复redis进程,更加快速

    AOF,存放的指令日志,做数据恢复的时候,其实是要回放和执行所有的指令日志,来恢复出来内存中的所有数据的
    RDB,就是一份数据文件,恢复的时候,直接加载到内存中即可

    结合上述优点,RDB特别适合做冷备份,冷备

    RDB持久化机制的缺点

    (1)如果想要在redis故障时,尽可能少的丢失数据,那么RDB没有AOF好。一般来说,RDB数据快照文件,都是每隔5分钟,或者更长时间生成一次,这个时候就得接受一旦redis进程宕机,那么会丢失最近5分钟的数据

    这个问题,也是rdb最大的缺点,就是不适合做第一优先的恢复方案,如果你依赖RDB做第一优先恢复方案,会导致数据丢失的比较多

    (2)RDB每次在fork子进程来执行RDB快照数据文件生成的时候,如果数据文件特别大,可能会导致对客户端提供的服务暂停数毫秒,或者甚至数秒

    一般不要让RDB的间隔太长,否则每次生成的RDB文件太大了,对redis本身的性能可能会有影响的

    AOF持久化机制的优点

    (1)AOF可以更好的保护数据不丢失,一般AOF会每隔1秒,通过一个后台线程执行一次fsync操作,最多丢失1秒钟的数据

    每隔1秒,就执行一次fsync操作,保证os cache中的数据写入磁盘中

    redis进程挂了,最多丢掉1秒钟的数据

    (2)AOF日志文件以append-only模式写入,所以没有任何磁盘寻址的开销,写入性能非常高,而且文件不容易破损,即使文件尾部破损,也很容易修复

    (3)AOF日志文件即使过大的时候,出现后台重写操作,也不会影响客户端的读写。因为在rewrite log的时候,会对其中的指导进行压缩,创建出一份需要恢复数据的最小日志出来。再创建新日志文件的时候,老的日志文件还是照常写入。当新的merge后的日志文件ready的时候,再交换新老日志文件即可。

    (4)AOF日志文件的命令通过非常可读的方式进行记录,这个特性非常适合做灾难性的误删除的紧急恢复。比如某人不小心用flushall命令清空了所有数据,只要这个时候后台rewrite还没有发生,那么就可以立即拷贝AOF文件,将最后一条flushall命令给删了,然后再将该AOF文件放回去,就可以通过恢复机制,自动恢复所有数据

    AOF持久化机制的缺点

    (1)对于同一份数据来说,AOF日志文件通常比RDB数据快照文件更大

    (2)AOF开启后,支持的写QPS会比RDB支持的写QPS低,因为AOF一般会配置成每秒fsync一次日志文件,当然,每秒一次fsync,性能也还是很高的

    如果你要保证一条数据都不丢,也是可以的,AOF的fsync设置成没写入一条数据,fsync一次,那就完蛋了,redis的QPS大降

    (3)以前AOF发生过bug,就是通过AOF记录的日志,进行数据恢复的时候,没有恢复一模一样的数据出来。所以说,类似AOF这种较为复杂的基于命令日志/merge/回放的方式,比基于RDB每次持久化一份完整的数据快照文件的方式,更加脆弱一些,容易有bug。不过AOF就是为了避免rewrite过程导致的bug,因此每次rewrite并不是基于旧的指令日志进行merge的,而是基于当时内存中的数据进行指令的重新构建,这样健壮性会好很多。

    (4)唯一的比较大的缺点,其实就是做数据恢复的时候,会比较慢,还有做冷备,定期的备份,不太方便,可能要自己手写复杂的脚本去做,做冷备不太合适

    RDB和AOF到底该如何选择

    (1)不要仅仅使用RDB,因为那样会导致你丢失很多数据

    (2)也不要仅仅使用AOF,因为那样有两个问题,第一,你通过AOF做冷备,没有RDB做冷备,来的恢复速度更快; 第二,RDB每次简单粗暴生成数据快照,更加健壮,可以避免AOF这种复杂的备份和恢复机制的bug

    (3)综合使用AOF和RDB两种持久化机制,用AOF来保证数据不丢失,作为数据恢复的第一选择; 用RDB来做不同程度的冷备,在AOF文件都丢失或损坏不可用的时候,还可以使用RDB来进行快速的数据恢复

    AOF和RDB同时工作

    (1)如果RDB在执行snapshotting操作,那么redis不会执行AOF rewrite; 如果redis再执行AOF rewrite,那么就不会执行RDB snapshotting
    (2)如果RDB在执行snapshotting,此时用户执行BGREWRITEAOF命令,那么等RDB快照生成之后,才会去执行AOF rewrite
    (3)同时有RDB snapshot文件和AOF日志文件,那么redis重启的时候,会优先使用AOF进行数据恢复,因为其中的日志更完整

  • 相关阅读:
    Jmater (十七) 命令行(非GUI)模式详解(二) 执行代理设置
    Jmater (十七) 命令行(非GUI)模式详解(一) 执行、输出结果及日志、简单分步执行脚本
    Jmeter (十六) IF控制器
    Jmeter (十五)用户定义变量&用户参数
    JMeter (十四) Cookie & Session
    Jmeter (十三)调试工具之--HTTP Mirror Server(转载)
    Jmeter (十二)调试工具之--Debug Processor(转载)
    Jmeter (十一)调试工具之--Debug Sampler(转载)
    Jmeter (十)脚本增强_关联
    Shell 变量的截取
  • 原文地址:https://www.cnblogs.com/wicfhwffg/p/9335595.html
Copyright © 2020-2023  润新知