Redis是内存数据库,如果不将内存中的数据库状态保存到磁盘,那么一旦服务器进程退出,服务器中的数据状态也会消失,所以redis提供了持久化功能。

RDB(RedisDatebase)

在指定的时间间隔内将内存中的数据集快照写入磁盘,也就是行话讲的Snapshot快照它恢复时是将快照文件直接读到内存里。
Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件(dump.rdb)。 即:每次生成一个新的快照,都会覆盖之前的老快照 。整个过程中,主进程是不进行任何IO操作的。这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。RDB的缺点是最后一次持久化后的数据可能丢失。

img点击并拖拽以移动

rdb保存的文件是dump.rdb

快照相关配置:

#持久化规则

save 900 1  #如果900秒内至少有1个key进行了修改,我们就进行持久化操作
save 300 10  #如果300秒内至少有10个key进行了修改,我们就进行持久化操作
save 60 10000  #如果60秒内至少有10000个key进行了修改,我们就进行持久化操作

stop-writes-on-bgsave-error yes#持久化如果出错是否还继续工作,默认开启
rdbcompression yes# 是否压缩rdb文件,默认开启,需要消耗CPU的一些资源
rdbchecksum yes #保存rdb文件时,进行错误的检查校验
dir ./        #持久化文件的保存目录,默认是当前目录

dbfilename dump.rdb  #默认rdb文件名

测试RDB持久化:

1.修改配置文件

#把默认的注掉
#save 900 1  
#save 300 10  
#save 60 10000  

save 60 5  ##如果60秒内超过5个key进行了修改,我们就进行持久化操作

2.删除当前目录下的dump.rdb

[root@shiyaochang ~]# cd /usr/local/bin
[root@shiyaochang bin]# ls
dump.rdb          mcrypt    redis-benchmark  redis-check-rdb  redis-sentinel  sconfig
libmcrypt-config  mdecrypt  redis-check-aof  redis-cli        redis-server
[root@shiyaochang bin]# rm -rf dump.rdb 
[root@shiyaochang bin]# ls
libmcrypt-config  mdecrypt         redis-check-aof  redis-cli       redis-server
mcrypt            redis-benchmark  redis-check-rdb  redis-sentinel  sconfig
[root@shiyaochang bin]# 

3.随便修改5条数据:

[root@shiyaochang bin]# redis-cli -a 123456
Warning: Using a password with '-a' or '-u' option on the command line interface may not be safe.
127.0.0.1:6379> save
OK
127.0.0.1:6379> set k1 v1
OK
127.0.0.1:6379> set k2 v2
OK
127.0.0.1:6379> set k3  v3
OK
127.0.0.1:6379> set k4  v4
OK
127.0.0.1:6379> set k5  v5
OK
127.0.0.1:6379> 

查看当前目录发现产生新的dump.rdb 文件

[root@shiyaochang bin]# ls
dump.rdb          mcrypt    redis-benchmark  redis-check-rdb  redis-sentinel  sconfig
libmcrypt-config  mdecrypt  redis-check-aof  redis-cli        redis-server
[root@shiyaochang bin]# 

触发机制

  1. 满足save条件时(上述测试)就会触发rdb规则,生成新的dump.rdb 文件

  2. 执行了flushall命令时,也会触发会触发rdb规则,生成新的dump.rdb 文件

  3. 退出redis(shutdown),也会生成一个dump.rdb 文件

    注: 如果用kill -9粗暴杀死redis进程,模拟redis故障异常退出,这会导致内存数据丢失,redis进程异常被杀掉,刚设置的数据可能没有写进dump.rdb文件,可能会导致数据丢失

如何恢复rdb文件

  1. 只要将rdb文件(dump.rdb ) 放在redis的启动目录就可以 ,redis启动或重启的时候会自动检查dump.rdb 恢复其中的数据。

    127.0.0.1:6379> config get dir 查看存储位置
    1) "dir"
    2) "/usr/local/bin" 如果在这个目录下存在dump.rdb,那么redis启动的时会自动将其中的数据恢复到内存中。
    127.0.0.1:6379> 

    优缺点

优点:

  • 适合大规模的恢复数据
  • 对数据的完整性要求不高

缺点:

  • 需要一定的时间间隔进行操作(如:save 60 5,每60秒进行一次持久化操作),在此期间如果redis宕机了,这最后一次修改的数据就没了
  • fork进程会占用一定的内存空间

AOF(Append only File)

把所有执行的命令都记录下来,恢复的时候再全部执行一遍!

在这里插入图片描述

以日志的形式来记录每一写操作,将Redis执行过的所有指令记录下来(读操作可以不记录),只需追加文件但不可以改写文件,redis启动之初会读取该文件来重新构建数据库,换言之,redis重启的话就根据日志文件的内容将指令从前到后的执行一次以完成数据恢复工作。

aof保存的文件是appendonly.aof

aof 配置

appendonly no #默认不开启aof,即默认使用rdb进行持久化,因为在大多数情况下,rdb完全够用
appendfilename "appendonly.aof" #aof持久化的文件的名

# appendfsync always  每次修改都会sync,消耗性能
appendfsync everysec #默认,每秒执行一次 sync,可能会丢失这一秒的数据
# appendfsync no      不实行sync,这个时候操作系统自己同步数据,速度很快

测试AOF持久化

1.修改配置文件

appendonly yes #开启日志记录

2.随便写几条数据

127.0.0.1:6379> flushall
OK
127.0.0.1:6379> set t1 1
OK
127.0.0.1:6379> set t2 2
OK
127.0.0.1:6379> set t3 3
OK
127.0.0.1:6379> 

查看发现目录下生成了一个appendonly.aof 文件:

[root@shiyaochang bin]# ls
appendonly.aof  libmcrypt-config  mdecrypt         redis-check-aof  redis-cli       redis-server
dump.rdb        mcrypt            redis-benchmark  redis-check-rdb  redis-sentinel  sconfig

vim进这个文件,里面记载着刚才输入的所有命令:

[root@shiyaochang bin]# vim appendonly.aof 
*2
$6
SELECT
$1
0
*1
$8
flushall    #flushall
*3
$3
set         #set t1 1 
$2
t1
$1
1
*3
$3
set          #set t2 2
$2
t2
$1
2
*3
$3
set          #set t3 3
$2
t3
$1
3

测试修复appendonly.aof

注意:redis重启的时候就根据日志文件appendonly.aof 的内容将指令从前到后的执行一次以完成数据恢复工作。但是如果appendonly.aof 文件中有错误,redis将无法成功重启,为了解决这个问题,redis提供了一个工具redis-check-aof 来修复appendonly.aof文件中的错误。

将appendonly.aof中的第三个set故意改错:

[root@shiyaochang bin]# vim appendonly.aof 

*2
$6
SELECT
$1
0
*1
$8
flushall
*3
$3
set
$2
t1
$1
1
*3
$3
set
$2
t2
$1
2
*3
$3
set
$2
t3 sdafdsfdsafdsaf  #故意将这条set t3 3命令改错
$1
3

重启redis

127.0.0.1:6379> shutdown
not connected> exit
[root@shiyaochang bin]# redis-server sconfig/redis.conf 
[root@shiyaochang bin]# redis-cli
Could not connect to Redis at 127.0.0.1:6379: Connection refused ##报错,无法连接,以为appendonly.aof 文件有错
not connected> 

通过redis-check-aof修复

[root@shiyaochang bin]# vim appendonly.aof 
[root@shiyaochang bin]# redis-check-aof --fix appendonly.aof 
0x              61: Expected prefix '*', got: '1'
AOF analyzed: size=137, ok_up_to=97, diff=40
This will shrink the AOF from 137 bytes, with 40 bytes, to 97 bytes
Continue? [y/N]: y
Successfully truncated AOF
[root@shiyaochang bin]# 

查看appendonly.aof

[root@shiyaochang bin]# vim appendonly.aof 

*2
$6
SELECT
$1
0
*1
$8
flushall
*3
$3
set
$2
t1
$1
1
*3
$3
set
$2
t2
$1
2
  # 可以发现第三条错的命令被删除

再次启动redis

[root@shiyaochang bin]# redis-server sconfig/redis.conf 
[root@shiyaochang bin]# redis-cli      成功启动并连接
127.0.0.1:6379> get t1
"1"
127.0.0.1:6379> get t2
"2"
127.0.0.1:6379> get t3        #因为appendonly.aof 中命令 set t3 3 是的错误的,被修复时删除了,所以这无法获取到t3
(nil)
127.0.0.1:6379> 

所以:aof如果要丢失数据一般只会丢失appendonly.aof 中命令错误的数据。

aof的缺点:

  • 运行效率比rdb慢(重启redis时要把appendonly.aof 的内容中的指令从前到后的执行一次以完成数据恢复)

总结:

  1. RDB持久化方式能够在指定的时间间隔内对你的数据进行快照存储
  2. AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以Redis协议追加保存每次写的操作到文件未尾,Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大。
  3. 只做缓存,如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化
  4. 同时开启两种持久化方式:
    • 在这种情况下,当redis重启的时候会 优先载入AOF文件来恢复原始的数据 ,因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整。
    • RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件,那要不要只使用AOF呢?作者建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份),快速重启,而且不会有AOF可能潜在的Bug,留着作为一个万一的手段。
  5. 性能建议:
    • 因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 900 1这条规则。
    • 如果nable AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了,代价一是带来了持续的IO,二是AOF rewrite的最后将 rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上,默认超过原大小100%大小重写可以改到适当的数值。
    • 如果不Enable AOF,仅靠Master-Slave Repllcation 实现高可用性也可以,能省掉一大笔10,也减少了rewrite时带来的系统波动。代价是如果Master/Slave同时倒掉,会丢失十几分钟的数据,启动脚本也要比较两个Master/Slave中的RDB文件,载入较新的那个,微博就是这种架构。