Redis6学习笔记

Redis6学习笔记

第一章Nosql数据库简介

Redis 核心技术与实战 (geekbang.org)

1.1Nosql数据库介绍

技术的分类:
1、解决功能性的问题: Java、Jsp、 RDBMS、 Tomcat、 HTML、 Linux、 JDBC、 SVNJ
2、解决扩展性的问题: Struts、Spring、 SpringMVC、 Hibernate、 Mybatis
3、解决性能的问题: NoSQL、Java 线程、Hadoop、 Nginx、 MQ、ElasticSearchs

NoSQL(NoSQL = Not Only SQL ),意即"不仅仅是SQL”, 泛指非关系型的数据库.
NoSQL不依赖业务逻辑方式存储,而以简单的key-value模式存储。因此大大的增加了数据库的扩展能力。

●不遵循 SQL标准。
●不支持 ACID。
●远超于 SQL的性能。

使用nosql的场景:
●对数据高并发的读写
●海量数据的读写
●对数据高可扩展性的

nosql不支持的场景:
●需要事务支持。
●基于sql的结构化查询存储,处理复杂的关系,需要即席查询。
●(用不着sql的和用了sql也不行的情况,请考虑用NoSqI )。

Memcahe(很早) 不持久化 支持类型单一 缓存数据库辅助持久化

Redis 支持持久化 除了key-value还支持多种数据结构 比如list set hash

一般作为缓存数据库辅助持久化的数据库

MongoDB 文档型数据库,支持k-v模式,但是对value尤其是json提供了丰富的查询功能

支持二进制数据及大型对象

1.2redis介绍

Redis介绍:

●Redis 是一个开源的 key-value 存储系统。
●和 Memcached 类似,它支持存储的 value 类型相对更多,包括 string (字符串)、list (链表)、set (集合)、zset (sorted set –有序集合) 和 hash(哈希类型)。
●这些数据类型都支持 push/pop、add/remove 及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。
●在此基础上,Redis 支持各种不同方式的排序。
●与 memcached 一样,为了保证效率,数据都是缓存在内存中。
●区别的是 Redis 会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件。
●并且在此基础上实现了 master-slave (主从) 同步。

多样的数据结构进行功能实现:

Redis6学习笔记_第1张图片

linux 指令 ip add 查看ip地址

1.3redis启动

redis的前台启动:

[root@centos01 bin]# redis-server
5927:C 28 Jul 2022 10:53:29.293 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo
5927:C 28 Jul 2022 10:53:29.294 # Redis version=6.2.7, bits=64, commit=00000000, modified=0, pid=5927, just started
5927:C 28 Jul 2022 10:53:29.294 # Warning: no config file specified, using the default config. In order to specify a config file use redis-server /path/to/redis.conf
5927:M 28 Jul 2022 10:53:29.294 * Increased maximum number of open files to 10032 (it was originally set to 1024).
5927:M 28 Jul 2022 10:53:29.294 * monotonic clock: POSIX clock_gettime
5927:M 28 Jul 2022 10:53:29.295 # A key '__redis__compare_helper' was added to Lua globals which is not on the globals allow list nor listed on the deny list.
                _._                                                  
           _.-``__ ''-._                                             
      _.-``    `.  `_.  ''-._           Redis 6.2.7 (00000000/0) 64 bit
  .-`` .-```.  ```\/    _.,_ ''-._                                  
 (    '      ,       .-`  | `,    )     Running in standalone mode
 |`-._`-...-` __...-.``-._|'` _.-'|     Port: 6379
 |    `-._   `._    /     _.-'    |     PID: 5927
  `-._    `-._  `-./  _.-'    _.-'                                   
 |`-._`-._    `-.__.-'    _.-'_.-'|                                  
 |    `-._`-._        _.-'_.-'    |           https://redis.io       
  `-._    `-._`-.__.-'_.-'    _.-'                                   
 |`-._`-._    `-.__.-'    _.-'_.-'|                                  
 |    `-._`-._        _.-'_.-'    |                                  
  `-._    `-._`-.__.-'_.-'    _.-'                                   
      `-._    `-.__.-'    _.-'                                       
          `-._        _.-'                                           
              `-.__.-'                                               

5927:M 28 Jul 2022 10:53:29.295 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.
5927:M 28 Jul 2022 10:53:29.295 # Server initialized
5927:M 28 Jul 2022 10:53:29.295 # WARNING overcommit_memory is set to 0! Background save may fail under low memory condition. To fix this issue add 'vm.overcommit_memory = 1' to /etc/sysctl.conf and then reboot or run the command 'sysctl vm.overcommit_memory=1' for this to take effect.

后台启动,查看端口

[root@centos01 bin]# redis-server /etc/redis.conf
[root@centos01 bin]# ps -ef | grep redis
root       5979      1  0 11:04 ?        00:00:00 redis-server 127.0.0.1:6379
root       5985   1471  0 11:04 pts/0    00:00:00 grep --color=auto redis

Redis6学习笔记_第2张图片

默认16个数据库,类似数组下标从0开始,初始默认使用0号库
使用命令select 来切换数据库。如: select 8
统一密码管理,所有库同样密码。
dbsize查看当前数据库的key的数量
flushdb清空当前库。
flushall通杀全部库。

127.0.0.1:6379> ping
PONG
127.0.0.1:6379> select 1
OK
127.0.0.1:6379[1]> select 15
OK
127.0.0.1:6379[15]> select 0
OK

memcached支持单一类型,redis支持多种数据类型

memcached不支持持久化,而redis支持持久化

memcached用的是多线程+锁的形式,redis使用的是单线程+多路IO复用

redis的特点:(单线程+多路IO复用)

Redis6学习笔记_第3张图片

第二章 Redis常见的数据类型

2.1Redis键(key)

keys*查看当前库所有key (匹配 : keys *1)
exists key 判断某个key是否存在
type key 查看你的key是什么类型
del key 删除指定的key数据
unlink key 根据value选择非阻塞删除(后面慢慢删)
仅将keys从keyspace元数据中删除,真正的删除会在后续异步操作
expire key 10 10 秒钟:为给定的key设置过期时间。
ttl key查看还有多少秒过期, -1表示永不过期, -2表示已过期。

select命令切换数据库
dbsize查看当前数据库的key的数量
flushdb清空当前库
flushall通杀全部库

2.2字符串String数据类型

String 是 Redis 最基本的类型,你可以理解成与 Memcached 一模一样的类型,一个 key 对应一个 value。

String 类型是二进制安全的。意味着 Redis 的 string 可以包含任何数据。比如 jpg 图片或者序列化的对象。

String 类型是 Redis 最基本的数据类型,一个 Redis 中字符串 value 最多可以是 512M。

命令:

**set **添加键值对

NX:当数据库中key不存在时,可以将key-value添加数据库(可用作锁)
XX:当数据库中key存在时,可以将key-value添加数据库,与NX参数互斥
EX:key的超时秒数
PX:key的超时毫秒数,与EX互斥

get 查询对应键值
append 将给定的 追加到原值的末尾
strlen >获得值的长度
**setnx **只有在 key 不存在时设置 key 的值,作为锁使用,后续会介绍

incr
将 key 中储存的数字值增1
只能对数字值操作,如果为空,新增值为1

decr
将 key 中储存的数字值减1
只能对数字值操作,如果为空,新增值为-1

**incrby / decrby <步长>**将 key 中储存的数字值增减。自定义步长。

mset
同时设置一个或多个 key-value对
mget .
同时获取一个或多个 value
msetnx …
同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在。

原子操作:

所谓原子操作是指不会被线程调度机制打断的操作
这种操作一旦开始,就一直运行到结束,中间不会有任何context switch (切换到另一个线程)
(1)在单线程中,能够在单条指令中完成的操作都可以认为是"原子操作",因为中断只能发生于指令之间
(2)在多线程中,不能被其它进程(线程)打断的操作就叫原子操作,Redis单命令的原子性主要得益于Redis的单线程

Redis6学习笔记_第4张图片

字符串的数据结构:

String的数据结构为简单动态字符串(Simple Dynamic String,缩写SDS)。是可以修改的字符串,内部结构实现上类似于Java的ArrayList,采用预分配冗余空间的方式来减少内存的频繁分配.

Redis6学习笔记_第5张图片

如图中所示,内部为当前字符串实际分配的空间capacity一般要高于实际字符串长度len。当字符串长度小于1M时,扩容都是加倍现有的空间,如果超过1M,扩容时一次只会多扩1M的空间。需要注意的是字符串最大长度为512M。

2.3Redis数据结构链表List

单键多值
Redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)。
它的底层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点性能会较差。

单键多值:Redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)。它的底

层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点性能会较差。

常用命令如下:

lpush/rpush … 从左边/右边插入一个或多个值。
**lpop/rpop **从左边/右边吐出一个值。值在键在,值光键亡。

**rpoplpush **从列表右边吐出一个值,插到列表左边。

左边插入类似于头插法,右边插入类似于尾插法

**lrange **按照索引下标获得元素(从左到右)
lrange mylist 0 -1 0左边第一个,-1右边第一个,(0-1表示获取所有)
**lindex **按照索引下标获得元素(从左到右)
**llen **获得列表长度

**linsert before **在的前面插入插入值
**lrem **从左边删除n个value(从左到右)
**lset**将列表key下标为index的值替换成value

数据结构:List的数据结构为快速链表quickList。首先在列表元素较少的情况下会使用一块连续的内存存储,这个结构是ziplist,也即是压缩列表。它将所有的元素紧挨着一起存储,分配的是一块连续的内存。当数据量比较多的时候才会改成quicklist。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WfVWMCWU-1659268609792)(C:\Users\王率宇\AppData\Roaming\Typora\typora-user-images\image-20220728151140942.png)]

因为普通的链表需要的附加指针空间太大,会比较浪费空间,比如这个列表里存的只是int类型的数据,结构上还需要两个额外的指针prev和next

2.4Redis数据结构Set

Redis set 对外提供的功能与 list 类似,是一个列表的功能,特殊之处在于 set 是可以自动排重的,当你需要存储一个列表数据,又不希望出现重复数据时,set 是一个很好的选择,并且 set 提供了判断某个成员是否在一个 set 集合内的重要接口,这个也是 list 所不能提供的。

Redis 的 Set 是 string 类型的无序集合。它底层其实是一个 value 为 null 的 hash 表,所以添加,删除,查找的 ** 复杂度都是 O (1)**。

一个算法,随着数据的增加,执行时间的长短,如果是 O (1),数据增加,查找数据的时间不变。

Redis的Set是string类型的无序集合。

命令:

sadd …
将一个或多个 member 元素加入到集合 key 中,已经存在的 member 元素将被忽略

smembers
取出该集合的所有值。

sismember
判断集合是否为含有该值,有1,没有0

scard
返回该集合的元素个数。

srem …
删除集合中的某个元素。

spop
随机从该集合中吐出一个值。

srandmember
随机从该集合中取出n个值。不会从集合中删除 。

smove value
把集合中一个值从一个集合移动到另一个集合

sinter
返回两个集合的交集元素。

sunion
返回两个集合的并集元素。

sdiff
返回两个集合的差集元素(key1中的,不包含key2中的)

数据结构:

Set数据结构是dict字典,字典是用哈希表实现的。
Java中HashSet的内部实现使用的是HashMap,只不过所有的value都指向同一个对象。Redis的set结构也是一样,它的内部也使用hash结构,所有的value都指向同一个内部值。

2.5Redis数据结构Hash

Redis hash 是一个键值对集合。

Redis hash 是一个 string 类型的 field 和 value 的映射表,hash 特别适合用于存储对象。类似 Java 里面的 Map

Redis6学习笔记_第6张图片

用户 ID 为查找的 key,存储的 value 用户对象包含姓名,年龄,生日等信息,如果用普通的 key/value 结构来存储,主要有以下 2 种存储方式:

方法一:每次修改用户的某个属性需要,先反序列化改好后再序列化回去。开销较大。

方法二:用户 ID 数据冗余。

方法三:利用hash

Redis6学习笔记_第7张图片

通过 key (用户 ID) + field (属性标签) 就可以操作对应属性数据了,既不需要重复存储数据,也不会带来序列化和并发修改控制的问题。

命令:

hset
给集合中的 键赋值

hget
从集合取出 value

hmset …
批量设置hash的值

hexists
查看哈希表 key 中,给定域 field 是否存在。

hkeys
列出该hash集合的所有field

hvals
列出该hash集合的所有value

hincrby
为哈希表 key 中的域 field 的值加上增量 1 -1

hsetnx
将哈希表 key 中的域 field 的值设置为 value ,当且仅当域 field 不存在 .

数据结构:

Hash 类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表)。当 field-value 长度较短且个数较少时,使用 ziplist,否则使用 hashtable。

2.6Redis 有序集合 Zset

概述
Redis 有序集合 zset 与普通集合 set 非常相似,是一个没有重复元素的字符串集合。不同之处是有序集合的每个成员都关联了一个评分(score),这个评分(score)被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员是唯一的,但是评分可以是重复了 。

因为元素是有序的,所以你也可以很快的根据评分(score)或者次序(position)来获取一个范围的元素。

访问有序集合的中间元素也是非常快的,因此你能够使用有序集合作为一个没有重复成员的智能列表。

命令

zadd …
将一个或多个 member 元素及其 score 值加入到有序集 key 当中。

zrange [WITHSCORES]
返回有序集 key 中,下标在 之间的元素
带WITHSCORES,可以让分数一起和值返回到结果集。

zrangebyscore key [withscores] [limit offset count]
返回有序集 key 中,所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员。有序集成员按 score 值递增(从小到大)次序排列。

zrevrangebyscore key [withscores] [limit offset count]
同上,改为从大到小排列。

zincrby
为元素的score加上增量

zrem
删除该集合下,指定值的元素

zcount
统计该集合,分数区间内的元素个数

zrank
返回该值在集合中的排名,从0开始。

数据结构
SortedSet (zset) 是 Redis 提供的一个非常特别的数据结构,一方面它等价于 Java 的数据结构 Map,可以给每一个元素 value 赋予一个权重 score,另一方面它又类似于 TreeSet,内部的元素会按照权重 score 进行排序,可以得到每个元素的名次,还可以通过 score 的范围来获取元素的列表。

zset 底层使用了两个数据结构:

(1)hash,hash 的作用就是关联元素 value 和权重 score,保障元素 value 的唯一性,可以通过元素 value 找到相应的 score 值。

(2)跳跃表,跳跃表的目的在于给元素 value 排序,根据 score 的范围获取元素列表。

跳跃表

有序集合在生活中比较常见,例如根据成绩对学生排名,根据得分对玩家排名等。对于有序集合的底层实现,可以用数组、平衡树、链表等。数组不便元素的插入、删除;平衡树或红黑树虽然效率高但结构复杂;链表查询需要遍历所有效率低。Redis 采用的是跳跃表,跳跃表效率堪比红黑树,实现远比红黑树简单。

跳跃表

Redis6学习笔记_第8张图片

有序链表

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Qi4QRH6G-1659268609794)(C:\Users\王率宇\AppData\Roaming\Typora\typora-user-images\image-20220728160431699.png)]

2.7redis的订阅和发布

Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。

客户端订阅频道

Redis6学习笔记_第9张图片

给这个频道发布消息后,消息就会发送给订阅的客户端

Redis6学习笔记_第10张图片

命令实现:

首先通过客户端1订阅频道1

Redis6学习笔记_第11张图片

向频道内发送信息hello

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-N7CAY1n5-1659268609796)(C:\Users\王率宇\AppData\Roaming\Typora\typora-user-images\image-20220728171045330.png)]

订阅了频道1的客户端收到了hello信息

Redis6学习笔记_第12张图片

2.8redis的数据类型Bitmaps

概述
Redis 提供了 Bitmaps 这个 “数据类型” 可以实现对位的操作:

现代计算机用二进制(位) 作为信息的基础单位, 1个字节等于8位, 例如“abc”字符串是由3个字节组成,共24位存储空间。

Bitmaps 本身不是一种数据类型, 实际上它就是字符串(key-value) , 但是它可以对字符串的位进行操作。

Bitmaps 单独提供了一套命令, 所以在 Redis 中使用 Bitmaps 和使用字符串的方法不太相同。 可以把 Bitmaps 想象成一个以位为单位的数组, 数组的每个单元只能存储 0 和 1, 数组的下标在 Bitmaps 中叫做偏移量。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-AqqjuTOi-1659268609796)(C:\Users\王率宇\AppData\Roaming\Typora\typora-user-images\image-20220728171927881.png)]

命令

1.setbit

setbit<key><offset><value>
设置Bitmaps中某个偏移量的值(01

应用场景
每个独立用户是否访问过网站存放在Bitmaps中, 将访问的用户记做1, 没有访问的用户记做0, 用偏移量作为用户的id。

设置键的第offset个位的值(从0算起) , 假设现在有20个用户,userid=1, 6, 11, 15, 19的用户对网站进行了访问, 那么当前Bitmaps初始化结果如图
Redis6学习笔记_第13张图片

Redis6学习笔记_第14张图片

注意点:
很多应用的用户id以一个指定数字(例如10000) 开头, 直接将用户id和Bitmaps的偏移量对应势必会造成一定的浪费, 通常的做法是每次做setbit操作时将用户id减去这个指定数字。
在第一次初始化Bitmaps时, 假如偏移量非常大, 那么整个初始化过程执行会比较慢, 可能会造成Redis的阻塞。

2.getbit

getbit<key><offset>
获取Bitmaps中某个偏移量的值

应用场景
获取id=8的用户是否天访问过。

3.bitcount
统计字符串被设置为1的bit数。一般情况下,给定的整个字符串都会被进行计数,通过指定额外的 start 或 end 参数,可以让计数只在特定的位上进行。start 和 end 参数的设置,都可以使用负数值:比如 -1 表示最后一个位,而 -2 表示倒数第二个位,start、end 是指bit组的字节的下标数,二者皆包含。

4.bitop

bitop  and(or/not/xor) <destkey> [key]

bitop是一个复合操作, 它可以做多个Bitmaps的and(交集) 、 or(并集) 、 not(非) 、 xor(异或) 操作并将结果保存在destkey中。

Redis6学习笔记_第15张图片

假设网站有 1 亿用户, 每天独立访问的用户有 5 千万, 如果每天用集合类型和 Bitmaps 分别存储活跃用户可以得到表:

Redis6学习笔记_第16张图片

很明显, 这种情况下使用 Bitmaps 能节省很多的内存空间, 尤其是随着时间推移节省的内存还是非常可观的。

但 Bitmaps 并不是万金油, 假如该网站每天的独立访问用户很少, 例如只有 10 万(大量的僵尸用户) , 那么两者的对比如下表所示, 很显然, 这时候使用 Bitmaps 就不太合适了, 因为基本上大部分位都是 0。

Redis6学习笔记_第17张图片

2.9Redis数据类型HyperLogLog

在工作当中,我们经常会遇到与统计相关的功能需求,比如统计网站PV(PageView页面访问量),可以使用Redis的incr、incrby轻松实现。
但像UV(UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题如何解决?这种求集合中不重复元素个数的问题称为基数问题。
解决基数问题有很多种方案:
(1)数据存储在MySQL表中,使用distinct count计算不重复个数
(2)使用Redis提供的hash、set、bitmaps等数据结构来处理
以上的方案结果精确,但随着数据不断增加,导致占用空间越来越大,对于非常大的数据集是不切实际的。
能否能够降低一定的精度来平衡存储空间?Redis推出了HyperLogLog
Redis HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是,在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的。
在 Redis 里面,每个 HyperLogLog 键只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基数。这和计算基数时,元素越多耗费内存就越多的集合形成鲜明对比。
但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog 不能像集合那样,返回输入的各个元素。

什么是基数?
比如数据集 {1, 3, 5, 7, 5, 7, 8}, 那么这个数据集的基数集为 {1, 3, 5 ,7, 8}, 基数(不重复元素)为5。 基数估计就是在误差可接受的范围内,快速计算基数。

操作命令:

1.pfadd

pfadd < element> [element ...]   
添加指定元素到 HyperLogLog 中

2.pfcount

pfmerge<destkey><sourcekey> [sourcekey ...]  
将一个或多个HLL合并后的结果存储在另一个HLL中

2.10Redis的数据类型Geospatial

Redis 3.2 中增加了对GEO类型的支持。GEO,Geographic,地理信息的缩写。该类型,就是元素的2维坐标,在地图上就是经纬度。redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作。

1.geoadd

geoadd< longitude> [longitude latitude member...]   
添加地理位置(经度,纬度,名称)

Redis6学习笔记_第18张图片

2. geopos

geopos   [member...]  
获得指定地区的坐标值

3. geodist

geodist  [m|km|ft|mi ]  
获取两个位置之间的直线距离

第三章Redis配置文件

Redis6学习笔记_第19张图片

并且还要关闭防火墙:

[root@centos01 ~]# systemctl stop firewalld
[root@centos01 ~]# systemctl status firewalld
● firewalld.service - firewalld - dynamic firewall daemon
   Loaded: loaded (/usr/lib/systemd/system/firewalld.service; enabled; vendor preset: enabled)
   Active: inactive (dead) since 五 2022-07-29 08:53:36 CST; 34s ago
     Docs: man:firewalld(1)
  Process: 582 ExecStart=/usr/sbin/firewalld --nofork --nopid $FIREWALLD_ARGS (code=exited, status=0/SUCCESS)
 Main PID: 582 (code=exited, status=0/SUCCESS)

7月 29 08:33:48 centos01 systemd[1]: Starting firewalld - dynamic firewall daemon...
7月 29 08:33:49 centos01 systemd[1]: Started firewalld - dynamic firewall daemon.
7月 29 08:33:49 centos01 firewalld[582]: WARNING: AllowZoneDrifting is enabled. This is considered an insecure configuration option. It will be removed in a future release. Please consider disabling it now.
7月 29 08:53:34 centos01 systemd[1]: Stopping firewalld - dynamic firewall daemon...
7月 29 08:53:36 centos01 systemd[1]: Stopped firewalld - dynamic firewall daemon.

java操作redis ---- jedis

public static void main(String[] args) {
    //创建Jedis对象
    Jedis jedis = new Jedis("192.168.33.130",6379);
    //通过ping看看可不可以ping通
    String ping = jedis.ping();
    System.out.println(ping);
}

3.1Jedis演示

 //操作字符串
    @Test
    public void demo01(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.33.130",6379);

        // 添加
        jedis.set("name", "lucy");

        // 获取
        String name = jedis.get("name");
        System.out.println(name);

        // 设置多个key和value
        jedis.mset("age","12","school","whut");
        
        // 获取多个key
        List<String> list = jedis.mget("age", "school");
        System.out.println(list);


        // 得到redis里面的所有的key
        Set<String> keys = jedis.keys("*");
        for (String key:
             keys) {
            System.out.println(key);
        }
    }
    //操作list
    @Test
    public void demo02(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.33.130",6379);

        // 添加
        jedis.lpush("key1", "lucy","mary","jack");

        // 获取
        List<String> val = jedis.lrange("key1", 0, -1);
        System.out.println(val);

    }
    //操作set set里面的元素不可以重复
    @Test
    public void demo03(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.33.130",6379);

        // 添加
        jedis.sadd("key2","lucy","mary","jack");

        // 获取
        Set<String> key2 = jedis.smembers("key2");
        System.out.println(key2);
    }
    //操作hash
    @Test
    public void demo04(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.33.130",6379);

        // 添加
        jedis.hset("key3","age","20");

        // 获取
        String hget = jedis.hget("key3", "age");
        System.out.println(hget);
    }
    //操作zset
    @Test
    public void demo05(){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.33.130",6379);

        // 添加
        jedis.zadd("key4", 20, "java");
        jedis.zadd("key4", 21, "python");
        jedis.zadd("key4", 22, "c++");
        jedis.zadd("key4", 23, "php");

        // 获取
        Set<String> key4 = jedis.zrange("key4", 0, -1);
        System.out.println(key4);
    }

3.2模拟验证码操作

1、输入手机号,点击发送后随机生成6位数字码, 2分钟有效。
2、输入验证码,点击验证,返回成功或失败。
3、每个手机号每天只能输入3次

依赖:

<dependency>
    <groupId>redis.clientsgroupId>
    <artifactId>jedisartifactId>
    <version>3.6.0version>
dependency>
<dependency>

Redis6学习笔记_第20张图片

package com.wsy.jedis;

import redis.clients.jedis.Jedis;

import java.util.Random;

public class MyPhone {
//    1、输入手机号,点击发送后随机生成6位数字码, 2分钟有效。
//    2、输入验证码,点击验证,返回成功或失败。
//    3、每个手机号每天只能输入3次
public static void main(String[] args) {
//    System.out.println(number());
//    phone("15097914299");
    test("15097914299", "105884");


}
//      3.进行功能验证
    public static void test(String phone,String code){
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.33.130",6379);
        String codeKey = "code" + phone;
        if (jedis.get(codeKey).equals(code)) {
            System.out.println("成功");
        }else {
            System.out.println("失败");
        }
        jedis.close();


    }

//      2 .将验证码放在redis当中,发送验证码
    public static void phone(String phone){
        String key = "key"+phone;
        //创建Jedis对象
        Jedis jedis = new Jedis("192.168.33.130",6379);
        String count = jedis.get(key);
        if (count == null) {
            jedis.setex(key, 24*60*60, "1");
        }else if(Integer.parseInt(count)<=2){
            jedis.incr(key);
        }else if(Integer.parseInt(count)>2){
            System.out.println("今天不可以再输入了");
            return;
        }
        String codeKey = "code" + phone;
        String vcode = number();
        System.out.println(vcode);
        jedis.setex(codeKey,120,vcode);
        jedis.close();

    }
//    1 .生成六位的随机数
    public static String number(){
        int num = (int) ((Math.random() * 9 + 1) * 100000);
    return num + "";
    }
}

3.3SpringBoot整合Redis依赖

application配置文件:

# REDIS (RedisProperties)
# Redis数据库索引(默认为0)
spring.redis.database=0
# Redis服务器地址
spring.redis.host=192.168.33.130
# Redis服务器连接端口
spring.redis.port=6379
# Redis服务器连接密码(默认为空)
spring.redis.password=
# 连接池最大连接数(使用负值表示没有限制)
spring.redis.jedis.pool.max-active=8
# 连接池最大阻塞等待时间(使用负值表示没有限制)
spring.redis.jedis.pool.max-wait=-1
# 连接池中的最大空闲连接
spring.redis.jedis.pool.max-idle=8
# 连接池中的最小空闲连接
spring.redis.jedis.pool.min-idle=0
# 连接超时时间(毫秒)
spring.redis.timeout=5000

#redis:
## Redis数据库索引(默认为0)
#database: 0
## Redis服务器地址
#host: 127.0.0.1
## Redis服务器连接端口
#port: 6379
## Redis服务器连接密码(默认为空)
#password:
## 连接池最大连接数(使用负值表示没有限制)
#jedis:
#pool:
#max-active: 8
## 连接池最大阻塞等待时间(使用负值表示没有限制)
#max-idle: 8
## 连接池中的最大空闲连接
#max-wait: -1
## 连接池中的最小空闲连接
#min-idle: 0
## 连接超时时间(毫秒)
#timeout: 0

pom整合redis的依赖:

<dependencies>
        
        <dependency>
            <groupId>org.springframework.bootgroupId>
            <artifactId>spring-boot-starter-data-redisartifactId>
        dependency>
        
        
        
        <dependency>
            <groupId>org.springframework.bootgroupId>
            <artifactId>spring-boot-starter-jsonartifactId>
        dependency>
        
        <dependency>
            <groupId>org.apache.commonsgroupId>
            <artifactId>commons-pool2artifactId>
        dependency>

        <dependency>
            <groupId>org.springframework.bootgroupId>
            <artifactId>spring-boot-starter-webartifactId>
        dependency>

        <dependency>
            <groupId>org.springframework.bootgroupId>
            <artifactId>spring-boot-starter-testartifactId>
            <scope>testscope>
        dependency>
        <dependency>
            <groupId>com.fasterxml.jackson.coregroupId>
            <artifactId>jackson-annotationsartifactId>
        dependency>

        <dependency>
            <groupId>com.fasterxml.jackson.coregroupId>
            <artifactId>jackson-databindartifactId>
        dependency>
    dependencies>

RedisConfig的配置类:

package com.example._011springbootredis.config;
import com.fasterxml.jackson.annotation.JsonAutoDetect;
import com.fasterxml.jackson.annotation.PropertyAccessor;
import com.fasterxml.jackson.databind.ObjectMapper;
import org.springframework.cache.CacheManager;
import org.springframework.cache.annotation.CachingConfigurationSelector;
import org.springframework.cache.annotation.EnableCaching;
import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.data.redis.cache.RedisCacheConfiguration;
import org.springframework.data.redis.cache.RedisCacheManager;
import org.springframework.data.redis.connection.RedisConnectionFactory;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.data.redis.serializer.Jackson2JsonRedisSerializer;
import org.springframework.data.redis.serializer.RedisSerializationContext;
import org.springframework.data.redis.serializer.RedisSerializer;
import org.springframework.data.redis.serializer.StringRedisSerializer;

import java.time.Duration;

@EnableCaching
@Configuration
public class RedisConfig extends CachingConfigurationSelector {
    @Bean
    public RedisTemplate<String, Object> redisTemplate(RedisConnectionFactory factory) {
        RedisTemplate<String, Object> template = new RedisTemplate<>();
        RedisSerializer<String> redisSerializer = new StringRedisSerializer();
        Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);
        ObjectMapper om = new ObjectMapper();
        om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
        om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
        jackson2JsonRedisSerializer.setObjectMapper(om);
        template.setConnectionFactory(factory);


        //设置“key"的序列化方式
        template.setKeySerializer(new StringRedisSerializer());

        //设置“值”的序列化方式
        template.setValueSerializer(jackson2JsonRedisSerializer);

        //设置“hash”类型数据的序列化方式
        template.setHashValueSerializer(jackson2JsonRedisSerializer);

        return template;
    }

    @Bean
    public CacheManager cacheManager(RedisConnectionFactory factory) {
        StringRedisSerializer redisSerializer = new StringRedisSerializer();
        Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class);

        //解决查询缓存转换异常的问题
        ObjectMapper om = new ObjectMapper();
        om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
        om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL);
        jackson2JsonRedisSerializer.setObjectMapper(om);
        //配置序列化(解决乱码问题)过期时间600秒
        RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig()
                .entryTtl(Duration.ofSeconds(600))
                .serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer))
                .serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(jackson2JsonRedisSerializer))
                .disableCachingNullValues();
        RedisCacheManager cacheManager = RedisCacheManager.builder(factory)
                .cacheDefaults(config)
                .build();
        return cacheManager;
    }
}

controller运行文件:

import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.data.redis.core.RedisTemplate;
import org.springframework.web.bind.annotation.GetMapping;
import org.springframework.web.bind.annotation.RequestMapping;
import org.springframework.web.bind.annotation.RestController;

@RestController
@RequestMapping("/redis")
public class RedisController {
    @Autowired
    RedisTemplate redisTemplate;
    @GetMapping
    public String test(){
//        设置数值到redis
        redisTemplate.opsForValue().set("science", "wukong");
        return (String) redisTemplate.opsForValue().get("science");

    }
}

第四章Redis6的事务操作*

4.1Redis事务定义

Redis 事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

Redis 事务的主要作用就是串联多个命令防止别的命令插队。

4.2Muti、Exec、discard

Redis6学习笔记_第21张图片

开启事务----事务执行

127.0.0.1:6379> multi
OK
127.0.0.1:6379(TX)> set key1 value1
QUEUED
127.0.0.1:6379(TX)> set key2 value2
QUEUED
127.0.0.1:6379(TX)> exec
1) OK
2) OK

开启事务-----终止事务

127.0.0.1:6379> multi
OK
127.0.0.1:6379(TX)> set a1 value1
QUEUED
127.0.0.1:6379(TX)> set a2 value2
QUEUED
127.0.0.1:6379(TX)> discard
OK
127.0.0.1:6379> 

第一种情况 排队阶段有报错

Redis6学习笔记_第22张图片

multi后排队阶段有一组命令有问题,exec整个都会报错不会执行

第二种情况 语法没有问题 但是执行的时候有问题

Redis6学习笔记_第23张图片

组队成功,运行的时候哪个失败,哪个就失败了,其他的没有问题

4.3事务冲突(悲观锁和乐观锁)

例子:

Redis6学习笔记_第24张图片

悲观锁

悲观锁 (Pessimistic Lock),顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会 block 直到它拿到锁。传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁。

Redis6学习笔记_第25张图片

乐观锁
乐观锁 (Optimistic Lock),顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。Redis 就是利用这种 check-and-set 机制实现事务的。

Redis6学习笔记_第26张图片

WATCH key [key …]

在执行 multi 之前,先执行 watch key1 [key2],可以监视一个 (或多个) key ,如果在事务执行之前这个 (或这些) key 被其他命令所改动,那么事务将被打断。

Redis6学习笔记_第27张图片

Redis6学习笔记_第28张图片

unwatch

取消 WATCH 命令对所有 key 的监视。如果在执行 WATCH 命令之后,EXEC 命令或 DISCARD 命令先被执行了的话,那么就不需要再执行 UNWATCH 了

Redis 事务三特性
单独的隔离操作 :事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

没有隔离级别的概念 :队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行。

不保证原子性 :事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚 。

4.4秒杀案例

Redis6学习笔记_第29张图片

超卖问题

连接超时问题

连接超时,就是很多个请求请求redis的时候,redis对一部分的请求没有响应,就会出现超时的问题

可以通过连接池进行解决

使用工具 ab 模拟测试:

CentOS6 默认安装

CentOS7 需要手动安装

通过 ab 测试

im postfile 模拟表单提交参数, 以 & 符号结尾,存放当前目录。

内容:prodid=0101&

执行:ab -n 2000 -c 200 -k -p ~/postfile -T application/x-www-form-urlencoded

public class SecKill_redis {

	public static void main(String[] args) {
		Jedis jedis =new Jedis("192.168.44.168",6379);
		System.out.println(jedis.ping());
		jedis.close();
	}

	//秒杀过程
	public static boolean doSecKill(String uid,String prodid) throws IOException {
		//1 uid和prodid非空判断
		if(uid == null || prodid == null) {
			return false;
		}

		//2 连接redis
		//Jedis jedis = new Jedis("192.168.44.168",6379);
		//通过连接池得到jedis对象
		JedisPool jedisPoolInstance = JedisPoolUtil.getJedisPoolInstance();
		Jedis jedis = jedisPoolInstance.getResource();

		//3 拼接key
		// 3.1 库存key
		String kcKey = "sk:"+prodid+":qt";
		// 3.2 秒杀成功用户key
		String userKey = "sk:"+prodid+":user";

		//监视库存
		jedis.watch(kcKey);

		//4 获取库存,如果库存null,秒杀还没有开始
		String kc = jedis.get(kcKey);
		if(kc == null) {
			System.out.println("秒杀还没有开始,请等待");
			jedis.close();
			return false;
		}

		// 5 判断用户是否重复秒杀操作
		if(jedis.sismember(userKey, uid)) {
			System.out.println("已经秒杀成功了,不能重复秒杀");
			jedis.close();
			return false;
		}

		//6 判断如果商品数量,库存数量小于1,秒杀结束
		if(Integer.parseInt(kc)<=0) {
			System.out.println("秒杀已经结束了");
			jedis.close();
			return false;
		}

		//7 秒杀过程
		//使用事务
		Transaction multi = jedis.multi();

		//组队操作
		multi.decr(kcKey);
		multi.sadd(userKey,uid);

		//执行
		List<Object> results = multi.exec();

		if(results == null || results.size()==0) {
			System.out.println("秒杀失败了....");
			jedis.close();
			return false;
		}

		//7.1 库存-1
		//jedis.decr(kcKey);
		//7.2 把秒杀成功用户添加清单里面
		//jedis.sadd(userKey,uid);

		System.out.println("秒杀成功了..");
		jedis.close();
		return true;
	}
}

连接有限制

增加 - r 参数,-r Don’t exit on socket receive errors。

已经秒光,可是还有库存

已经秒光,可是还有库存。原因:乐观锁导致很多请求都失败。先点的没秒到,后点的可能秒到了

超卖

watch - 》监视库存—》添加事务(乐观锁)

//监视库存
		jedis.watch(kcKey);

		//7 秒杀过程
		//使用事务
		Transaction multi = jedis.multi();

		//组队操作
		multi.decr(kcKey);
		multi.sadd(userKey,uid);

连接超时,通过连接池解决

节省每次连接 redis 服务带来的消耗,把连接好的实例反复利用。通过参数管理连接的行为,代码见项目中:

连接池参数:

MaxTotal:控制一个 pool 可分配多少个 jedis 实例,通过 pool.getResource () 来获取;如果赋值为 - 1,则表示不限制;如果 pool 已经分配了 MaxTotal 个 jedis 实例,则此时 pool 的状态为 exhausted。

maxIdle:控制一个 pool 最多有多少个状态为 idle (空闲) 的 jedis 实例;

MaxWaitMillis:表示当 borrow 一个 jedis 实例时,最大的等待毫秒数,如果超过等待时间,则直接抛 JedisConnectionException;

testOnBorrow:获得一个 jedis 实例的时候是否检查连接可用性(ping ());如果为 true,则得到的 jedis 实例均是可用的。

Redis6学习笔记_第30张图片

解决库存遗留问题
LUA 脚本在 Redis 中的优势

将复杂的或者多步的 redis 操作,写为一个脚本,一次提交给 redis 执行,减少反复连接 redis 的次数,提升性能。

LUA 脚本是类似 redis 事务,有一定的原子性,不会被其他命令插队,可以完成一些 redis 事务性的操作。

但是注意 redis 的 lua 脚本功能,只有在 Redis 2.6 以上的版本才可以使用。

利用 lua 脚本淘汰用户,解决超卖问题,redis 2.6 版本以后,通过 lua 脚本解决争抢问题,实际上是 redis 利用其单线程的特性,用任务队列的方式解决多任务并发问题。

第五章Redis持久化*

5.1持久化操作—RDB

简介:在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的 Snapshot 快照,它恢复时是将快照文件直接读到内存里。

key的变化越多,同步的时间会越短

save

Redis6学习笔记_第31张图片

备份是如何执行的
Redis 会单独创建**(fork)一个子进程来进行持久化,首先会将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化**好的文件。整个过程中,主进程是不进行任何 IO 操作的,这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那 RDB 方式要比 AOF 方式更加的高效。RDB 的缺点是最后一次持久化后的数据可能丢失。

Redis6学习笔记_第32张图片

Redis6学习笔记_第33张图片

Fork:Fork 的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等) 数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程。

在 Linux 程序中,fork () 会产生一个和父进程完全相同的子进程,但子进程在此后多会 exec 系统调用,出于效率考虑,Linux 中引入了 “写时复制技术”

一般情况父进程和子进程会共用同一段物理内存,只有进程空间的各段的内容要发生变化时,才会将父进程的内容复制一份给子进程。

命令 save VS bgsave

save :save 时只管保存,其它不管,全部阻塞。手动保存,不建议。

bgsave:Redis 会在后台异步进行快照操作, 快照同时还可以响应客户端请求。

可以通过 lastsave 命令获取最后一次成功执行快照的时间。

flushall 命令

执行 flushall 命令,也会产生 dump.rdb 文件,但里面是空的,无意义。

优势
适合大规模的数据恢复,对数据完整性和一致性要求不高更适合使用,节省磁盘空间,恢复速度快

劣势
1.Fork 的时候,内存中的数据被克隆了一份,大致 2 倍的膨胀性需要考虑。

2.虽然 Redis 在 fork 时使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能。

3.在备份周期在一定间隔时间做一次备份,所以如果 Redis 意外 down 掉的话,就会丢失最后一次快照后的所有修改。

如何停止 动态停止 RDB:redis-cli config set save “”#save 后给空值,表示禁用保存策略

5.2Redis 持久化之 AOF

AOF Append Only File:以日志的形式来记录每个写操作(增量保存),将 Redis 执行过的所有写指令记录下来 (读操作不记录), 只许追加文件但不可以改写文件,redis 启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。

AOF 持久化流程
(1)客户端的请求写命令会被 append 追加到 AOF 缓冲区内;

(2)AOF 缓冲区根据 AOF 持久化策略 [always,everysec,no] 将操作 sync 同步到磁盘的 AOF 文件中;

(3)AOF 文件大小超过重写策略或手动重写时,会对 AOF 文件 rewrite 重写,压缩 AOF 文件容量;

(4)Redis 服务重启时,会重新 load 加载 AOF 文件中的写操作达到数据恢复的目的。

AOF 默认不开启
可以在 redis.conf 中配置文件名称默认为 appendonly.aof 文件中开启,AOF 文件的保存路径,同 RDB 的路径一致。

Redis6学习笔记_第34张图片

appendonly yes  #开启AOF模式 原文1
appendfilename "appendonly.aof" #保存数据的AOF文件名称 原文1

# appendfsync always
appendfsync everysec    #fsync模式    原文2
# appendfsync no

no-appendfsync-on-rewrite no    #原文3

auto-aof-rewrite-percentage 100
auto-aof-rewrite-min-size 64mb  #原文4

aof-load-truncated yes  #原文5

AOF 和 RDB 同时开启,redis 听谁的?
AOF 和 RDB 同时开启,系统默认取 AOF 的数据(数据不会存在丢失)。

AOF 启动、修复、恢复
AOF 的备份机制和性能虽然和 RDB 不同,但是备份和恢复的操作同 RDB 一样,都是拷贝备份文件,需要恢复时再拷贝到 Redis 工作目录下,启动系统即加载。

正常恢复

修改默认的 appendonly no,改为 yes。
将有数据的 aof 文件复制一份保存到对应目录 (查看目录:config get dir)。
恢复:重启 redis 然后重新加载。

异常恢复

修改默认的 appendonly no,改为 yes。
如遇到 AOF 文件损坏,通过 /usr/local/bin/ redis-check-aof–fix appendonly.aof 进行恢复。
备份被写坏的 AOF 文件。
恢复:重启 redis,然后重新加载。

AOF 同步频率设置
appendfsync always:始终同步,每次 Redis 的写入都会立刻记入日志;性能较差但数据完整性比较好。

appendfsync everysec:每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失。

appendfsync no:redis 不主动进行同步,把同步时机交给操作系统。

Rewrite 压缩
Rewrite 压缩:AOF 采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制,当 AOF 文件的大小超过所设定的阈值时,Redis 就会启动 AOF 文件的内容压缩,只保留可以恢复数据的最小指令集,可以使用命令 bgrewriteaof。

重写原理,如何实现重写

AOF 文件持续增长而过大时,会 fork 出一条新进程来将文件重写 (也是先写临时文件最后再 rename),redis4.0 版本后的重写,是指把 rdb 的快照,以二进制的形式附在新的 aof 头部,作为已有的历史数据,替换掉原来的流水账操作。

no-appendfsync-on-rewrite:

如果 no-appendfsync-on-rewrite=yes ,不写入 aof 文件只写入缓存,用户请求不会阻塞,但是在这段时间如果宕机会丢失这段时间的缓存数据。(降低数据安全性,提高性能)

如果 no-appendfsync-on-rewrite=no,还是会把数据往磁盘里刷,但是遇到重写操作,可能会发生阻塞。(数据安全,但是性能降低)

触发机制,何时重写:Redis 会记录上次重写时的 AOF 大小,默认配置是当 AOF 文件大小是上次 rewrite 后大小的一倍且文件大于 64M 时触发。

重写虽然可以节约大量磁盘空间,减少恢复时间。但是每次重写还是有一定的负担的,因此设定 Redis 要满足一定条件才会进行重写。

auto-aof-rewrite-percentage:设置重写的基准值,文件达到 100% 时开始重写(文件是原来重写后文件的 2 倍时触发)

auto-aof-rewrite-min-size:设置重写的基准值,最小文件 64MB。达到这个值开始重写。

系统载入时或者上次重写完毕时,Redis 会记录此时 AOF 大小,设为 base_size,

如果 Redis 的 AOF 当前大小 >= base_size +base_size*100% (默认) 且当前大小 >=64mb (默认) 的情况下,Redis 会对 AOF 进行重写。

例如:文件达到 70MB 开始重写,降到 50MB,下次什么时候开始重写?100MB

重写流程

(1)bgrewriteaof 触发重写,判断是否当前有 bgsave 或 bgrewriteaof 在运行,如果有,则等待该命令结束后再继续执行;

(2)主进程 fork 出子进程执行重写操作,保证主进程不会阻塞;

(3)子进程遍历 redis 内存中数据到临时文件,客户端的写请求同时写入 aof_buf 缓冲区和 aof_rewrite_buf 重写缓冲区,保证原 AOF 文件完整以及新 AOF 文件生成期间的新的数据修改动作不会丢失;

(4)子进程写完新的 AOF 文件后,向主进程发信号,父进程更新统计信息。主进程把 aof_rewrite_buf 中的数据写入到新的 AOF 文件;

(5)使用新的 AOF 文件覆盖旧的 AOF 文件,完成 AOF 重写。

优势:1.备份机制更稳健,丢失数据概率更低。2.可读的日志文本,通过操作 AOF 稳健,可以处理误操作。

劣势:1.比起 RDB 占用更多的磁盘空间。2.恢复备份速度要慢。3.每次读写都同步的话,有一定的性能压力。4.存在个别 Bug,造成恢复不能。

总结 (Which one):用哪个好?官方推荐两个都启用:

如果对数据不敏感,可以选单独用 RDB。不建议单独用 AOF,因为可能会出现 Bug。

如果只是做纯内存缓存,可以都不用

官网建议
RDB 持久化方式能够在指定的时间间隔能对你的数据进行快照存储。

AOF 持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF 命令以 redis 协议追加保存每次写的操作到文件末尾。

Redis 还能对 AOF 文件进行后台重写,使得 AOF 文件的体积不至于过大。

只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式。

同时开启两种持久化方式:在这种情况下,当 redis 重启的时候会优先载入 AOF 文件来恢复原始的数据,因为在通常情况下 AOF 文件保存的数据集要比 RDB 文件保存的数据集要完整。

RDB 的数据不实时,同时使用两者时服务器重启也只会找 AOF 文件。那要不要只使用 AOF 呢?

建议不要,因为 RDB 更适合用于备份数据库 (AOF 在不断变化不好备份),快速重启,而且不会有 AOF 可能潜在的 bug,留着作为一个万一的手段。

性能建议:

因为 RDB 文件只用作后备用途,建议只在 Slave 上持久化 RDB 文件,而且只要 15 分钟备份一次就够了,只保留 save 9001 这条规则。
如果使用 AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单,只 load 自己的 AOF 文件就可以了。
aof 代价:一是带来了持续的 IO,二是 AOF rewrite 的最后,将 rewrite 过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。
只要硬盘许可,应该尽量减少 AOF rewrite 的频率,AOF 重写的基础大小默认值 64M 太小了,可以设到 5G 以上。默认超过原大小 100% 大小时重写可以改到适当的数值。

第六章主从复制*

6.1Redis 主从复制

主机数据更新后根据配置和策略, 自动同步到备机的 master/slaver 机制,Master 以写为主Master只能有一个Slave 以读为主,主从复制节点间数据是全量的。

Redis6学习笔记_第35张图片

作用:1读写分离,性能扩展2容灾快速恢复。

实现:

Redis6学习笔记_第36张图片

6.2常见三招

(71条消息) Redis主从复制,简单三招以及哨兵模式_oh_EJiao的博客-CSDN博客

【一主二仆】

当主机SHUTDOWN时,从机不会争夺主机权限,而是等待主机重新连接上。(主机挂掉重新启动,仍然是主服务器)

当从机shutdown时,重新连接时主机关系消失,从机变成了刚开始的默认master。(从头开始复制)

复制原理:

(1)Slave 启动成功连接到 master 后会发送一个 sync 命令;

(2)Master 接到命令启动后台的存盘进程,同时收集所有接收到的用于修改数据集命令,在后台进程执行完毕之后,master 将传送整个数据文件到 slave,以完成一次完全同步。(主服务器先生成rdb文件,然后将rdb文件进行传递)

(3)每次主服务器进行写操作之后,和从服务器进行数据的同步。

全量复制:slave 服务器在接收到数据库文件数据后,将其存盘并加载到内存中。

增量复制:Master 继续将新的所有收集到的修改命令依次传给 slave,完成同步。

但是只要是重新连接 master,一次完全同步(全量复制) 将被自动执行。

【薪火相传】

通过slaveof设置80的主机是79,81的主机是80。主机79设置的信息,80和81都可以接收到。

Redis6学习笔记_第37张图片

但是问题是如果80服务器有问题了宕机之后,数据将无法进行传递。

【反客为主】

主机宕掉了,从机可以自己“slaveof no one”上位为master,也可以选择其他上位为mater的从机当主机。(手动调节)

6.3哨兵模式 (sentinel)

反客为主:当一个 master 宕机后,后面的 slave 可以立刻升为 master,其后面的 slave 不用做任何修改。用 slaveof no one 指令将从机变为主机。而哨兵模式是反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库。当主机挂掉,从机选举产生新的主机

Redis6学习笔记_第38张图片

哪个从机会被选举为主机呢?根据优先级别:slave-priority 。原主机重启后会变为从机。

Redis6学习笔记_第39张图片

复制延时:由于所有的写操作都是先在 Master 上操作,然后同步更新到 Slave 上,所以从 Master 同步到 Slave 机器有一定的延迟,当系统很繁忙的时候,延迟问题会更加严重,Slave 机器数量的增加也会使这个问题更加严重。

故障恢复
优先级:在 redis.conf 中默认 slave-priority 100,值越小优先级越高,在redis6当中版本有所更改。

偏移量:指获得原主机数据最全的概率。

runid:每个 redis 实例启动后都会随机生成一个 40 位的 runid。

第七章集群*

7.1介绍

容量不够,redis 如何进行扩容?

并发写操作, redis 如何分摊?

主从模式,薪火相传模式,主机宕机,导致 ip 地址发生变化,应用程序中配置需要修改对应的主机地址、端口等信息。

解决方法:

  • 代理主机( 之前

  • Redis6学习笔记_第40张图片

    无中心化集群配置( redis3.0

    Redis 集群实现了对 Redis 的水平扩容,即启动 NRedis 节点,将整个数据库分布存储在这 N 个节点中,每个节点存储总数据的 1/N

    Redis 集群通过分区(partition)来提供一定程度的可用性(availability),即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求。

    Redis6学习笔记_第41张图片

    Redis集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N
    Redis集群通过分区( partition )来提供一定程度的可用性( availability ) :即使集群有一部分节点失效或者无法进行通讯,集群也可以继续处理命令请求。

7.2配置集群

# 以redis6379.conf为例
include /opt/etc/redis.conf
pidfile /var/run/redis_6379.pid # 更改
port 6379 # 更改
dbfilename dump6379.rdb # 更改
cluster-enabled yes # 打开集群模式
cluster-config-file nodes-6379.conf # 设置节点配置文件名称,需要更改
cluster-node-timeout 15000 # 设置节点失联事件,超过该时间(ms),集群自动进行主从切换
# 进入redis安装目录
/opt/redis-6.2.6/src

# 执行
redis-cli --cluster create --cluster-replicas 1 172.16.88.168:6379 172.16.88.168:6380 172.16.88.168:6381 172.16.88.168:6389 172.16.88.168:6390 172.16.88.168:6391

7.3redis cluster 分配节点

一个集群至少要有三个主节点。

选项 --cluster-replicas 1,表示希望为集群中的每个主节点创建一个从节点。

分配原则尽量保证每个主数据库运行在不同的 IP 地址,每个从库和主库不在一个 IP 地址上。

Redis6学习笔记_第42张图片

7.4什么是 slots

一个 Redis 集群包含 16384 个插槽(hash slot), 数据库中的每个键都属于这 16384 个插槽的其中一个。

集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽, 其中 CRC16(key) 语句用于计算键 keyCRC16 校验和 。

集群中的每个节点负责处理一部分插槽。 例如, 如果一个集群可以有主节点, 其中:

  • 节点 A 负责处理 0 号至 5460 号插槽。
  • 节点 B 负责处理 5461 号至 10922 号插槽。
  • 节点 C 负责处理 10923 号至 16383 号插槽。
如何在集群中录入值?

redis-cli 每次录入、查询键值,redis 都会计算出该 key 应该送往的插槽,如果不是该客户端对应服务器的插槽,redis 会报错,并告知应前往的 redis 实例地址和端口。

redis-cli 客户端提供了 –c 参数实现自动重定向。

例如 redis-cli -c –p 6379 登入后,再录入、查询键值对可以自动重定向。

如何查询集群中的值?

每个主机只能查询自己范围内部的插槽。

cluster keyslot :查询某个 key 的 **slot **。

cluster countkeysinslot :查询某个 slot 是否有值,只能查询自己的插槽,一个插槽当中不可能只有一个数值,返回插槽中的数量。

CLUSTER GETKEYSINSLOT :返回 countslot 槽中的键。

故障恢复?

如果主节点下线?从节点能否自动升为主节点?注意:15 秒超时。

如果所有某一段插槽的主从节点都宕掉, redis服务是否还能继续?
如果某一段插槽的主从都挂掉 ,而cluster-require-full-coverage为yes , 那么整个集群都挂掉
如果某一段插槽的主从都挂掉,而cluster-require-full-coverage为no ,那么,该插槽数据全都不能使用,也无法存储。
redis.conf中的参数cluster-require-full-coverage.

  • 6379 挂掉后,6389 成为新的主机。

主节点恢复后,主从关系会如何?主节点回来变成从机。

  • 6379 重启后,6379 成为 6389 的从机。

如果所有某一段插槽的主从节点都宕掉,redis 服务是否还能继续?

  • 如果某一段插槽的主从都挂掉,而 cluster-require-full-coverage=yes,那么 ,整个集群都挂掉。
  • 如果某一段插槽的主从都挂掉,而 cluster-require-full-coverage=no,那么,该插槽数据全都不能使用,也无法存储。
redis.conf` 中的参数 `cluster-require-full-coverage
优点
  • 实现扩容;
  • 分摊压力;
  • 无中心配置相对简单。
缺点
  • 多键操作是不被支持的;
  • 多键的 Redis 事务是不被支持的。lua 脚本不被支持;
  • 由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移至redis cluster,需要整体迁移而不是逐步过渡,复杂度较大。
集群的 Jedis 开发

即使连接的不是主机,集群会自动切换主机存储。主机写,从机读。

无中心化主从集群。无论从哪台主机写的数据,其他主机上都能读到数据。

public class JedisClusterTest {
  public static void main(String[] args) { 
     Set<HostAndPort>set =new HashSet<HostAndPort>();
     set.add(new HostAndPort("172.16.88.168",6379)); // 任何一个端口
     JedisCluster jedisCluster = new JedisCluster(set);
     jedisCluster.set("k1", "v1");
     System.out.println(jedisCluster.get("k1"));
  }
}

第八章Redis6应用问题解决

8.1缓存穿透

Redis6学习笔记_第43张图片

现象

key 对应的数据在数据源并不存在,每次针对此 key 的请求从缓存获取不到,请求都会压到数据源,从而可能压垮数据源。

比如用一个不存在的用户 id 获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库。

原因:

1.redis查询不到数据库

2.出现很多url非正常访问

造成:

  1. 应用服务器压力变大。
  2. redis 命中率下降 ⟶ \longrightarrow 查询数据库 。
如何解决
  • 对空值缓存

    如果一个查询返回的数据为空(不管是数据是否不存在),仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟。

  • 设置可访问的名单(白名单):

    使用 bitmaps 类型定义一个可以访问的名单,名单 id 作为 bitmaps 的偏移量,每次访问和 bitmap 里面的 id 进行比较,如果访问 id 不在 bitmaps 里面,进行拦截,则不允许访问。

  • 采用布隆过滤器

    布隆过滤器(Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。

    布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。

    将所有可能存在的数据哈希到一个足够大的 bitmaps 中,一个一定不存在的数据会被这个 bitmaps 拦截掉,从而避免了对底层存储系统的查询压力。

  • 进行实时监控

    当发现 Redis 的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务。

8.2缓存击穿

Redis6学习笔记_第44张图片

key 对应的数据存在,但在 redis 中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB 加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端 DB 压垮。

  1. 数据库访问压力瞬间增大。
  2. redis 中没有出现大量 key 过期,redis 正常运行。
  3. (即某个经常访问的 key 过期,突然有大量访问这个数据)
如何解决
  • 预先设置热门数据

    redis 高峰访问之前,把一些热门数据提前存入到 redis 里面,加大这些热门数据 key 的时长。

  • 实时调整

    现场监控哪些数据热门,实时调整 key 的过期时长。

  • 使用锁(效率会很低)

8.3缓存雪崩

Redis6学习笔记_第45张图片

key 对应的数据存在,但在 redis 中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB 加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端 DB 压垮。

缓存雪崩与缓存击穿的区别在于这里针对很多 key 缓存,前者则是某一个 key

  1. 数据库压力变大。
  2. 即极少的时间段,查询大量 key 的集中过期情况。
如何解决
  • 构建多级缓存架构

    nginx 缓存 + redis 缓存 + 其他缓存(ehcache等)

  • 使用锁或队列:

    用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况。

  • 设置过期标志更新缓存:

    记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际 key 的缓存。

  • 将缓存失效时间分散开:

    比如我们可以在原有的失效时间基础上增加一个随机值,比如 1~5 分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

8.4分布式锁(设置锁和过期时间)

问题描述:随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程的特点以及分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的 Java API 并不能提供分布式锁的能力。为了解决这个问题就需要一种跨 JVM 的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题!

分布式锁主流的实现方案:

1.基于数据库实现分布式锁

2.基于缓存(Redis 等)

3.基于 Zookeeper

根据实现方式,分布式锁还可以分为类 CAS 自旋式分布式锁以及 event 事件类型分布式锁:

类 CAS 自旋式分布式锁:询问的方式,类似 java 并发编程中的线程获询问的方式尝试加锁,如 mysql、redis。另外一类是 event 事件通知进程后续锁的变化,轮询向外的过程,如 zookeeper、etcd。每一种分布式锁解决方案都有各自的优缺点:

性能:redis 最高 可靠性:zookeeper 最高 解决方案:使用 redis 实现分布式锁

Redis6学习笔记_第46张图片

**setnx:**通过该命令尝试获得锁,没有获得锁的线程会不断等待尝试。

set key ex 3000nx:设置过期时间,自动释放锁解决,当某一个业务异常而导致锁无法释放的问题。但是当业务运行超过过期时间时,开辟监控线程增加该业务的运行时间,直到运行结束,释放锁。

uuid:设置 uuid,释放前获取这个值,判断是否自己的锁,防止误删锁,造成没锁的情况。

jedis进行操作:

    @PostMapping("/testLock")
    public void  testLock() {
        /*获取锁*/
        Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", "1");
        /*获取锁成功*/
        if(lock){
            Object num = redisTemplate.opsForValue().get("num");
            if(StringUtils.isEmpty(num)){
                return ;
            }
            int tic = Integer.parseInt(num+"");
            redisTemplate.opsForValue().set("num",++tic);
           /* 释放锁,del*/
            redisTemplate.delete("lock");
        }else {
            try {
                Thread.sleep(100);
                testLock();
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }

    }

ab来进行测试:

ab -n 20000 -c 2000 -k -p ./postfile -T application/x-www-form-urlencoded http://192.168.0.101:8080/redisTest/testLock

RedLock
Redlock 是一种算法,Redlock 也就是 Redis Distributed Lock,可用实现多节点 redis 的分布式锁。RedLock 官方推荐,Redisson 完成了对 Redlock 算法封装。

此种方式具有以下特性:

互斥访问:即永远只有一个 client 能拿到锁。
避免死锁:最终 client 都可能拿到锁,不会出现死锁的情况,即使锁定资源的服务崩溃或者分区,仍然能释放锁。
容错性:只要大部分 Redis 节点存活(一半以上),就可以正常提供服务
RedLock 原理(了解)

获取当前 Unix 时间,以毫秒为单位。
依次尝试从 N 个实例,使用相同的 key 和随机值获取锁。在步骤 2,当向 Redis 设置锁时,客户端应该设置一个网络连接和响应超时时间,这个超时时间应该小于锁的失效时间。例如你的锁自动失效时间为 10 秒,则超时时间应该在 5-50 毫秒之间。这样可以避免服务器端 Redis 已经挂掉的情况下,客户端还在死死地等待响应结果。如果服务器端没有在规定时间内响应,客户端应该尽快尝试另外一个 Redis 实例。
客户端使用当前时间减去开始获取锁时间(步骤 1 记录的时间)就得到获取锁使用的时间。当且仅当从大多数(这里是 3 个节点)的 Redis 节点都取到锁,并且使用的时间小于锁失效时间时,锁才算获取成功。
如果取到了锁,key 的真正有效时间等于有效时间减去获取锁所使用的时间(步骤 3 计算的结果)。
如果因为某些原因,获取锁失败(没有在至少 N/2+1 个 Redis 实例取到锁或者取锁时间已经超过了有效时间),客户端应该在所有的 Redis 实例上进行解锁(即便某些 Redis 实例根本就没有加锁成功)。
Redis IO 多线程
简介
Redis6 终于支撑多线程了,告别单线程了吗?

IO 多线程其实指客户端交互部分的网络 IO 交互处理模块 多线程,而非执行命令多线程。Redis6 执行命令依然是单线程。

原理架构
Redis 6 加入多线程,但跟 Memcached 这种从 IO 处理到数据访问多线程的实现模式有些差异。Redis 的多线程部分只是用来处理网络数据的读写和协议解析,执行命令仍然是单线程。之所以这么设计是不想因为多线程而变得复杂,需要去控制 key、lua、事务,LPUSH/LPOP 等等的并发问题。整体的设计大体如下:

8.5分布式锁(UUID防止误删)

Redis6学习笔记_第47张图片

如果业务逻辑的执行时间是7s。
1.业务逻辑1没执行完,3秒后锁被自动释放。
2.业务逻辑2获取到锁,执行业务逻辑,3秒后锁被自动释放。
3.业务逻辑3获取到锁,执行业务逻辑
4.业务逻辑1执行完成,开始调用del释放锁,这时释放的是业务逻辑3的锁,导致业务逻辑3的业务只执行1s就被别人释放。
出现没有上锁的情况

    @PostMapping("/testLock")
    public void testLock() {
        String uuid = UUID.randomUUID().toString();
        /*获取锁*/
        Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", yyds, 3, TimeUnit.SECONDS);
        /*获取锁成功*/
        if (lock) {
            Object num = redisTemplate.opsForValue().get("num");
            if (StringUtils.isEmpty(num)) {
                return;
            }
            int tic = Integer.parseInt(num + "");
            redisTemplate.opsForValue().set("num", ++tic);
            /*获取锁的uuid,只能释放自己的锁*/
            String uuidLock = (String)redisTemplate.opsForValue().get("lock");
            if(uuid.equals(uuidLock)){
                /* 释放锁,del*/
                redisTemplate.delete("lock");
            }
            
        } else {
            try {
                Thread.sleep(100);
                testLock();
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }

    }

还有可能会发生这种情况:

1.业务逻辑1执行删除时,查询到的lock值确实和uuid相等
uuid=v1
set(lock,uuid);

2.业务逻辑1执行删除前,lock刚好过期时间已到,被redis自动释放
在redis中没有了lock,没有了锁。

3.业务逻辑2获取了lock
index2线程获取到了cpu的资源,开始执行方法
uuid=v2
set(lock,uuid);
4.业务逻辑执行删除,此时会把业务逻辑2的lock删除,删除的业务逻辑2的锁

 @GetMapping("testLockLua")
    public void testLockLua() {
        //1 声明一个uuid ,将做为一个value 放入我们的key所对应的值中
        String uuid = UUID.randomUUID().toString();
        //2 定义一个锁:lua 脚本可以使用同一把锁,来实现删除!
        String locKey = "lock"; 

        // 3 获取锁
        Boolean lock = redisTemplate.opsForValue().setIfAbsent(locKey, uuid, 3, TimeUnit.SECONDS);

        // 第一种: lock 与过期时间中间不写任何的代码。
        // redisTemplate.expire("lock",10, TimeUnit.SECONDS);//设置过期时间
        // 如果true
        if (lock) {
            // 执行的业务逻辑开始
            // 获取缓存中的num 数据
            Object value = redisTemplate.opsForValue().get("num");
            // 如果是空直接返回
            if (StringUtils.isEmpty(value)) {
                return;
            }
            // 不是空 如果说在这出现了异常! 那么delete 就删除失败! 也就是说锁永远存在!
            int num = Integer.parseInt(value + "");
            // 使num 每次+1 放入缓存
            redisTemplate.opsForValue().set("num", String.valueOf(++num));
            /*使用lua脚本来锁*/
            // 定义lua 脚本
            String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
            // 使用redis执行lua执行
            DefaultRedisScript<Long> redisScript = new DefaultRedisScript<>();
            redisScript.setScriptText(script);
            // 设置一下返回值类型 为Long
            // 因为删除判断的时候,返回的0,给其封装为数据类型。如果不封装那么默认返回String 类型,
            // 那么返回字符串与0 会有发生错误。
            redisScript.setResultType(Long.class);
            // 第一个要是script 脚本 ,第二个需要判断的key,第三个就是key所对应的值。
            redisTemplate.execute(redisScript, Arrays.asList(locKey), uuid);
        } else {
            // 其他线程等待
            try {
                Thread.sleep(1000);
                testLockLua();
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }
    }

为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件:
-互斥性。在任意时刻,只有一个客户端能持有锁。
-不会发生死锁。即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁。
-加锁和解锁必须是同一个客户端,客户端自己不能把别人加的锁给解了。
-加锁和解锁必须具有原子性
e 放入我们的key所对应的值中
String uuid = UUID.randomUUID().toString();
//2 定义一个锁:lua 脚本可以使用同一把锁,来实现删除!
String locKey = “lock”;

    // 3 获取锁
    Boolean lock = redisTemplate.opsForValue().setIfAbsent(locKey, uuid, 3, TimeUnit.SECONDS);

    // 第一种: lock 与过期时间中间不写任何的代码。
    // redisTemplate.expire("lock",10, TimeUnit.SECONDS);//设置过期时间
    // 如果true
    if (lock) {
        // 执行的业务逻辑开始
        // 获取缓存中的num 数据
        Object value = redisTemplate.opsForValue().get("num");
        // 如果是空直接返回
        if (StringUtils.isEmpty(value)) {
            return;
        }
        // 不是空 如果说在这出现了异常! 那么delete 就删除失败! 也就是说锁永远存在!
        int num = Integer.parseInt(value + "");
        // 使num 每次+1 放入缓存
        redisTemplate.opsForValue().set("num", String.valueOf(++num));
        /*使用lua脚本来锁*/
        // 定义lua 脚本
        String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end";
        // 使用redis执行lua执行
        DefaultRedisScript redisScript = new DefaultRedisScript<>();
        redisScript.setScriptText(script);
        // 设置一下返回值类型 为Long
        // 因为删除判断的时候,返回的0,给其封装为数据类型。如果不封装那么默认返回String 类型,
        // 那么返回字符串与0 会有发生错误。
        redisScript.setResultType(Long.class);
        // 第一个要是script 脚本 ,第二个需要判断的key,第三个就是key所对应的值。
        redisTemplate.execute(redisScript, Arrays.asList(locKey), uuid);
    } else {
        // 其他线程等待
        try {
            Thread.sleep(1000);
            testLockLua();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
    }
}

为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件:
-**互斥性**。在任意时刻,只有一个客户端能持有锁。
-**不会发生死锁**。即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁。
-**加锁和解锁必须是同一个客户端**,客户端自己不能把别人加的锁给解了。
-**加锁和解锁必须具有原子性**。

你可能感兴趣的:(分布式,redis)