今天跟大家探讨一下分布式锁的设计与实现。
分布式锁概述数据库分布式锁Redis分布式锁Zookeeper分布式锁三种分布式锁对比 1. 分布式锁概述我们的系统都是分布式部署的,日常开发中,秒杀下单、抢购商品等等业务场景,为了防⽌库存超卖,都需要用到分布式锁。
分布式锁其实就是,控制分布式系统不同进程共同访问共享资源的一种锁的实现。如果不同的系统或同一个系统的不同主机之间共享了某个临界资源,往往需要互斥来防止彼此干扰,以保证一致性。
业界流行的分布式锁实现,一般有这3种方式:
基于数据库实现的分布式锁基于Redis实现的分布式锁基于Zookeeper实现的分布式锁 2. 基于数据库的分布式锁 2.1 数据库悲观锁实现的分布式锁可以使用select ... for update 来实现分布式锁。我们自己的项目,分布式定时任务,就使用类似的实现方案,我给大家来展示个简单版的哈
表结构如下:
加锁lock方法的伪代码如下:
解锁unlock方法的伪代码如下:
整体流程:
其实这个悲观锁实现的分布式锁,整体的流程还是比较清晰的。就是先select ... for update 锁住主键key_resource那个记录,如果为空,则可以插入一条记录,如果已有记录判断下状态和时间,是否已经超时。这里需要注意一下哈,必须要加事务哈。
2.2 数据库乐观锁实现的分布式锁除了悲观锁,还可以用乐观锁实现分布式锁。乐观锁,顾名思义,就是很乐观,每次更新操作,都觉得不会存在并发冲突,只有更新失败后,才重试。它是基于CAS思想实现的。我以前的公司,扣减余额就是用这种方案。
搞个version字段,每次更新修改,都会自增加一,然后去更新余额时,把查出来的那个版本号,带上条件去更新,如果是上次那个版本号,就更新,如果不是,表示别人并发修改过了,就继续重试。
大概流程如下:
查询版本号和余额
假设查到版本号是oldVersion=1.
逻辑处理,判断余额
进行扣减余额
大家可以看下这个流程图哈:
这种方式适合并发不高的场景,一般需要设置一下重试的次数
3.基于Redis实现的分布式锁Redis分布式锁一般有以下这几种实现方式:
setnx + expiresetnx + value值是过期时间set的扩展命令(set ex px nx)set ex px nx + 校验唯一随机值,再删除RedissonRedisson + RedLock 3.1 setnx + expire聊到Redis分布式锁,很多小伙伴反手就是setnx + expire,如下:
这段代码是可以加锁成功,但是你有没有发现问题,加锁操作和设置超时时间是分开的。假设在执行完setnx加锁后,正要执行expire设置过期时间时,进程crash掉或者要重启维护了,那这个锁就长生不老了,别的线程永远获取不到锁啦,所以分布式锁不能这么实现!
3.2 setnx + value值是过期时间日常开发中,有些小伙伴就是这么实现分布式锁的,但是会有这些缺点:
过期时间是客户端自己生成的,分布式环境下,每个客户端的时间必须同步。没有保存持有者的唯一标识,可能被别的客户端释放/解锁。锁过期的时候,并发多个客户端同时请求过来,都执行了jedis.getSet(),最终只能有一个客户端加锁成功,但是该客户端锁的过期时间,可能被别的客户端覆盖。 3.3 set的扩展命令(set ex px nx)这个命令的几个参数分别表示什么意思呢?跟大家复习一下:
EX second :设置键的过期时间为second秒。PX millisecond :设置键的过期时间为millisecond毫秒。NX :只在键不存在时,才对键进行设置操作。XX :只在键已经存在时,才对键进行设置操作。这个方案可能存在这样的问题:
锁过期释放了,业务还没执行完。锁被别的线程误删。有些伙伴可能会有个疑问,就是锁为什么会被别的线程误删呢?假设并发多线程场景下,线程A获得了锁,但是它没释放锁的话,线程B是获取不到锁的,所以按道理它是执行不到加锁下面的代码滴,怎么会导致锁被别的线程误删呢?
假设线程A和B,都想用key加锁,最后A抢到锁加锁成功,但是由于执行业务逻辑的耗时很长,超过了设置的超时时间100s。这时候,Redis就自动释放了key锁。这时候线程B就可以加锁成功了,接下啦,它也执行业务逻辑处理。假设碰巧这时候,A执行完自己的业务逻辑,它就去释放锁,但是它就把B的锁给释放了。
3.4 set ex px nx + 校验唯一随机值,再删除为了解决锁被别的线程误删问题。可以在set ex px nx的基础上,加上个校验的唯一随机值,如下:
在这里,判断当前线程加的锁和释放锁不是一个原子操作。如果调用jedis.del()释放锁的时候,可能这把锁已经不属于当前客户端,会解除他人加的锁。
一般可以用lua脚本来包一下。lua脚本如下:
这种方式比较不错了,一般情况下,已经可以使用这种实现方式。但是还是存在:锁过期释放了,业务还没执行完的问题。
3.5 Redisson对于可能存在锁过期释放,业务没执行完的问题。我们可以稍微把锁过期时间设置长一些,大于正常业务处理时间就好啦。如果你觉得不是很稳,还可以给获得锁的线程,开启一个定时守护线程,每隔一段时间检查锁是否还存在,存在则对锁的过期时间延长,防止锁过期提前释放。
当前开源框架Redisson解决了这个问题。可以看下Redisson底层原理图:
只要线程一加锁成功,就会启动一个watch dog看门狗,它是一个后台线程,会每隔10秒检查一下,如果线程1还持有锁,那么就会不断的延长锁key的生存时间。因此,Redisson就是使用watch dog解决了锁过期释放,业务没执行完问题。
3.6 Redisson + RedLock前面六种方案都只是基于Redis单机版的分布式锁讨论,还不是很完美。因为Redis一般都是集群部署的:
如果线程一在Redis的master节点上拿到了锁,但是加锁的key还没同步到slave节点。恰好这时,master节点发生故障,一个slave节点就会升级为master节点。线程二就可以顺理成章获取同个key的锁啦,但线程一也已经拿到锁了,锁的安全性就没了。
为了解决这个问题,Redis作者antirez提出一种高级的分布式锁算法:Redlock。它的核心思想是这样的:
部署多个Redis master,以保证它们不会同时宕掉。并且这些master节点是完全相互独立的,相互之间不存在数据同步。同时,需要确保在这多个master实例上,是与在Redis单实例,使用相同方法来获取和释放锁。
我们假设当前有5个Redis master节点,在5台服务器上面运行这些Redis实例。
RedLock的实现步骤:
获取当前时间,以毫秒为单位。按顺序向5个master节点请求加锁。客户端设置网络连接和响应超时时间,并且超时时间要小于锁的失效时间。(假设锁自动失效时间为10秒,则超时时间一般在5-50毫秒之间,我们就假设超时时间是50ms吧)。如果超时,跳过该master节点,尽快去尝试下一个master节点。客户端使用当前时间减去开始获取锁时间(即步骤1记录的时间),得到获取锁使用的时间。当且仅当超过一半(N/2+1,这里是5/2+1=3个节点)的Redis master节点都获得锁,并且使用的时间小于锁失效时间时,锁才算获取成功。(如上图,10s> 30ms+40ms+50ms+4m0s+50ms)如果取到了锁,key的真正有效时间就变啦,需要减去获取锁所使用的时间。如果获取锁失败(没有在至少N/2+1个master实例取到锁,有或者获取锁时间已经超过了有效时间),客户端要在所有的master节点上解锁(即便有些master节点根本就没有加锁成功,也需要解锁,以防止有些漏网之鱼)。简化下步骤就是:
按顺序向5个master节点请求加锁根据设置的超时时间来判断,是不是要跳过该master节点。如果大于等于3个节点加锁成功,并且使用的时间小于锁的有效期,即可认定加锁成功啦。如果获取锁失败,解锁!Redisson实现了redLock版本的锁,有兴趣的小伙伴,可以去了解一下哈~
4. Zookeeper分布式锁在学习Zookeeper分布式锁之前,我们复习一下Zookeeper的节点哈。
Zookeeper的节点Znode有四种类型:
持久节点:默认的节点类型。创建节点的客户端与zookeeper断开连接后,该节点依旧存在。持久节点顺序节点:所谓顺序节点,就是在创建节点时,Zookeeper根据创建的时间顺序给该节点名称进行编号,持久节点顺序节点就是有顺序的持久节点。临时节点:和持久节点相反,当创建节点的客户端与zookeeper断开连接后,临时节点会被删除。临时顺序节点:有顺序的临时节点。Zookeeper分布式锁实现应用了临时顺序节点。这里不贴代码啦,来讲下zk分布式锁的实现原理吧。
4.1 zk获取锁过程当第一个客户端请求过来时,Zookeeper客户端会创建一个持久节点locks。如果它(Client1)想获得锁,需要在locks节点下创建一个顺序节点lock1.如图
接着,客户端Client1会查找locks下面的所有临时顺序子节点,判断自己的节点lock1是不是排序最小的那一个,如果是,则成功获得锁。
这时候如果又来一个客户端client2前来尝试获得锁,它会在locks下再创建一个临时节点lock2
客户端client2一样也会查找locks下面的所有临时顺序子节点,判断自己的节点lock2是不是最小的,此时,发现lock1才是最小的,于是获取锁失败。获取锁失败,它是不会甘心的,client2向它排序靠前的节点lock1注册Watcher事件,用来监听lock1是否存在,也就是说client2抢锁失败进入等待状态。
此时,如果再来一个客户端Client3来尝试获取锁,它会在locks下再创建一个临时节点lock3
同样的,client3一样也会查找locks下面的所有临时顺序子节点,判断自己的节点lock3是不是最小的,发现自己不是最小的,就获取锁失败。它也是不会甘心的,它会向在它前面的节点lock2注册Watcher事件,以监听lock2节点是否存在。
4.2 释放锁我们再来看看释放锁的流程,Zookeeper的客户端业务完成或者发生故障,都会删除临时节点,释放锁。如果是任务完成,Client1会显式调用删除lock1的指令
如果是客户端故障了,根据临时节点得特性,lock1是会自动删除的
lock1节点被删除后,Client2可开心了,因为它一直监听着lock1。lock1节点删除,Client2立刻收到通知,也会查找locks下面的所有临时顺序子节点,发下lock2是最小,就获得锁。
同理,Client2获得锁之后,Client3也对它虎视眈眈,啊哈哈~
Zookeeper设计定位就是分布式协调,简单易用。如果获取不到锁,只需添加一个监听器即可,很适合做分布式锁。Zookeeper作为分布式锁也缺点:如果有很多的客户端频繁的申请加锁、释放锁,对于Zookeeper集群的压力会比较大。 5. 三种分布式锁对比 5.1 数据库分布式锁实现优点:
简单,使用方便,不需要引入Redis、zookeeper等中间件。
缺点:
不适合高并发的场景db操作性能较差; 5.2 Redis分布式锁实现优点:
性能好,适合高并发场景较轻量级有较好的框架支持,如Redisson缺点:
过期时间不好控制需要考虑锁被别的线程误删场景 5.3 Zookeeper分布式锁实现缺点:
性能不如redis实现的分布式锁比较重的分布式锁。优点:
有较好的性能和可靠性有封装较好的框架,如Curator 5.4 对比汇总 从性能角度(从高到低)Redis > Zookeeper >= 数据库;从理解的难易程度角度(从低到高)数据库 > Redis > Zookeeper;从实现的复杂性角度(从低到高)Zookeeper > Redis > 数据库;从可靠性角度(从高到低)Zookeeper > Redis > 数据库。到此这篇关于SpringCloud 分布式锁的多种实现的文章就介绍到这了,更多相关SpringCloud 分布式锁 内容请搜索七叶笔记以前的文章或继续浏览下面的相关文章希望大家以后多多支持七叶笔记!