今天跟大家探讨一下分布式锁的设计与实现。希望对大家有帮助,如果有不正确的地方,欢迎指出。
分布式锁概述
我们的系统都是分布式部署的,日常开发中,秒杀下单、抢购商品等等业务场景,为了防⽌库存超卖,都需要用到分布式锁。
分布式锁其实就是,控制分布式系统不同进程共同访问共享资源的一种锁的实现。如果不同的系统或同一个系统的不同主机之间共享了某个临界资源,往往需要互斥来防止彼此干扰,以保证一致性。
业界流行的分布式锁实现,一般有这3种方式:
- 基于数据库实现的分布式锁
- 基于Redis实现的分布式锁
- 基于Zookeeper实现的分布式锁
基于数据库的分布式锁
数据库悲观锁实现的分布式锁
可以使用select ... for update
来实现分布式锁。我们自己的项目,分布式定时任务,就使用类似的实现方案,我给大家来展示个简单版的哈
表结构如下:
1 | CREATE TABLE `t_resource_lock` ( |
加锁lock
方法的伪代码如下:
1 | //一定要加事务 |
解锁unlock
方法的伪代码如下:
1 | public void unlock(String v,status){ |
整体流程:
1 | try{ |
其实这个悲观锁实现的分布式锁,整体的流程还是比较清晰的。就是先select ... for update
锁住主键key_resource
那个记录,如果为空,则可以插入一条记录,如果已有记录判断下状态和时间,是否已经超时。这里需要注意一下哈,必须要加事务哈。
数据库乐观锁实现的分布式锁
除了悲观锁,还可以用乐观锁实现分布式锁。乐观锁,顾名思义,就是很乐观,每次更新操作,都觉得不会存在并发冲突,只有更新失败后,才重试。它是基于CAS思想实现的。我以前的公司,扣减余额就是用这种方案。
搞个version字段,每次更新修改,都会自增加一,然后去更新余额时,把查出来的那个版本号,带上条件去更新,如果是上次那个版本号,就更新,如果不是,表示别人并发修改过了,就继续重试。
大概流程如下:
- 查询版本号和余额
1 | select version,balance from account where user_id ='666'; |
假设查到版本号是oldVersion=1.
- 逻辑处理,判断余额
1 | if(balance<扣减金额){ |
- 进行扣减余额
1 | update account set balance = #{left_balance} ,version = version+1 where version |
大家可以看下这个流程图哈:
这种方式适合并发不高的场景,一般需要设置一下重试的次数
基于Redis实现的分布式锁
Redis分布式锁一般有以下这几种实现方式:
- setnx + expire
- setnx + value值是过期时间
- set的扩展命令(set ex px nx)
- set ex px nx + 校验唯一随机值,再删除
- Redisson
- Redisson + RedLock
setnx + expire
聊到Redis分布式锁,很多小伙伴反手就是setnx + expire
,如下:
1 | if(jedis.setnx(key,lock_value) == 1){ //setnx加锁 |
这段代码是可以加锁成功,但是你有没有发现问题,加锁操作和设置超时时间是分开的。假设在执行完setnx
加锁后,正要执行expire
设置过期时间时,进程crash
掉或者要重启维护了,那这个锁就长生不老了,别的线程永远获取不到锁啦,所以分布式锁不能这么实现!
setnx + value值是过期时间
1 | long expires = System.currentTimeMillis() + expireTime; //系统时间+设置的过期时间 |
日常开发中,有些小伙伴就是这么实现分布式锁的,但是会有这些缺点:
- 过期时间是客户端自己生成的,分布式环境下,每个客户端的时间必须同步。
- 没有保存持有者的唯一标识,可能被别的客户端释放/解锁。
- 锁过期的时候,并发多个客户端同时请求过来,都执行了
jedis.getSet()
,最终只能有一个客户端加锁成功,但是该客户端锁的过期时间,可能被别的客户端覆盖。
set的扩展命令(set ex px nx)
这个命令的几个参数分别表示什么意思呢?跟大家复习一下:
1 | SET key value [EX seconds] [PX milliseconds] [NX|XX] |
- EX second :设置键的过期时间为
second
秒。 - PX millisecond :设置键的过期时间为
millisecond
毫秒。 - NX :只在键不存在时,才对键进行设置操作。
- XX :只在键已经存在时,才对键进行设置操作。
1 | if(jedis.set(key, lock_value, "NX", "EX", 100s) == 1){ //加锁 |
这个方案可能存在这样的问题:
- 锁过期释放了,业务还没执行完。
- 锁被别的线程误删。
有些伙伴可能会有个疑问,就是锁为什么会被别的线程误删呢?假设并发多线程场景下,线程A获得了锁,但是它没释放锁的话,线程B是获取不到锁的,所以按道理它是执行不到加锁下面的代码滴,怎么会导致锁被别的线程误删呢?
假设线程A和B,都想用
key
加锁,最后A抢到锁加锁成功,但是由于执行业务逻辑的耗时很长,超过了设置的超时时间100s
。这时候,Redis就自动释放了key
锁。这时候线程B就可以加锁成功了,接下啦,它也执行业务逻辑处理。假设碰巧这时候,A执行完自己的业务逻辑,它就去释放锁,但是它就把B的锁给释放了。
set ex px nx + 校验唯一随机值,再删除
为了解决锁被别的线程误删问题。可以在set ex px nx
的基础上,加上个校验的唯一随机值,如下:
1 | if(jedis.set(key, uni_request_id, "NX", "EX", 100s) == 1){ //加锁 |
在这里,判断当前线程加的锁和释放锁不是一个原子操作。如果调用jedis.del()
释放锁的时候,可能这把锁已经不属于当前客户端,会解除他人加的锁。
一般可以用lua脚本来包一下。lua脚本如下:
1 | if redis.call('get',KEYS[1]) == ARGV[1] then |
这种方式比较不错了,一般情况下,已经可以使用这种实现方式。但是还是存在:锁过期释放了,业务还没执行完的问题。
Redisson
对于可能存在锁过期释放,业务没执行完的问题。我们可以稍微把锁过期时间设置长一些,大于正常业务处理时间就好啦。如果你觉得不是很稳,还可以给获得锁的线程,开启一个定时守护线程,每隔一段时间检查锁是否还存在,存在则对锁的过期时间延长,防止锁过期提前释放。
当前开源框架Redisson解决了这个问题。可以看下Redisson底层原理图:
只要线程一加锁成功,就会启动一个watch dog
看门狗,它是一个后台线程,会每隔10秒检查一下,如果线程1还持有锁,那么就会不断的延长锁key的生存时间。因此,Redisson就是使用watch dog
解决了锁过期释放,业务没执行完问题。
Redisson + RedLock
前面六种方案都只是基于Redis单机版的分布式锁讨论,还不是很完美。因为Redis一般都是集群部署的:
如果线程一在Redis
的master
节点上拿到了锁,但是加锁的key
还没同步到slave
节点。恰好这时,master
节点发生故障,一个slave
节点就会升级为master
节点。线程二就可以顺理成章获取同个key
的锁啦,但线程一也已经拿到锁了,锁的安全性就没了。
为了解决这个问题,Redis作者antirez提出一种高级的分布式锁算法:Redlock。它的核心思想是这样的:
部署多个Redis master,以保证它们不会同时宕掉。并且这些master节点是完全相互独立的,相互之间不存在数据同步。同时,需要确保在这多个master实例上,是与在Redis单实例,使用相同方法来获取和释放锁。
我们假设当前有5个Redis master节点,在5台服务器上面运行这些Redis实例。
RedLock的实现步骤:
- 获取当前时间,以毫秒为单位。
- 按顺序向5个master节点请求加锁。客户端设置网络连接和响应超时时间,并且超时时间要小于锁的失效时间。(假设锁自动失效时间为10秒,则超时时间一般在5-50毫秒之间,我们就假设超时时间是50ms吧)。如果超时,跳过该master节点,尽快去尝试下一个master节点。
- 客户端使用当前时间减去开始获取锁时间(即步骤1记录的时间),得到获取锁使用的时间。当且仅当超过一半(N/2+1,这里是5/2+1=3个节点)的Redis master节点都获得锁,并且使用的时间小于锁失效时间时,锁才算获取成功。(如上图,10s> 30ms+40ms+50ms+4m0s+50ms)
- 如果取到了锁,key的真正有效时间就变啦,需要减去获取锁所使用的时间。
- 如果获取锁失败(没有在至少N/2+1个master实例取到锁,有或者获取锁时间已经超过了有效时间),客户端要在所有的master节点上解锁(即便有些master节点根本就没有加锁成功,也需要解锁,以防止有些漏网之鱼)。
简化下步骤就是:
- 按顺序向5个master节点请求加锁
- 根据设置的超时时间来判断,是不是要跳过该master节点。
- 如果大于等于3个节点加锁成功,并且使用的时间小于锁的有效期,即可认定加锁成功啦。
- 如果获取锁失败,解锁!
Redisson实现了redLock版本的锁,有兴趣的小伙伴,可以去了解一下哈~
Zookeeper分布式锁
在学习Zookeeper分布式锁之前,我们复习一下Zookeeper的节点哈。
Zookeeper的节点Znode有四种类型:
- 持久节点:默认的节点类型。创建节点的客户端与zookeeper断开连接后,该节点依旧存在。
- 持久节点顺序节点:所谓顺序节点,就是在创建节点时,Zookeeper根据创建的时间顺序给该节点名称进行编号,持久节点顺序节点就是有顺序的持久节点。
- 临时节点:和持久节点相反,当创建节点的客户端与zookeeper断开连接后,临时节点会被删除。
- 临时顺序节点:有顺序的临时节点。
Zookeeper分布式锁实现应用了临时顺序节点。这里不贴代码啦,来讲下zk分布式锁的实现原理吧。
zk获取锁过程
当第一个客户端请求过来时,Zookeeper客户端会创建一个持久节点locks
。如果它(Client1)想获得锁,需要在locks
节点下创建一个顺序节点lock1
.如图
接着,客户端Client1会查找locks
下面的所有临时顺序子节点,判断自己的节点lock1
是不是排序最小的那一个,如果是,则成功获得锁。
这时候如果又来一个客户端client2前来尝试获得锁,它会在locks下再创建一个临时节点lock2
客户端client2一样也会查找locks下面的所有临时顺序子节点,判断自己的节点lock2是不是最小的,此时,发现lock1才是最小的,于是获取锁失败。获取锁失败,它是不会甘心的,client2向它排序靠前的节点lock1注册Watcher事件,用来监听lock1是否存在,也就是说client2抢锁失败进入等待状态。
此时,如果再来一个客户端Client3来尝试获取锁,它会在locks下再创建一个临时节点lock3
同样的,client3一样也会查找locks下面的所有临时顺序子节点,判断自己的节点lock3是不是最小的,发现自己不是最小的,就获取锁失败。它也是不会甘心的,它会向在它前面的节点lock2注册Watcher事件,以监听lock2节点是否存在。
释放锁
我们再来看看释放锁的流程,Zookeeper的客户端业务完成或者发生故障,都会删除临时节点,释放锁。如果是任务完成,Client1会显式调用删除lock1的指令
如果是客户端故障了,根据临时节点得特性,lock1是会自动删除的
lock1节点被删除后,Client2可开心了,因为它一直监听着lock1。lock1节点删除,Client2立刻收到通知,也会查找locks下面的所有临时顺序子节点,发下lock2是最小,就获得锁。
同理,Client2获得锁之后,Client3也对它虎视眈眈,啊哈哈~
- Zookeeper设计定位就是分布式协调,简单易用。如果获取不到锁,只需添加一个监听器即可,很适合做分布式锁。
- Zookeeper作为分布式锁也缺点:如果有很多的客户端频繁的申请加锁、释放锁,对于Zookeeper集群的压力会比较大。
三种分布式锁对比
数据库分布式锁实现
优点:
- 简单,使用方便,不需要引入
Redis、zookeeper
等中间件。
缺点:
- 不适合高并发的场景
- db操作性能较差;
Redis分布式锁实现
优点:
- 性能好,适合高并发场景
- 较轻量级
- 有较好的框架支持,如Redisson
缺点:
- 过期时间不好控制
- 需要考虑锁被别的线程误删场景
Zookeeper分布式锁实现
缺点:
- 性能不如redis实现的分布式锁
- 比较重的分布式锁。
优点:
- 有较好的性能和可靠性
- 有封装较好的框架,如Curator
对比汇总
- 从性能角度(从高到低)Redis > Zookeeper >= 数据库;
- 从理解的难易程度角度(从低到高)数据库 > Redis > Zookeeper;
- 从实现的复杂性角度(从低到高)Zookeeper > Redis > 数据库;
- 从可靠性角度(从高到低)Zookeeper > Redis > 数据库。
原文:聊聊分布式锁的多种实现!