Java与Mysql锁相关知识总结
作者:IntoTw
锁的定义
在计算机程序中锁用于独占资源,获取到锁才可以操作对应的资源。
锁的实现
锁在计算机底层的实现,依赖于CPU提供的CAS指令(compare and swsp),对于一个内存地址,会比较原值以及尝试去修改的值,通过值是否修改成功,来表示是否强占到了这个锁。
JVM中的锁
jvm中,有2个常用的锁
synchronized
synchronized是java提供的关键字锁,可以锁对象,类,方法。
在JDK1.6以后,对synchronized进行了优化,增加了偏向锁和轻量锁模式,现在synchronized锁的运行逻辑如下:
- 在初始加锁时,会增加偏向锁,即“偏向上一次获取该锁的线程”,在偏向锁下,会直接CAS获取该锁。该模式大大提高了单线程反复获取同一个锁的吞吐情况,在Java官方看来,大部分锁的争抢都发生在同个线程上。
- 如果偏向锁CAS获取失败,说明当前线程与偏向锁偏向的线程不同,偏向锁就会升级成轻量锁,轻量锁的特点就是通过自旋CAS去获取锁。
- 如果自旋获取失败,那么锁就会升级成重量锁,所有等待锁的线程将被JVM挂起,在锁释放后,再由JVM统一通知唤醒,再去尝试CAS锁,如果失败,继续挂起。
很显然,偏向锁设计的目的是“在Java官方看来,对同一个锁的争抢大部分都发生在同个线程上”。
轻量锁设计的目的是“在短期内,锁的争抢通过自旋CAS就可以获取到,短时间内的CPU自旋消耗小于线程挂起再唤醒的消耗”。
重量锁就是最初优化前的synchronized的逻辑了。
ReentrantLock
说到ReentrantLock,就不得不说到JUC里的AQS了。
AQS全称AbstractQueueSynchronizer,几乎JUC里所有的工具类,都依赖AQS实现。
AQS在java里,是一个抽象类,但是本质上是一种思路在java中的实现而已。
AQS的实现逻辑如下:
- 构造一个队列
- 队列中维护需要等待锁的线程
- 头结点永远是持有锁(或持有资源)的节点,等待的节点在头结点之后依次连接。
- 头结点释放锁后,会按照顺序去唤醒那些等待的节点,然后那些节点会再次去尝试获取锁。
在synchronized锁优化以后,AQS的本质与synchronized并没有太大不同,两者的性能也并没有太大差距了,所以AQS现在的特点是:
- 是在java api层面实现的锁,所以可以实现各种并发工具类,操作也更加灵活
- 因为提供了超时时间等机制,操作灵活,所以不易死锁。(相同的,如果发生死锁,将更难排查,因为jstack里将不会有deadlock标识)。
- 可以实现公平锁,而synchronized必定是非公平锁。
- 因为是JavaApi层实现的锁,所以可以响应中断。
到这里你会发现,其实ReentrantLock可以说是synchronized在JavaApi层的实现。
Mysql 锁
共享锁(S) 与排它锁(X)
作用范围
这两种锁都包括行级锁和表级锁。
获取共享锁时,如果该数据被其他事务的排它锁锁住,则无法获取,需要等待排它锁释放。
意向锁
作用范围
意向锁为表锁,在获取表锁之前,一定会检查意向锁。
意图锁定协议如下:
在事务获得表中某行的共享锁之前,它必须首先获得表上的 IS 锁或更强的锁。
在事务获得表中行的排他锁之前,它必须首先获得表的 IX 锁。
在获取任意表锁的共享锁或排它锁之前,一定会检查该表上的共享锁。
表锁以及意向锁的互斥规则如下:
X IX S IS
X Conflict Conflict Conflict Conflict
IX Conflict Compatible Conflict Compatible
S Conflict Conflict Compatible Compatible
IS Conflict Compatible Compatible Compatible
意向锁的作用在于:在获取表锁时,可以通过意向锁来快速判断能否获取。
因为获取行级锁时,会先获取对应的意向锁,这样另外的事务在获取表锁时就可以通过意向锁快速的判断,而不需要每行去扫描。
特别注意的是,意向锁是可以叠加的,即会存在多个,如T1事务获取了意向锁IX1和行级锁X1,T2事务依旧可以获取意向锁IX2和行级锁X2,所以仅在获取表级锁之前,才会检查意向锁。
记录锁
记录锁生效在索引上,用以在SELECT c1 FROM t WHERE c1 = 10 FOR UPDATE时保护该行数据不被其他事务更改。
记录锁在没有索引时依旧会生效,因为innodb会为每张表创建一个隐藏的索引。
记录锁是最基本的行锁。
间隙锁
间隙锁生效在索引上,用于锁定索引值后的行,防止插入,在select from table where index=? for update时会生效,例如index=1,则会锁住index=1索引节点相关的行,防止其他事务插入数据。
但是并不会防止update语句,哪怕update的数据不存在。
Next-Key Locks
这个锁是记录锁和间隙锁的组合,简而言之在select from table where index=? for update时,既会有间隙锁防止insert,也会有记录锁在index上防止这一条数据的update和delete。这个Next-key只是对这两种锁的一种概括,因为这两种锁在select for update时通常会一起出现。
Insert Intention Locks
插入意向锁,和意向锁类似。不过是特殊的间隙锁,并不发生在select for update,而是在同时发生insert时产生,例如在两个事务同时insert索引区间为[4,7]时,同时获得该区间的意向锁,此时事务不会阻塞,例如A:insert-5,B:insert-7,此时不会阻塞两个事务。
插入意向锁是一个特殊的间隙锁,是为了防止正常间隙锁锁区间的情况下,insert频繁阻塞而设计的,例如A:insert-5,B:insert-7,如果没有插入意向锁,那么5和7都要去尝试获取间隙锁,此时第二个事务就会被阻塞,但是通过插入意向锁,第二个事务就不会被阻塞,只有到插入的行确实冲突,才会被阻塞。
AUTO-INC Locks
自增锁,这个锁很明显是表级insert锁,为了保证自增主键的表的主键保持原子自增。
对于锁这个东西,大家应该多去理解各种锁设计运行的原理和模型,这样在加深理解后,在使用起来才会更加深入和透彻。
常见锁使用的场景和用法
double check
众所周知,mysql的事务对防止重复插入并没有什么卵用,唯一索引又存在很多缺点,业务上最好不要使用,所以一般来说防止重复插入的通用做法就是使用分布式锁,这就有一种比较常用的写法。
final WeekendNoticeReadCountDO weekendNoticeReadCountDO = weekendNoticeReadRepositoryService.selectByNoticeId(noticeRequestDTO.getNoticeId()); if (weekendNoticeReadCountDO == null) { final String lockKey = RedisConstant.LOCK_WEEKEND_READ_COUNT_INSERT + ":" + noticeRequestDTO.getNoticeId(); ClusterLock lock = clusterLockFactory.getClusterLockRedis( RedisConstant.REDIS_KEY_PREFIX, lockKey ); if (lock.acquire(RedisConstant.REDIS_LOCK_DEFAULT_TIMEOUT)) { //double check final WeekendNoticeReadCountDO weekendNoticeReadCountDO = weekendNoticeReadRepositoryService.selectByNoticeId(noticeRequestDTO.getNoticeId()); if (weekendNoticeReadCountDO == null) { try { lock.execute(() -> { WeekendNoticeReadCountDO readCountDO = new WeekendNoticeReadCountDO(); readCountDO.setNoticeId(noticeRequestDTO.getNoticeId()); readCountDO.setReadCount(1L); readCountDO.setCreateTime(new Date()); readCountDO.setUpdateTime(new Date()); weekendNoticeReadRepositoryService.insert(readCountDO); return true; }); } catch (ApiException err) { throw err; } catch (Exception e) { log.error("插入", e); throw new ApiException(ErrorEnum.SERVER_ERROR.getCode(), "服务端出错"); } } else { weekendNoticeReadRepositoryService.noticeCountAdd(weekendNoticeReadCountDO); } } else { log.warn("redis锁获取超时,key:{}", lockKey); throw new ApiException(ErrorEnum.SERVER_ERROR.getCode(), "服务器繁忙,请稍后重试"); } }
在获取到锁之后,可能是经过等待才获取到的锁,此时上一个释放锁的线程可能已经插入了数据了,所以在锁内部,依旧要再次校验一下数据是否存在。
这种写法适合大多数需要唯一性的写场景。
避免死锁
如何避免死锁?最简单有效的方法就是:**不要在锁里再去获取锁,简而言之就是锁最好单独使用,不要套娃。
也要注意一些隐性锁,比如数据库。
事务A:
- 插入[5,7],插入意向锁。
- select for update更新[100,150],间隙锁。
事务B: - select for update更新[90,120],间隙锁。
- 插入[4,6],插入意向锁。
此时在并发场景下,就可能会出现A持有了[5,7]的间隙锁,在等待事务B[90,120]的间隙锁,事务B也一样,就死锁了。
**
顺带谈谈并发场景下常见的问题
读写混乱
在写业务代码,定义一些工具类或者缓存类的时候,很容易疏忽而发生类似的问题。
比如构建一个static缓存,没有使用ConcurrentHashMap中的putIfAbsent等方法,也没有加锁去构建,导致上面的线程刚put了,下面的线程就删掉了,或者重复构建2次缓存。
Redis或者一些并发操作释放锁或者资源,没有检查是否是当前线程持有
这点在Redis锁的示例代码也讲到了。
线程A获取到锁,此时B,C在等待,然后A执行时间过长,导致锁超时被自动释放了,此时B获取到了锁,在快乐的执行,然后A执行完了之后,释放锁时没有判断是否还是自己持有,导致B持有的锁被删除了,此时C又获取到了锁,BC同时在执行。
到此这篇关于Java与Mysql锁相关知识总结的文章就介绍到这了,更多相关Java与Mysql锁内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!