MySQ--Lock

MqSql中的锁
锁是计算机协调多个进程or纯线程并发访问某一资源的机制。

MySql的锁机制比较简单,最显著的特点是不同的存储引擎支持不同的锁机制。
支持3种锁:
表级锁:开销小,加速快,不会出现死锁,锁定粒度大,发生锁冲突的概率最高,并发度最低
行级锁:开销大,加锁慢,会出现死锁,锁定粒度最小,发生锁冲突的概率最低,并发度最高
页面锁:开销和加锁时间介于以上之间,会出现死锁,锁定粒度介于以上之间,并发度一般。

MyISAM引擎:
表共享锁Table Read Lock:
表独占写锁(Table Write Lock):
对于MyISAM的读操作,不会阻塞其他用户对同一个表的请求,但会阻塞对同一个表的写请求
对于MyISAM的写操作,则会阻塞其他用户对同一个表的读和写操作。
MyISAM表的读操作和写操作之间,以及写操作之间是串行的。
当一个线程获得对一个表的写锁后,只有持有锁线程可以对表进行更新操作。其他线程的读写操作都会等待,直到锁被释放为止。

锁模式兼容如下表:
在这里插入图片描述
MyISAM表的读操作,不会阻塞其他用户对同一表的读请求,但会阻塞对同一表的写请求;对MyISAM标的写操作,则会阻塞其他用户对同一表的读和写请求,对于MyISAM表的读和写操作之间,以及写和写操作之间是串行的!
当一个线程获得一个表的写锁后,只有持有锁的线程可以对表进行更新操作,其他线程的读写操作都会等待,直到锁被释放为止。

如何加表锁:
MyISAM在执行查询语句select之前,会自动给设计的所有表加读锁,在执行更新操作(update delete insert 等)前,会自动给涉及的表加写锁,这个过程并不需要用户干预,因此用户一版不需要直接用LOCK TABLE 命令给MyISAM表显式加锁。

给MyISAM表显示加锁,一般是为了一定程度模拟事务操作,实现对某一时间点多个表的一致性读取。例如,有一个订单表orders,其中记录有订单的总金额total,同时还有一个订单明细表order_detail,其中记录有订单每一产品的金额小计subtotal,假设我们需要检查这两个表的金额是否相等,需要执行如下两条sql:

SELECT SUM(total) FROM orders;
SELECT SUM(subtotal) FROM order_detail;

这时候,如果不先给这两个表加锁,就可能产生错误的结果,因为第一条语句的执行过程汇总,order_detail表可能已经发生了改变
正确做法应该是:

LOCK tables orders read local,order_detail read local;
SELECT SUM(total) FROM orders;
SELECT SUM(subtotal) FROM order_detail;
Unlock tables;

在lock tables时加了local选项,作用是在满足MyISAM表并发插入条件的情况下,允许其他用户在表尾插入记录。
在用locktables给表显式加表锁时候,必须同时或许所有涉及表的锁,并且MySQL支持锁升级,也就是说,在执行lock tables后,只能访问显示加锁的这些表,不能访问未加锁的表;同时,如果加的是读锁,那么只能执行查询语句,而不能执行更新操作,其实,在自动加锁的情况下也基本如此,MySQL一次获得SQL语句所需要的全部锁,这也是MyISAM表不会出现死锁(Deadlock Free)的原因。

一个session使用Lock Table命令 给表file加了读锁,这个session可以查询锁定表中的记录,但更新or访问其他表都会提示错误;同时另外一个session可以查询表中的记录,但更新就会出现锁等待。
当使用locktable时,不仅需要一次锁定用到的所有表,而且,同一个表在sql语句中出现多少次,就要与sql语句中相同的别名锁多少次,否则也会出错。

并发锁:
在一定条件下,MyISAM也支持查询和操作的并发进行。
MyISAM存储引擎有一个系统变量concurrent_insert,专门用以控制其并发插入的行为,其值分别可以为 0,1,2
当concurrent_insert设置为0时,不允许并发插入
当concurrent_insert设置为1时,如果MyISAM允许在一个读表的同时,另一个进程从表尾插入记录。这也是MySQL的默认设置
当concurrent_insert设置为2时,无论MyISAM表有没有空洞,都允许在表尾插入记录,都允许在表尾并发插入记录。
可以利用MyISAM存储引擎的并发插入特性,来解决应用中对同一个表查询和插入锁挣用。例如,将concurrent_insert系统变量为2,总是允许并发插入;同时,通过定期在系统空闲时段执行OPTIONMIZE TABLE语句来整理空间碎片,收到因删除记录而产生的中间空洞。

MyISAM的锁调度:
MyISAM存储引擎的读和写锁是互斥,读操作是串行的,如果两个进程一个请求读锁,一个请求写锁,MyISAM将如何处理呢,写进程先获得锁,不仅如此,即使读进程先请求先到锁等待队列,写请求后到,写锁也会插入到读请求之前,因为MyISAM认为写请求一般回避读请求重要,这也是MyISAM不太适合有大量更新操作和查询操作应用的原因,因为大量的更新操作会造成查询操作很难获得读锁,从而可能永远阻塞。
但可以通过设置参数调节MyISAM的调度行为:
指定启动参数 low-priority-updates,使MyISAM引擎默认给予读请求以优先的权利
通过执行命令set low_priority_updates=1,使该连接发出的更新请求优先级降低。
通过指定insert,update,delete语句的low_priority属性,降低该语句的优先级。
mysql还提供了一种折中的方法来调节读写冲突,即给系统参数max_write_lock_count设置一个合适的值,当一个表的读锁达到这个值后,MySQL变暂时将写请求的优先级降低,给读进程一次获得锁的机会。
强调一点,一些需要长时间运行的查询操作,也会使写进程“饿死”,因此应用中应该尽量避免长时间运行的查询操作,不要总想着一条select语句来解决问题。在可能的情况下可以通过使用中间表等措施对sql语句做一定的“分解”,使得每一步查询都能在较短的时间完成,从而减少锁冲突。如果复杂查询不可避免,应尽量安排在数据库空闲时间进行,比如一些定期统计安排在夜间执行。

InnoDB锁:
innoDB与MyISAM的最大的不同在于:一是支持事务(Transaction)二是采用了行级锁。行级锁和表级锁有很多不同,另外事务的引入也带来一些问题:

事务以及ACID属性:
原子性(Actomicity):事务是一个原子操作单元,其对于数据的修改,要么全都执行,要不全都不执行。
一致性(Consistent):事务开始和完成时,数据都必须保持一致状态。所有相关的数据规则都必须应用于事务的修改,已操作完整性,事务结束时,所有的内部数据结构也都必须是正确的。
隔离型(isolation):数据库系统提供一定的隔离机制,保证事务不受外部并发操作影响的“独立”环境执行,事务的中间状态对外部式不可见的。
持久性(Durable):事务完成之后,它对于数据的修改时永久性的,即使出现系统故障也能够保持。

并发事务带来的问题:
相对于串行处理来说,并发事务处理能力大大增加数据库资源的利用率,提高数据库的事务吞吐量,从而可以支持可以支持更多的用户。但并发事务处理也会带来一些问题:

更新丢失(UpdateLost):当两个or多个事务选择同一行,然后基于最初选定的值更新改行时,由于每个事务都不知道其他事务的存在,就会发生丢失更新问题–最后的更新覆盖了其他事务所做的更新。

脏读(Dirty Reads):一个事务正在对一条记录做修改,在这个事务并提交前,这条记录的数据就处于不一致状态:这时候,另一个事务也来读取同一条记录记录,如果不加控制,第二个事务读取了这些脏数据,并据此做了进一步处理,就会产生未提交的数据依赖关系。这种现象叫做脏读。

不可重复读(Non-Repeatable Reads):一个事务在读取某些数据已经发生了改变,or某些记录已经被删除了,这种现象叫做,不可重复读。
比如: 不可重复读是指A事务读取了B事务已经提交的更改数据。假如A在取款事务的过程汇总,B往该账户转账100,A两次读取的余额发生不一致。

幻读(Phantom Reads):一个事务按照相同的查询条件重新读取以前检索过的数据,却发现其他事务插入了满足其查询条件的新数据,这种现象称为“幻读”。

事务隔离级别:
在并发事务处理带来的问题中,更新丢失 是完全避免的,但防止封信丢失,并不能单靠数据库事务控制器来解决,需要应用程序对要更新的数据加必要的锁来解决,因此防止更新丢失应该是应用的责任。
脏读,不可重复读,幻读,都是数据库读一致性问题,必须由数据库提供一定的事务隔离截止来解决。
基本可以分为两种:
在读取数据前,对其加锁,阻止其他事务对数据进行修改。
另一种是不加任和锁,通过一定机制生成一个数据请求时间点的一致性数据快照(snapshot),并用这个快照来提供一定级别(语句级别or事务级别)的一致性读取。从用户角度,好像是数据库可以提供同一数据的多个版本。因此,这种技术叫做数据多版本并发控制(MultiVersion Concurrency Control MVCC or MCC)多版本数据库。
数据库的事务隔离级别越严格,并发副作用越小,但付出的代价也就越大,因为事务隔离实质上就是使事务在一定程度上“串行化”进行,这显然与“并发”是矛盾的,同时,不同的应用对读一致性和事务隔离程度的要求也是不同的,比如许多应用对“不可重复读”和“幻读”并不敏感,可能更关心数据并发访问的能力。

为了解决 隔离 与并发的矛盾,ISO定义了4个书屋隔离级别。每个级别的隔离程度不同,允许出现的副作用也不同,应用可以根据自己业务逻辑要求,通过选择不同的隔离来平衡“隔离”与“并发”的矛盾。
在这里插入图片描述
MySQL支持全部4个隔离界别,Oracle只支持ReadCommitted和Serializable两个标准级别。

获取InnoDB行锁挣用情况:
在这里插入图片描述
如果发现争夺严重 ,Innodb_row_lock_waits和Innodb_row_lock_time_avg的值会很高,也可以通过工具InnoDB Monitors来进一步观察发生锁冲突的表,数据行等,并分析锁争用的原因。

InnoDB的行锁模式以及加锁方法:
InnoDB提供以下两种类型的行锁:
共享锁(s):允许一个事务去读一行,阻止其他事务获得相同数据集的排它锁
排它锁(x):允许获取排它锁的事务更新数据,阻止其他事务获得相同的数据集共享读锁和排他写锁。
为了允许行锁和表锁共存,实现多粒度锁机制,InnoDB还有两种内部使用意向锁(Intention Locks)这两种意向锁都是表锁。
意向共享锁(IS):事务打算给数据行加共享锁,事务在给一个数据行加共享锁前必须先获取该表的IS锁
意向排它锁(IX):事务打算给数据行加排它锁,事务在给一个数据行加排他锁之前必须获得该表的IX锁。
在这里插入图片描述
如果一个事务的锁模式与当前锁兼容,InnoDB就请求的锁授予该事务,反之,如果两者不兼容,该事物就要等待锁释放。

意向锁是InnoDB自动加的,不需要用户干预,对于update,delete,insert语句,innoDB会自动给涉及数据集加排他锁(X)对于普通的select语句,innoDB不会加任何锁,事务可以通过以下语句显示给记录集加共享锁or排他锁。

共享锁(S):SELECT * FROM table_name WHERE ... LOCK IN SHARE MODE
排他锁(X):SELECT * FROM table_name WHERE ... FOR UPDATE

使用方式
select …in share mode获得共享锁,主要用在需要数据依存关系时确认某行记录是否存在,并确保没有人对这个记录进行update或者delete操作,但是如果当前事务也需要对该记录进行更新操作,则很有可能造成死锁,对于锁定行记录后需要进行更新操作的应用,应该使用select…for update 方式获取排它锁。

InnoDB行锁实现方式
InnoDB行锁是通过索引上的索引项来实现的,这一点MySql与Oracle不同,后者是通过在数据中对应数据行加锁来实现的。InnoDB这种行锁实现特点意味着:只有通过索引条件检索数据,InnoDB才会使用行级锁,否则,InnoDB将使用表锁。
特别注意这一特性,不然会导致大量的锁冲突,从而影响并发特性。

间隙锁:
当我们用范围条件而不是相等条件检索数据,并请求共享or排他锁时,InnoDB会给符合条件的已有数据的索引项加锁,对于键值在条件范围内,但并不存在的记录,叫做(GAP),InnoDB也对这个“间隙” 加锁。(间隙锁)

  举例来说,假如emp表中只有101条记录,其empid的值分别是1,2,...,100,101,下面的SQLSELECT * FROM emp WHERE empid > 100 FOR UPDATE是一个范围条件的检索,InnoDB不仅会对符合条件的empid值为101的记录加锁,也会对empid大于101(这些记录并不存在)的“间隙”加锁。

innoDB使用间隙锁的目的,一方面是为了防止幻读,以满足相关隔离级别的要求,对于上面的例子,要是不适用间隙所,如果其他事务插入了empid大于100的任何记录,那么本书屋如果再次执行上述语句,就会发生幻读,另一方面,是为了满足其恢复和复制的需要,有关恢复和复制对机制的影响,以及不同隔离级别下InnoDB使用间隙锁的情况。

在使用范围条件检索并锁定记录时,InnoDB这种加锁机制会阻塞符合条件范围内的并发插入,往往会造成严重的锁等待,因此在实际开发中,尤其是并发插入比较多的应用,我们要尽量优化业务逻辑,尽量使用相等的条件来访问更新数据,避免使用范围条件。

什么时候使用表锁:
绝大数情况,我们应该使用行级锁,因为事务和行锁往往是我们选择innoDB表的理由,但在特殊事务汇总,要考虑使用 表级锁:
1,事务需要跟新大部分or全部数据,表又比较大,如果使用默认的行锁,不仅这个事务执行效率低,而且可能造成其他事务长时间锁等待和锁冲突,这时候考虑使用表锁来提高事务的执行速度
2 事务设计多个表,比较复杂,很可能引起死锁,造成大量事务回滚,这种情况下可以考虑一次性锁定事务涉及的表,从而避免死锁,减少数据库因事务回滚带来的开销
如果这两种事务特别多,考虑使用MyISAM引擎

InnoDB 使用表锁注意一下几点:
(1)使用LOCK TALBES虽然可以给InnoDB加表级锁,但必须说明的是,表锁不是由InnoDB存储引擎层管理的,而是由其上一层MySQL Server负责的,仅当autocommit=0、innodb_table_lock=1(默认设置)时,InnoDB层才能知道MySQL加的表锁,MySQL Server才能感知InnoDB加的行锁,这种情况下,InnoDB才能自动识别涉及表级锁的死锁;否则,InnoDB将无法自动检测并处理这种死锁。
(2)在用LOCAK TABLES对InnoDB锁时要注意,要将AUTOCOMMIT设为0,否则MySQL不会给表加锁;事务结束前,不要用UNLOCAK TABLES释放表锁,因为UNLOCK TABLES会隐含地提交事务;COMMIT或ROLLBACK产不能释放用LOCAK TABLES加的表级锁,必须用UNLOCK TABLES释放表锁,正确的方式见如下语句。
正确做法:

SET AUTOCOMMIT=0;
LOCAK TABLES t1 WRITE, t2 READ, ...;
[do something with tables t1 and here];
COMMIT;
UNLOCK TABLES;

关于死锁:
MyISAM表锁是deadlock free的,因为MyISAM总是一次性获得所需的全部锁,要么全部满足,要么等待,因此不会出现死锁
InnoDB中,除单个sql组成的事务外,锁是逐步获得的,这就决定了InnoDB发生死锁的可能性。

发生死锁后,InnoDB一般都能自动检测到,并使一个事务释放锁并退回,另一个事务获得锁,继续完成事务。但在涉及外部锁,或涉及锁的情况下,InnoDB并不能完全自动检测到死锁,这需要通过设置锁等待超时参数innodb_lock_wait_timeout来解决。需要说明的是,这个参数并不是只用来解决死锁问题,在并发访问比较高的情况下,如果大量事务因无法立即获取所需的锁而挂起,会占用大量计算机资源,造成严重性能问题,甚至拖垮数据库。我们通过设置合适的锁等待超时阈值,可以避免这种情况发生。
通常来说,死锁都是应用设计的问题,通过调整业务流程、数据库对象设计、事务大小、以及访问数据库的SQL语句,绝大部分都可以避免。下面就通过实例来介绍几种死锁的常用方法。
(1)在应用中,如果不同的程序会并发存取多个表,应尽量约定以相同的顺序为访问表,这样可以大大降低产生死锁的机会。如果两个session访问两个表的顺序不同,发生死锁的机会就非常高!但如果以相同的顺序来访问,死锁就可能避免。
(2)在程序以批量方式处理数据的时候,如果事先对数据排序,保证每个线程按固定的顺序来处理记录,也可以大大降低死锁的可能。
(3)在事务中,如果要更新记录,应该直接申请足够级别的锁,即排他锁,而不应该先申请共享锁,更新时再申请排他锁,甚至死锁。
(4)在REPEATEABLE-READ隔离级别下,如果两个线程同时对相同条件记录用SELECT…ROR UPDATE加排他锁,在没有符合该记录情况下,两个线程都会加锁成功。程序发现记录尚不存在,就试图插入一条新记录,如果两个线程都这么做,就会出现死锁。这种情况下,将隔离级别改成READ COMMITTED,就可以避免问题。
(5)当隔离级别为READ COMMITED时,如果两个线程都先执行SELECT…FOR UPDATE,判断是否存在符合条件的记录,如果没有,就插入记录。此时,只有一个线程能插入成功,另一个线程会出现锁等待,当第1个线程提交后,第2个线程会因主键重出错,但虽然这个线程出错了,却会获得一个排他锁!这时如果有第3个线程又来申请排他锁,也会出现死锁。对于这种情况,可以直接做插入操作,然后再捕获主键重异常,或者在遇到主键重错误时,总是执行ROLLBACK释放获得的排他锁。

尽管通过上面的设计和优化等措施,可以大减少死锁,但死锁很难完全避免。因此,在程序设计中总是捕获并处理死锁异常是一个很好的编程习惯。
如果出现死锁,可以用SHOW INNODB STATUS命令来确定最后一个死锁产生的原因和改进措施