9 普通索引和唯一索引,应该怎么选择?

9 普通索引和唯一索引,应该怎么选择?

例子,假设一个市民系统,每个人的身份证id唯一,而且业务代码也保证了不会出现重复的card,如果市民系统需要安装card来查询姓名,类似sql

select name from CUser where id_card = 'xxxxxxxyyyyyyzzzzz';

由于身份证号字段比较大,不建议把身份证id作为主键,现在就2个选择要么id_card创建唯一索引,要么创建普通索引,如果业务代码保证了id_card不会重复,这2个选择逻辑上都是正确的

那从性能的角度考虑,会选择唯一索引还是普通索引呢?

--innodb索引组织结构

查询过程

假设执行查询的语句是select id from T where k=5;从索引k通过根节点,按层搜索叶子节点,然后数据页内部通过二分法来定位记录

--对于普通索引来说,查询到满足条件的第一个记录(5,500)后,需要查询下一个记录,直到找到第一个不满足k=5条件的记录

--对于唯一索引来说,由于唯一性,找个第一个满足k=5的记录,就停止搜索

那么这个不同带来的性能差距会有多少呢?微乎其微

Innodb的数据是按为单位来读写的,也就是说,当需要读一条记录的时候并不是将这个记录从磁盘读出来,而是以页为单位,将其整体读入内存中,在innodb中,数据页默认大小16KB.

对于整型字段,一个数据页可以存放进千个key

更新过程

先说一下change buffer,当需要更新一个数据页时,如果数据页在内存中就直接更新,而不过这个数据页还没在内存中,在不影响数据一致性的前提下,

innodb会将这些更新操作缓存在change buffer中,这样就不需要从磁盘中读入这个数据页了。在下次查询需要访问这个数据页的时候,将数据页写入内存,然后执行change buffer中与这个页相关操作,通过这种方式能保证这个数据逻辑的正确性。

change buffer中的操作应用到原始数据页,得到最新结果称为merge。除了访问这个数据页会触发merge外,系统有后台线程会定期merge,数据库正常关闭过程中,也会执行merge操作。

什么条件下可以使用change buffer

对于唯一索引来说,所有的更新操作都需要先判断这个操作是否违反唯一性,比如要插入(4,400)这个记录,就要先判断现在表中是否已经存在k=4的记录,

而这必须要将数据页读入内存中才能判断,如果都已经读入内存中了,那直接更新内存,没有必要使用change buffer

对于唯一性索引的更新来说,不能使用change buffer,实际上也只有普通索引可以使用

Change buffer用的是buffer pool里的内存,不能无限增大,可以通过参数innodb_change_buffer_max_size来动态设置,为50的时候,表示change buffer的大小最多只能占用buffer pool50%

如果要在这个表中插入一个新记录(4,400)的话,innodb的处理流程是怎样的

第一种情况,这个记录要更新的目标页存在内存中

--对唯一索引来说,找到35的位置,判断到没有冲突,插入这个值,语句结束

--对普通索引来说,找到35之间的位置,插入这个值,语句结束

第二种情况,这个记录要更新的目标页不在内存中

--唯一索引,需要将数据页读入内存,判断到没有冲突,插入数据,语句结束

--普通索引,将更新记录在change buffer,语句执行结束

将数据从磁盘读入内存设计到随机io的访问,是数据库里面成本最高的操作之一,change buffer因为减少了随机磁盘访问,所以对更新性能的提升会很明显。

Change buffer的使用场景

上面讲到了change buffer对更新过程的加速作用,也清楚了change buffer只限于用在普通索引的场景下,而不使用唯一索引,现在的问题是:普通索引的所有场景,使用change buffer都是可以起到加速作用吗

因为merge的时候才是真正进行数据更新的时刻,而change buffer的主要目的就是将记录的变更动作缓存下来,所以在一个数据页做merge之前,change buffer记录的变更越过,收益就越大。

因此,对于写多读少的业务来说,页面在写完以后马上被访问到的概率比较小,此时change buffer的使用效果最好,这种业务模型常见的就是账单类、日志类的系统。

反过来,假设一个业务的更新模式是写入之后马上就会做查询,那么即使满足了条件,将更新记录在change buffer,但之后由于马上要查询这个数据页,会立即触发merge过程,这样随机访问io的次数不会减少,反而增加change buffer的维护代价。

索引选择和实践

回到开头,普通索引和唯一索引应该怎么选择,其实,这两类索引在查询能力上是没差别的,主要考虑的是对更新性能的影响,所以,建议尽量选择普通索引

如果所有的更新后面,都马上伴随着对这个记录的查询,那么你应该关闭change buffer。而在其他情况下, change buffer都能提升更新性能。

在实际使用中,你会发现,普通索引和change buffer的配合使用,对于数据量大的表的更新优化还是很明显的。

特别地,在使用机械硬盘时,change buffer这个机制的收效是很明显的,所以,当你有一个类似”历史数据”的库,并且出于成本考虑用的是机械硬盘,

应该特别关注这些表里的索引,尽量使用普通索引,然后把change buffer开大,确保这个”历史数据”表的数据写入速度。

Change bufferredo log

WAL提升性能的核心机制,也是尽量减少随机读写,两个概念的区分

mysql> insert into t(id,k) values(id1,k1),(id2,k2);

假设当前k索引树的状态,查找到位置后,k1所在的数据页在内存innodb buffer pool中,k2所在的数据页不在内存中,下图是带change buffer的更新状态

这个更新数据,涉及到4个部分:内存,redo log,数据库表空间(t.idb),系统表空间(ibdata1)

更新顺序:

--1 page1在内存中,直接更新内存

--2 page2不在内存中,就在内存的change buffer区域,记录下我要往page2插入一行”这个信息

--3 将上述两个动作记入redo log中。

做完上面,事务就可以完成了,这条更新语句的成本很低,写了两处内存,然后写了一处磁盘,顺序写。

图中的两个虚线箭头是后台操作,不影响更新的响应时间。

在更新之后的读请求,要怎么处理呢?

比如现在要执行select * from t where k in (k1,k2),如果select 发生在insert语句后不久,内存中的数据都还在,那么此时的两个读操作就与ibdata1redo log无关了,

--1 page1的时候,直接从内存中返回,WAL之后如果读数据,是不是一定要读盘,是不是一定要从redo log里把数据更新以后才可以返回?其实是不用的,看上图的状态,虽然磁盘上还是之前的数据,但是这里直接从内存返回结果,结果是正确的。

--2 要读page2的时候,需要把page2从磁盘读入内存中,然后应用change buffer里面的操作日志,生成(merge)一个正确的版本并返回结果。

可以看到,直接需要读page2的时候,这个数据页才会被读入内存。

所以,如果要简单的对比这两个机制在提示更新性能上的收益的话,redo log主要节省随机写磁盘的io消耗(转成顺序写),而change buffer主要节省的则是随机读取磁盘的io消耗

--对数据的修改记录在change buffer里的时候,内存里是没有这个物理页的,不存在脏页

--真正对磁盘数据页的修改是通过将内存里脏页的数据刷回磁盘来完成的,不是根据redo log

--change buffer收益在二级索引上,merge操作是在读取数据页的时候做的

原文地址:https://www.cnblogs.com/yhq1314/p/11121873.html