在MySQL中,新建立一张表,该表有三个字段,分别是id,a,b,插入1000条每个字段都相等的记录,如下:
mysql> show create table t1\G *************************** 1. row *************************** Table: t1 Create Table: CREATE TABLE `t1` ( `id` int(11) NOT NULL, `a` int(11) DEFAULT NULL, `b` int(11) DEFAULT NULL, PRIMARY KEY (`id`), KEY `a` (`a`) ) ENGINE=InnoDB DEFAULT CHARSET=utf8 1 row in set (0.00 sec) mysql> select * from t1 limit 10; +----+------+------+ | id | a | b | +----+------+------+ | 1 | 1 | 1 | | 2 | 2 | 2 | | 3 | 3 | 3 | | 4 | 4 | 4 | | 5 | 5 | 5 | | 6 | 6 | 6 | | 7 | 7 | 7 | | 8 | 8 | 8 | | 9 | 9 | 9 | | 10 | 10 | 10 | +----+------+------+ 10 rows in set (0.00 sec)
当我们执行下面包含group by的SQL时,查看执行计划,可以看到:
mysql> explain select id%10 as m, count(*) as c from t1 group by m limit 10; +----+-------------+-------+------------+-------+---------------+------+---------+------+------+----------+----------------------------------------------+ | id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra | +----+-------------+-------+------------+-------+---------------+------+---------+------+------+----------+----------------------------------------------+ | 1 | SIMPLE | t1 | NULL | index | PRIMARY,a | a | 5 | NULL | 1000 | 100.00 | Using index; Using temporary; Using filesort | +----+-------------+-------+------------+-------+---------------+------+---------+------+------+----------+----------------------------------------------+ 1 row in set, 1 warning (0.00 sec)
最后面有:
- using index:覆盖索引
- using temporary:使用了内存临时表
- using filesort:使用了排序操作
为了更好的理解这个group by语句的执行过程,我画一个图来表示:
对照上面这个表,我们不难发现,这个group by的语句执行流程是下面这样的:
a、首先创建内存临时表,内存表里有两个字段m和c,主键是m;m是id%10,而c是统计的count(*) 个数
b、扫描表t1的索引a,依次取出叶子节点上的id值,计算id%10的结果,记为x;此时如果临时表中没有主键为x的行,就插入一个记录(x,1);如果表中有主键为x的行,就将x这一行的c值加1;
c、遍历完成后,再根据字段m做排序,得到结果集返回给客户端。(注意,这个排序的动作是group by自动添加的。)
如果我们不想让group by语句帮我们自动排序,可以添加上order by null在语句的末尾,这样就可以去掉order by之后的排序过程了。如下:
mysql> explain select id%10 as m, count(*) as c from t1 group by m order by null; +----+-------------+-------+------------+-------+---------------+------+---------+------+------+----------+------------------------------+ | id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra | +----+-------------+-------+------------+-------+---------------+------+---------+------+------+----------+------------------------------+ | 1 | SIMPLE | t1 | NULL | index | PRIMARY,a | a | 5 | NULL | 1000 | 100.00 | Using index; Using temporary | +----+-------------+-------+------------+-------+---------------+------+---------+------+------+----------+------------------------------+ 1 row in set, 1 warning (0.00 sec)
可以看到,explain最后面的using filesort字样已经不见了。再来看下结果:
mysql> select id%10 as m, count(*) as c from t1 group by m; +------+-----+ | m | c | +------+-----+ | 0 | 100 | | 1 | 100 | | 2 | 100 | | 3 | 100 | | 4 | 100 | | 5 | 100 | | 6 | 100 | | 7 | 100 | | 8 | 100 | | 9 | 100 | +------+-----+ 10 rows in set (0.00 sec) mysql> select id%10 as m, count(*) as c from t1 group by m order by null; +------+-----+ | m | c | +------+-----+ | 1 | 100 | | 2 | 100 | | 3 | 100 | | 4 | 100 | | 5 | 100 | | 6 | 100 | | 7 | 100 | | 8 | 100 | | 9 | 100 | | 0 | 100 | +------+-----+ 10 rows in set (0.00 sec)
当我们不加order by null的时候,group by会自动为我们进行排序,所以m=0的记录会在第一条的位置,如果我们加上order by null,那么group by就不会自动排序,那么m=0的记录就在最后面了。
我们当前这个语句,表t1中一共有1000条记录,对10取余,只有10个结果,在内存临时表中还可以放下,内存临时表在MySQL中,通过tmp_table_size来控制。
mysql> show variables like "%tmp_table%"; +----------------+----------+ | Variable_name | Value | +----------------+----------+ | max_tmp_tables | 32 | | tmp_table_size | 39845888 | +----------------+----------+ 2 rows in set, 1 warning (0.00 sec)
当我们的结果足够大,而内存临时表不足以保存的时候,MySQL就会使用磁盘临时表,整个访问的速度就变得很慢了。那么针对group by操作,我们如何优化?
01
group by优化之索引
从上面的描述中不难看出,group by进行分组的时候,创建的临时表都是带一个唯一索引的。如果数据量很大,group by的执行速度就会很慢,要想优化这种情况,还得分析为什么group by 需要临时表?
这个问题其实是因为group by的逻辑是统计不同的值出现的次数,由于每一行记录做group by之后的结果都是无序的,所以就需要一个临时表存储这些中间结果集。如果我们的所有值都是排列好的,有序的,那情况会怎样呢?
例如,我们有个表的记录id列是:
0,0,0,1,1,2,2,2,2,3,4,4,
当我们使用group by的时候,就直接从左到右,累计相同的值即可。这样就不需要临时表了。
上面的结构我们也不陌生,当我们以在某个数据列上创建索引的时候,这个列本身就是排序的,当group by是以这个列为条件的时候,那么这个过程就不需要排序,因为索引是自然排序的。为了实现这个优化,我们给表t1新增一个列z,如下:
mysql> alter table t1 add column z int generated always as(id % 10), add index(z); Query OK, 0 rows affected (0.02 sec) Records: 0 Duplicates: 0 Warnings: 0 mysql> select z as m, count(*) as c from t1 group by z; +------+-----+ | m | c | +------+-----+ | 0 | 100 | | 1 | 100 | | 2 | 100 | | 3 | 100 | | 4 | 100 | | 5 | 100 | | 6 | 100 | | 7 | 100 | | 8 | 100 | | 9 | 100 | +------+-----+ 10 rows in set (0.00 sec) mysql> explain select z as m, count(*) as c from t1 group by z; +----+-------------+-------+------------+-------+---------------+------+---------+------+------+----------+-------------+ | id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra | +----+-------------+-------+------------+-------+---------------+------+---------+------+------+----------+-------------+ | 1 | SIMPLE | t1 | NULL | index | z | z | 5 | NULL | 1000 | 100.00 | Using index | +----+-------------+-------+------------+-------+---------------+------+---------+------+------+----------+-------------+ 1 row in set, 1 warning (0.00 sec)
我们新增字段z,z的值是id%10之后的值,并且创建索引,再通过group by对这个z列进行分组,可以看到,结果中已经没有临时表了。
所以,使用索引可以帮助我们去掉group by依赖的临时表
02
group by优化---直接排序
如果我们已经知道表的数据量特别大,内存临时表肯定不足以容纳排序的时候,其实我们可以通过告知group by进行磁盘排序,而直接跳过内存临时表的排序过程。
其实在MySQL中是有这样的方法的:在group by语句中加入SQL_BIG_RESULT这个提示(hint),就可以告诉优化器:这个语句涉及的数据量很大,请直接用磁盘临时表。当我们使用这个语句的时候,MySQL将自动利用数组的方法来组织磁盘临时表中的字段,而不是我们所周知的B+树。关于这个知识点,这里给出官方文档的介绍:
SQL_BIG_RESULT or SQL_SMALL_RESULT can be used with GROUP BY or DISTINCT to tell the optimizer that the result set has many rows or is small, respectively. For SQL_BIG_RESULT, MySQL directly uses disk-based temporary tables if they are created, and prefers sorting to using a temporary table with a key on the GROUP BY elements. For SQL_SMALL_RESULT, MySQL uses in-memory temporary tables to store the resulting table instead of using sorting. This should not normally be needed.
整个group by的处理过程将会变成:
a、初始化sort_buffer,确定放入一个整型字段,记为m;
b、扫描表t1的索引a,依次取出里面的id值, 将 id%100的值存入sort_buffer中;
c、扫描完成后,对sort_buffer的字段m做排序(如果sort_buffer内存不够用,就会利用磁盘临时文件辅助排序);
d、排序完成后,就得到了一个有序数组。类似0,0,0,1,1,2,2,3,3,3,4,4,4,4这样
e、根据有序数组,得到数组里面的不同值,以及每个值的出现次数。
昨天的文章中我们分析了union 语句会使用临时表,今天的内容我们分析了group by语句使用临时表的情况,那么MySQL究竟什么时候会使用临时表呢?
MySQL什么时候会使用内部临时表?
1、如果语句执行过程可以一边读数据,一边直接得到结果,是不需要额外内存的,否则就需要额外的内存,来保存中间结果;
2、如果执行逻辑需要用到二维表特性,就会优先考虑使用临时表。比如union需要用到唯一索引约束, group by还需要用到另外一个字段来存累积计数。
以上就是MySQL group by语句如何优化的详细内容,更多关于MySQL group by优化的资料请关注其它相关文章!
免责声明:本站资源来自互联网收集,仅供用于学习和交流,请遵循相关法律法规,本站一切资源不代表本站立场,如有侵权、后门、不妥请联系本站删除!
《魔兽世界》大逃杀!60人新游玩模式《强袭风暴》3月21日上线
暴雪近日发布了《魔兽世界》10.2.6 更新内容,新游玩模式《强袭风暴》即将于3月21 日在亚服上线,届时玩家将前往阿拉希高地展开一场 60 人大逃杀对战。
艾泽拉斯的冒险者已经征服了艾泽拉斯的大地及遥远的彼岸。他们在对抗世界上最致命的敌人时展现出过人的手腕,并且成功阻止终结宇宙等级的威胁。当他们在为即将于《魔兽世界》资料片《地心之战》中来袭的萨拉塔斯势力做战斗准备时,他们还需要在熟悉的阿拉希高地面对一个全新的敌人──那就是彼此。在《巨龙崛起》10.2.6 更新的《强袭风暴》中,玩家将会进入一个全新的海盗主题大逃杀式限时活动,其中包含极高的风险和史诗级的奖励。
《强袭风暴》不是普通的战场,作为一个独立于主游戏之外的活动,玩家可以用大逃杀的风格来体验《魔兽世界》,不分职业、不分装备(除了你在赛局中捡到的),光是技巧和战略的强弱之分就能决定出谁才是能坚持到最后的赢家。本次活动将会开放单人和双人模式,玩家在加入海盗主题的预赛大厅区域前,可以从强袭风暴角色画面新增好友。游玩游戏将可以累计名望轨迹,《巨龙崛起》和《魔兽世界:巫妖王之怒 经典版》的玩家都可以获得奖励。
更新日志
- 凤飞飞《我们的主题曲》飞跃制作[正版原抓WAV+CUE]
- 刘嘉亮《亮情歌2》[WAV+CUE][1G]
- 红馆40·谭咏麟《歌者恋歌浓情30年演唱会》3CD[低速原抓WAV+CUE][1.8G]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[320K/MP3][193.25MB]
- 【轻音乐】曼托凡尼乐团《精选辑》2CD.1998[FLAC+CUE整轨]
- 邝美云《心中有爱》1989年香港DMIJP版1MTO东芝首版[WAV+CUE]
- 群星《情叹-发烧女声DSD》天籁女声发烧碟[WAV+CUE]
- 刘纬武《睡眠宝宝竖琴童谣 吉卜力工作室 白噪音安抚》[FLAC/分轨][748.03MB]
- 理想混蛋《Origin Sessions》[320K/MP3][37.47MB]
- 公馆青少年《我其实一点都不酷》[320K/MP3][78.78MB]
- 群星《情叹-发烧男声DSD》最值得珍藏的完美男声[WAV+CUE]
- 群星《国韵飘香·贵妃醉酒HQCD黑胶王》2CD[WAV]
- 卫兰《DAUGHTER》【低速原抓WAV+CUE】
- 公馆青少年《我其实一点都不酷》[FLAC/分轨][398.22MB]
- ZWEI《迟暮的花 (Explicit)》[320K/MP3][57.16MB]