【数据库】MySql深度分页SQL查询优化

问题描述

mysql中,使用limit+offset实现分页难免会遇到深度分页问题,即页码数越大,性能越差。

sql 复制代码
select * from student order by id limit 200000,10;

如上语句,其实我们希望查询第20000页的10条数据,实际执行会发现耗时比获取第1页的10条慢很多。

原因分析

参考https://blog.csdn.net/cschmin/article/details/123148092解释的limit+offset实现原理,便可知道,mysql引擎层其实是把offset+limit条记录,全部返回给server层了,server层再过滤掉前offset条记录,把最后10条记录返回给客户端。显而易见,由于引擎层的"懒惰",给server层造成了巨大的压力,以及数据传输带来的资源消耗。

优化方法

(1)子查询优化

sql 复制代码
select * 
from student t1, (select id from student order by id limit 200000,10) t2 
where t1.id=t2.id;

网上挺多文章说这种优化是借助了select只选择id一个列,符合了覆盖索引规则,所以快速跳过了前200000条记录,亦或是说避免了回表操作,两种说法都是扯蛋。这个子查询优化的本质是大大减少了引擎层返回给server的数据量而已。假如student表的列很少且很小,例如只有id、name两个字段,你再试试这个优化,基本没有效果。所以这个子查询优化的应用场景是表的行很大时,可以优化引擎层返给server层的数据量,数据条数并没有减少。而且由于子查询的存在,引擎层和server层的交互多了一次(第一次是子查询返回给server层200010个id,第二次返回给server层10条完整记录)。

(2)不使用limit+offset

改用标记法来实现分页,这也是企业级业务上比较常用的方法。标记法每次查询都携带着起始条件:

sql 复制代码
select * from student where id>200000 limit 10;

其中200000就是调用者当前页的起始位置。

优点:

  • 直接规避了深度分页问题

缺点:

  • 需要调用者自己维护标记(例如当前页起始于20,结束于29,那么调用者要自己算出下一页起始是30);
  • 不太容易通过页码直接跳转了(例如从第3页跳到第20000页);

(3)使用ElasticSearch

考虑将mysql数据同步到ES,然后借助ES来实现分页查询。不过,ES也会遇到深度分页的问题 ,只是没有mysql来的那么早而已。 例如我司在做某个文件管理库时,由于文件太多了,即便做了分表,数据量依然很大,查询负担太大,于是上层通过ES用于一些查询。

案例测试

sql 复制代码
---------------------------------------------------------------
-- 创建一个测试表
---------------------------------------------------------------
CREATE TABLE `student` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `name` varchar(40) COLLATE utf8mb4_bin DEFAULT NULL,
  `age` int DEFAULT NULL,
  `feild_1` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_2` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_3` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_4` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_5` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_6` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_7` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_8` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_9` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_10` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_11` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_12` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_13` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_14` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_15` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_16` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_17` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_18` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_19` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_20` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  PRIMARY KEY (`id`) USING BTREE,
  KEY `idx_name` (`name`)
) ENGINE=InnoDB AUTO_INCREMENT=208505 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;


---------------------------------------------------------------
-- 随机生成20万记录
---------------------------------------------------------------
DELIMITER //
CREATE PROCEDURE insert_student(IN n INT)
BEGIN
    DECLARE i INT DEFAULT 0;
    WHILE i < n DO
        INSERT INTO student (age, name) VALUES (FLOOR(RAND() * 100), LEFT(UUID(), 8));
        SET i = i + 1;
    END WHILE;
END //
DELIMITER ;

CALL insert_student(200000);

select count(*) from student;


---------------------------------------------------------------
-- 深度分页耗时测试
---------------------------------------------------------------
select * from student limit 200000,10;  -- 977ms

select id,feild_1,feild_2,feild_3,feild_4,feild_5,feild_6,feild_7,feild_8,feild_9 
  from student order by id limit 200000,10  -- 475ms

select id,feild_1 from student order by id limit 200000,10  -- 138ms

select id from student limit 200000,10;  -- 65ms

select * 
from student t1, 
  (
    select id,feild_1,feild_2,feild_3,feild_4,feild_5,feild_6,feild_7,feild_8,feild_9 
    from student order by id limit 200000,10
	) t2 
where t1.id=t2.id;    -- 443ms

select * 
from student t1, 
	(select id from student order by id limit 200000,10) t2 
where t1.id=t2.id;  -- 60ms
相关推荐
白露与泡影20 小时前
Redis:我是如何与客户端进行通信的
数据库·redis·缓存
一只小bit1 天前
MySQL 索引:从聚簇到普通索引,如何加快查询效率?
数据库·mysql·oracle
洛克大航海1 天前
解锁 PySpark SQL 的强大功能:有关 App Store 数据的端到端教程
linux·数据库·sql·pyspark sql
XueminXu1 天前
ClickHouse数据库的表引擎
数据库·clickhouse·log·表引擎·mergetree·special·integrations
冒泡的肥皂1 天前
MVCC初学demo(二
数据库·后端·mysql
代码程序猿RIP1 天前
【Redis 】Redis 详解以及安装教程
数据库·etcd
小生凡一1 天前
redis 大key、热key优化技巧|空间存储优化|调优技巧(一)
数据库·redis·缓存
oe10191 天前
好文与笔记分享 A Survey of Context Engineering for Large Language Models(上)
数据库·笔记·语言模型·agent·上下文工程
小马哥编程1 天前
【软考架构】案例分析-对比MySQL查询缓存与Memcached
java·数据库·mysql·缓存·架构·memcached
一 乐1 天前
高校后勤报修系统|物业管理|基于SprinBoot+vue的高校后勤报修系统(源码+数据库+文档)
java·前端·javascript·数据库·vue.js·毕设