【数据库】MySql深度分页SQL查询优化

问题描述

mysql中,使用limit+offset实现分页难免会遇到深度分页问题,即页码数越大,性能越差。

sql 复制代码
select * from student order by id limit 200000,10;

如上语句,其实我们希望查询第20000页的10条数据,实际执行会发现耗时比获取第1页的10条慢很多。

原因分析

参考https://blog.csdn.net/cschmin/article/details/123148092解释的limit+offset实现原理,便可知道,mysql引擎层其实是把offset+limit条记录,全部返回给server层了,server层再过滤掉前offset条记录,把最后10条记录返回给客户端。显而易见,由于引擎层的"懒惰",给server层造成了巨大的压力,以及数据传输带来的资源消耗。

优化方法

(1)子查询优化

sql 复制代码
select * 
from student t1, (select id from student order by id limit 200000,10) t2 
where t1.id=t2.id;

网上挺多文章说这种优化是借助了select只选择id一个列,符合了覆盖索引规则,所以快速跳过了前200000条记录,亦或是说避免了回表操作,两种说法都是扯蛋。这个子查询优化的本质是大大减少了引擎层返回给server的数据量而已。假如student表的列很少且很小,例如只有id、name两个字段,你再试试这个优化,基本没有效果。所以这个子查询优化的应用场景是表的行很大时,可以优化引擎层返给server层的数据量,数据条数并没有减少。而且由于子查询的存在,引擎层和server层的交互多了一次(第一次是子查询返回给server层200010个id,第二次返回给server层10条完整记录)。

(2)不使用limit+offset

改用标记法来实现分页,这也是企业级业务上比较常用的方法。标记法每次查询都携带着起始条件:

sql 复制代码
select * from student where id>200000 limit 10;

其中200000就是调用者当前页的起始位置。

优点:

  • 直接规避了深度分页问题

缺点:

  • 需要调用者自己维护标记(例如当前页起始于20,结束于29,那么调用者要自己算出下一页起始是30);
  • 不太容易通过页码直接跳转了(例如从第3页跳到第20000页);

(3)使用ElasticSearch

考虑将mysql数据同步到ES,然后借助ES来实现分页查询。不过,ES也会遇到深度分页的问题 ,只是没有mysql来的那么早而已。 例如我司在做某个文件管理库时,由于文件太多了,即便做了分表,数据量依然很大,查询负担太大,于是上层通过ES用于一些查询。

案例测试

sql 复制代码
---------------------------------------------------------------
-- 创建一个测试表
---------------------------------------------------------------
CREATE TABLE `student` (
  `id` int(11) NOT NULL AUTO_INCREMENT,
  `name` varchar(40) COLLATE utf8mb4_bin DEFAULT NULL,
  `age` int DEFAULT NULL,
  `feild_1` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_2` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_3` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_4` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_5` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_6` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_7` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_8` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_9` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_10` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_11` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_12` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_13` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_14` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_15` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_16` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_17` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_18` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_19` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  `feild_20` char(255) COLLATE utf8mb4_bin DEFAULT NULL,
  PRIMARY KEY (`id`) USING BTREE,
  KEY `idx_name` (`name`)
) ENGINE=InnoDB AUTO_INCREMENT=208505 DEFAULT CHARSET=utf8mb4 COLLATE=utf8mb4_bin;


---------------------------------------------------------------
-- 随机生成20万记录
---------------------------------------------------------------
DELIMITER //
CREATE PROCEDURE insert_student(IN n INT)
BEGIN
    DECLARE i INT DEFAULT 0;
    WHILE i < n DO
        INSERT INTO student (age, name) VALUES (FLOOR(RAND() * 100), LEFT(UUID(), 8));
        SET i = i + 1;
    END WHILE;
END //
DELIMITER ;

CALL insert_student(200000);

select count(*) from student;


---------------------------------------------------------------
-- 深度分页耗时测试
---------------------------------------------------------------
select * from student limit 200000,10;  -- 977ms

select id,feild_1,feild_2,feild_3,feild_4,feild_5,feild_6,feild_7,feild_8,feild_9 
  from student order by id limit 200000,10  -- 475ms

select id,feild_1 from student order by id limit 200000,10  -- 138ms

select id from student limit 200000,10;  -- 65ms

select * 
from student t1, 
  (
    select id,feild_1,feild_2,feild_3,feild_4,feild_5,feild_6,feild_7,feild_8,feild_9 
    from student order by id limit 200000,10
	) t2 
where t1.id=t2.id;    -- 443ms

select * 
from student t1, 
	(select id from student order by id limit 200000,10) t2 
where t1.id=t2.id;  -- 60ms
相关推荐
云和数据.ChenGuang1 小时前
Django 应用安装脚本 – 如何将应用添加到 INSTALLED_APPS 设置中 原创
数据库·django·sqlite
woshilys1 小时前
sql server 查询对象的修改时间
运维·数据库·sqlserver
Hacker_LaoYi1 小时前
SQL注入的那些面试题总结
数据库·sql
建投数据2 小时前
建投数据与腾讯云数据库TDSQL完成产品兼容性互认证
数据库·腾讯云
Hacker_LaoYi3 小时前
【渗透技术总结】SQL手工注入总结
数据库·sql
岁月变迁呀3 小时前
Redis梳理
数据库·redis·缓存
独行soc3 小时前
#渗透测试#漏洞挖掘#红蓝攻防#护网#sql注入介绍06-基于子查询的SQL注入(Subquery-Based SQL Injection)
数据库·sql·安全·web安全·漏洞挖掘·hw
你的微笑,乱了夏天4 小时前
linux centos 7 安装 mongodb7
数据库·mongodb
工业甲酰苯胺4 小时前
分布式系统架构:服务容错
数据库·架构
独行soc5 小时前
#渗透测试#漏洞挖掘#红蓝攻防#护网#sql注入介绍08-基于时间延迟的SQL注入(Time-Based SQL Injection)
数据库·sql·安全·渗透测试·漏洞挖掘