MySQL 查询优化思路

在统计的时候尝尝遇到过查询数据量大的情况,SQL会超时

下面是一些解决方案 (未经本人允许不得转载)

1、索引

sql 复制代码
	加完看索引是否生效(一般情况都是普通索引+tree)
	创建联合索引(注意顺序)

2、 SQL语句

重新审视逻辑把没用的表连接删除掉,然后是修改join的方式。inner join 是最快的

3、增加中间表

为了方便查询可以增加中间表,或者直接在旧表上面新建字段。

临时统计时,如果原有表数据量太大,可以按照时间条件把要用的数据先导出成excel然后在导入一张新表

4、修改MySQL的配置信息

比如下面这些信息(真实情况更为复杂根据实际需求调整对应的参数)

sql 复制代码
SET SESSION join_buffer_size = 262144;  -- 临时将join_buffer_size设置为256KB
SET SESSION sort_buffer_size = 2097152;  -- 临时将sort_buffer_size设置为2MB
SET SESSION optimizer_search_depth = 8;  -- 临时设置优化器搜索深度为8
SET SESSION max_join_size = 1000000;  -- 临时允许联接的最大行数为1,000,000行
SET SESSION sql_big_selects = 1;  -- 临时允许执行大型查询

题外话

导入/更新数据特别多特别慢的时候,可以采用拼接SQL的方式

根据参数拼接成update/insert 语句然后使用navicat执行。主要要勾选autocommit=0,还有就是一个运行里面允许多个查询这样的操作一般不会出问题,不过也有可能因为网络波动什么的导致数据丢失。

代码方面:可以采用多线程、异步处理、写入数据库的时候分批次插入

相关推荐
建投数据3 分钟前
建投数据与腾讯云数据库TDSQL完成产品兼容性互认证
数据库·腾讯云
Hacker_LaoYi1 小时前
【渗透技术总结】SQL手工注入总结
数据库·sql
岁月变迁呀1 小时前
Redis梳理
数据库·redis·缓存
独行soc1 小时前
#渗透测试#漏洞挖掘#红蓝攻防#护网#sql注入介绍06-基于子查询的SQL注入(Subquery-Based SQL Injection)
数据库·sql·安全·web安全·漏洞挖掘·hw
你的微笑,乱了夏天2 小时前
linux centos 7 安装 mongodb7
数据库·mongodb
工业甲酰苯胺2 小时前
分布式系统架构:服务容错
数据库·架构
独行soc3 小时前
#渗透测试#漏洞挖掘#红蓝攻防#护网#sql注入介绍08-基于时间延迟的SQL注入(Time-Based SQL Injection)
数据库·sql·安全·渗透测试·漏洞挖掘
White_Mountain3 小时前
在Ubuntu中配置mysql,并允许外部访问数据库
数据库·mysql·ubuntu
Code apprenticeship3 小时前
怎么利用Redis实现延时队列?
数据库·redis·缓存
百度智能云技术站3 小时前
广告投放系统成本降低 70%+,基于 Redis 容量型数据库 PegaDB 的方案设计和业务实践
数据库·redis·oracle