MySQL 查询优化思路

在统计的时候尝尝遇到过查询数据量大的情况,SQL会超时

下面是一些解决方案 (未经本人允许不得转载)

1、索引

sql 复制代码
	加完看索引是否生效(一般情况都是普通索引+tree)
	创建联合索引(注意顺序)

2、 SQL语句

重新审视逻辑把没用的表连接删除掉,然后是修改join的方式。inner join 是最快的

3、增加中间表

为了方便查询可以增加中间表,或者直接在旧表上面新建字段。

临时统计时,如果原有表数据量太大,可以按照时间条件把要用的数据先导出成excel然后在导入一张新表

4、修改MySQL的配置信息

比如下面这些信息(真实情况更为复杂根据实际需求调整对应的参数)

sql 复制代码
SET SESSION join_buffer_size = 262144;  -- 临时将join_buffer_size设置为256KB
SET SESSION sort_buffer_size = 2097152;  -- 临时将sort_buffer_size设置为2MB
SET SESSION optimizer_search_depth = 8;  -- 临时设置优化器搜索深度为8
SET SESSION max_join_size = 1000000;  -- 临时允许联接的最大行数为1,000,000行
SET SESSION sql_big_selects = 1;  -- 临时允许执行大型查询

题外话

导入/更新数据特别多特别慢的时候,可以采用拼接SQL的方式

根据参数拼接成update/insert 语句然后使用navicat执行。主要要勾选autocommit=0,还有就是一个运行里面允许多个查询这样的操作一般不会出问题,不过也有可能因为网络波动什么的导致数据丢失。

代码方面:可以采用多线程、异步处理、写入数据库的时候分批次插入

相关推荐
阿波罗尼亚1 小时前
数据库序列(Sequence)
数据库
Junsir大斗师2 小时前
Nginx服务器代理Postgresql-16后端数据库
数据库·nginx
Je1lyfish2 小时前
CMU15-445 (2025 Fall/2026 Spring) Project#3 - QueryExecution
linux·c语言·开发语言·数据结构·数据库·c++·算法
m0_596749094 小时前
如何防止SQL拼接漏洞_使用PDO对象实现安全的SQL交互
jvm·数据库·python
老纪的技术唠嗑局4 小时前
深度解析 LLM Wiki / Obsidian-Wiki / GBrain:Agent 时代知识的“自组织”与“自进化”
大数据·数据库·人工智能·算法
2301_795099746 小时前
golang如何在Gin中自定义验证器_golang Gin自定义验证器实现方法
jvm·数据库·python
2301_766283447 小时前
如何在MongoDB GridFS中进行按文件大小(length)范围的查询
jvm·数据库·python
布吉岛的石头7 小时前
分库分表实战:Sharding-JDBC 快速落地
分布式·mysql
冬天vs不冷7 小时前
面试必知必会(13):MySQL锁机制
mysql·面试·职场和发展
冬天vs不冷7 小时前
面试必知必会(14):MySQL执行计划与SQL优化
sql·mysql·面试