在统计的时候尝尝遇到过查询数据量大的情况,SQL会超时
下面是一些解决方案 (未经本人允许不得转载)
1、索引
sql
加完看索引是否生效(一般情况都是普通索引+tree)
创建联合索引(注意顺序)
2、 SQL语句
重新审视逻辑把没用的表连接删除掉,然后是修改join的方式。inner join 是最快的
3、增加中间表
为了方便查询可以增加中间表,或者直接在旧表上面新建字段。
临时统计时,如果原有表数据量太大,可以按照时间条件把要用的数据先导出成excel然后在导入一张新表
4、修改MySQL的配置信息
比如下面这些信息(真实情况更为复杂根据实际需求调整对应的参数)
sql
SET SESSION join_buffer_size = 262144; -- 临时将join_buffer_size设置为256KB
SET SESSION sort_buffer_size = 2097152; -- 临时将sort_buffer_size设置为2MB
SET SESSION optimizer_search_depth = 8; -- 临时设置优化器搜索深度为8
SET SESSION max_join_size = 1000000; -- 临时允许联接的最大行数为1,000,000行
SET SESSION sql_big_selects = 1; -- 临时允许执行大型查询
题外话
导入/更新数据特别多特别慢的时候,可以采用拼接SQL的方式
根据参数拼接成update/insert 语句然后使用navicat执行。主要要勾选autocommit=0,还有就是一个运行里面允许多个查询这样的操作一般不会出问题,不过也有可能因为网络波动什么的导致数据丢失。
代码方面:可以采用多线程、异步处理、写入数据库的时候分批次插入