小集合 VS 大集合:MySQL 去重计数性能优化

小集合 VS 大集合:MySQL 去重计数性能优化

  • 前言
  • [一、场景与问题 🔎](#一、场景与问题 🔎)
  • 二、通俗执行流程对比
  • [三、MySQL 执行计划解析 📊](#三、MySQL 执行计划解析 📊)
  • [四、性能瓶颈深度剖析 🔍](#四、性能瓶颈深度剖析 🔍)
  • [五、终极优化方案 🏆](#五、终极优化方案 🏆)
  • 六、总结

前言

📈 测试结果

在对百万级 indicator_log 表进行 去重计数 的测试中,我们发现:

  • SQL1(先去重再计数)耗时 ≈ 0.9s,

  • SQL2(直接 COUNT(DISTINCT))耗时 ≈ 1.0s。

🔍 核心原因

  • SQL1 利用物化临时表批量去重,I/O 可控;

  • SQL2 在内存哈希/排序中实时去重,内存与 CPU 负载更重,并触发更多 spill-to-disk 。

最终,通过覆盖式联合索引、内存参数调优及Loose Index Scan等手段,能让两者在大数据量下都达到毫秒级。

一、场景与问题 🔎

  • 表结构示例(示例参数)

    sql 复制代码
    CREATE TABLE indicator_log (
      obj_id      INT,  -- 评估对象 ID (:obj_id)
      plan_id     INT,  -- 评估计划 ID (:plan_id)
      del_flag    TINYINT,  -- 逻辑删除标志 (:del_flag)
      INDEX idx_plan    (plan_id), -- 单独索引 (:plan_id)
      INDEX idx_delflag (del_flag) -- 单独索引 (:del_flag)
    );
  • 需求:统计某评估计划中、未被逻辑删除的唯一对象数。

  • SQL1(子查询版)

    sql 复制代码
    SELECT COUNT(obj_id)
    FROM (
      SELECT DISTINCT obj_id
      FROM indicator_log
      WHERE plan_id = 312 AND del_flag = 0
    ) AS t;
  • SQL2(直接版)

    sql 复制代码
    SELECT COUNT(DISTINCT obj_id)
    FROM indicator_log
    WHERE plan_id = 312 AND del_flag = 0;

二、通俗执行流程对比

  1. SQL1:阶段化去重

    • 子查询去重

      sql 复制代码
      SELECT DISTINCT obj_id
      FROM indicator_log
      WHERE plan_id = :plan_id  
        AND del_flag = :del_flag;
      • ⚙️ 数据库先从大表中抽取所有唯一obj_id,并将结果写入"小篮子"(物化临时表),

      • 此阶段只做一次去重,借助外部排序分区哈希批量处理,I/O 可控、稳定

    • 外层快速计数

      sql 复制代码
      SELECT COUNT(obj_id)
      FROM (
        ... 上一步子查询 ...
      ) AS t;
      • ⚡ 在"小篮子"上做 COUNT,不涉及任何去重逻辑,

      • 仅需对已去重的小结果集扫描一次,CPU 和 I/O 开销极低

    优势:先缩小数据规模,再聚合,适合大数据量场景。

  2. SQL2:一次性去重

    sql 复制代码
    SELECT COUNT(DISTINCT obj_id)
    FROM indicator_log
    WHERE plan_id = :plan_id  
      AND del_flag = :del_flag;
    • 实时扫描去重

      • 🏃 MySQL 在全表扫描 过程中,边读取每行边将 obj_id 插入内存哈希表 或进行内存排序

      • 每次插入都需判断是否已存在,CPU 和内存压力陡增

    • 矿山级 Hash / 排序

      • 🔄 若待去重行数超过 sort_buffer_sizetmp_table_size,会频繁 spill-to-disk

      • 导致磁盘 I/O 大幅增加,性能抖动明显

    劣势:一次性完成去重+计数,对内存依赖高,遇大数据量易触发磁盘溢写。

  3. 索引合并(Index Merge)附加开销 ⚙️

    • 在只有单列索引 idx_plan(plan_id)idx_delflag(del_flag) 时,MySQL 必须:

      • 分别走两个索引扫描;

      • 对扫描结果做行号交集Index Merge Intersection) ;

    • 双重扫描 + 交集 也为两种写法都增加了额外 I/O 和 CPU 消耗。

三、MySQL 执行计划解析 📊

  • SQL1 的 EXPLAIN

    sql 复制代码
    EXPLAIN ANALYZE
    SELECT COUNT(obj_id)
    FROM (
        SELECT DISTINCT obj_id
        FROM indicator_log
        WHERE plan_id = 312
          AND del_flag = 0
    ) AS t;
  • 执行计划解析

    1. 聚合操作 :计算 obj_id 的总数,执行成本和实际时间较低。

    2. 表扫描 :查询对 t 表进行了全表扫描,扫描了约 280,269 行,实际执行时间为 902 毫秒。

    3. 物化:将中间结果存储在内存中,避免重复计算,时间与表扫描相同。

    4. 临时表:查询创建了临时表进行去重,去重操作与物化时间相同。

    5. 过滤条件 :通过 del_flag = 0plan_id = 312 过滤数据,执行时间较长,返回 165,849 行。

    6. 交集操作:从两个索引扫描中交集数据,执行时间较长。

    7. 索引扫描

    • 使用 idx_plan 扫描符合 plan_id = 312 的数据,执行非常快。

    • 使用 idx_delflag 扫描符合 del_flag = 0 的数据,执行较慢,因为扫描了大量数据。

  • 总结

    bash 复制代码
    1. Index Merge Intersection  
       ├─ idx_plan    (plan_id=:plan_id)  
       └─ idx_delflag (del_flag=:del_flag)  📚 :contentReference[oaicite:3]{index=3}  
    2. Temporary table with deduplication       📚 :contentReference[oaicite:4]{index=4}  
    3. Table scan on <temporary>  
    4. Aggregate: COUNT(obj_id)
    • 交集扫描:分别走两个单列索引,再取交集,得到 N 条候选行

    • 物化去重:写入临时表后批量排序去重,I/O 可控

    • 快速计数 :对临时小表直接 COUNT,耗时极低。

    查询的瓶颈主要在于对 del_flag 的过滤和交集操作,建议优化索引或减少数据量。

  • SQL2 的 EXPLAIN

    sql 复制代码
    EXPLAIN ANALYZE
    SELECT COUNT(DISTINCT obj_id)
    FROM indicator_log
    WHERE plan_id = 312
      AND del_flag = 0;
  • 执行计划解析

    1. 聚合操作count(distinct indicator_log.obj_id),计算 obj_id 的去重总数,执行成本和时间较低,实际执行时间为 964 毫秒。

    2. 过滤条件 :查询对 indicator_log 表进行了过滤,条件为 del_flag = 0plan_id = 312。过滤后返回了 165,849 行数据,执行时间为 341 到 838 毫秒。

    3. 交集操作 :通过 INTERSECT 操作结合两个索引扫描结果,筛选符合条件的数据。执行时间为 341 到 837 毫秒,结果包含 165,849 行。

    4. 索引扫描

    • 使用 idx_plan 索引扫描 plan_id = 312 的数据,执行非常快,时间为 0.148 到 85.3 毫秒,扫描了 279,786 行。

    • 使用 idx_delflag 索引扫描 del_flag = 0 的数据,执行较慢,时间为 0.051 到 426 毫秒,扫描了大约 1.5 百万行。

  • 总结

    bash 复制代码
    1. Index Merge Intersection  
       ├─ idx_plan  
       └─ idx_delflag  
    2. Filter predicates  
    3. Aggregate: COUNT(DISTINCT obj_id)  🔄  
    • 同样交集得出 N 行;

    • 内存去重:逐行插入 HashSet 或排序,边去重边计数

    • 瓶颈:大量内存操作易触发 spill-to-disk 或频繁 GC,性能抖动明显

    查询主要瓶颈在于对 del_flag = 0 条件的过滤,因为这个条件扫描了大量数据。可以通过优化索引或减少数据量来提高查询性能。

四、性能瓶颈深度剖析 🔍

  1. 索引合并(Index Merge)开销
  • 单列索引需做两次范围扫描并交集,I/O 与 CPU 成本陡增 。
  • 覆盖式联合索引可一步到位,跳过合并与回表,大幅缩短扫描范围 。
  1. 去重策略对比
特性 临时表批量去重 (SQL1) 内存哈希/排序 (SQL2)
实现方式 外部排序 + 临时表 I/O HashSet/排序,内存优先
稳定性 高(I/O 可控) 受限于 tmp_table_size/sort_buffer_size
典型场景 中大规模去重 小数据量、快速响应
  1. I/O vs 内存权衡
  • SQL1:I/O 适当增加,换取稳定去重;

  • SQL2:依赖内存,当数据量超出配置时表现不稳 。

  1. 统计信息影响
  • 高选择性 (plan_id) 与 低选择性 (del_flag) 配合不当,容易让优化器选错计划;

  • 保持准确统计信息,定期 ANALYZE TABLE 是必备流程 。

五、终极优化方案 🏆

  1. 覆盖式联合索引 ✨

    sql 复制代码
    CREATE INDEX idx_opt 
    	  ON indicator_log(plan_id, del_flag, obj_id);
    • 一次扫描完成所有条件过滤plan_iddel_flag → 取出 obj_id,无需再做索引合并或回表

    • 支持索引覆盖(Covering Index),减少磁盘 I/O,聚合与去重都可在索引层直接完成

  2. 内存与临时表参数调优 🔧

    sql 复制代码
    SET GLOBAL tmp_table_size        = 256M;
    SET GLOBAL max_heap_table_size   = 256M;
    SET GLOBAL sort_buffer_size      = 64M;
    • 增大内存阈值,让大多数临时表都在内存中完成,避免频繁落盘

    • 提高排序缓冲区 ,减少 COUNT(DISTINCT)ORDER BY 时的 spill-to-disk

  3. 启用 Loose Index Scan 🚀

    sql 复制代码
    SET SESSION optimizer_switch = 'loose_index_scan=on';
    • 对于 COUNT(DISTINCT obj_id),MySQL 5.6+ 可以利用"松散索引扫描"

    • 在覆盖索引场景下,只需依次跳读不同值的第一条记录,即可高效去重

  4. 物化视图 / 预聚合表 🗄️

  • 写时维护 :在插入/更新阶段,通过触发器或应用逻辑同步维护 (plan_id, unique_obj_count)

  • 定时批处理:夜间或低峰期,将去重结果写入专用聚合表,查询时直接读取,无需在线去重


六、总结

  • 🧺 SQL1 = 小集合计数

    先执行子查询:SELECT DISTINCT obj_id ...,把所有唯一值抽取到"小篮子"中(临时表或物化表),然后再对这"小篮子"做 COUNT(obj_id)。拆分去重和计数两步,使得 I/O 可控、压力分散,性能更稳定 。

  • SQL2 = 大集合实时计数

    直接在大表上执行 COUNT(DISTINCT obj_id),MySQL 需要边扫描边在内存中维护哈希表或做外部排序来去重并计数。这种"一次性"实时去重对内存和 CPU 依赖极高,一旦超过内存阈值就会频繁 spill-to-disk,性能抖动明显 。

👉 真·性能优化,绝非单点发力,而是「SQL 写法 + 执行计划 + 索引设计 + 系统参数」四位一体,才能在海量数据面前保持高效稳定

相关推荐
游离状态的猫11 小时前
JavaScript性能优化实战:从瓶颈定位到极致提速
开发语言·javascript·性能优化
声声codeGrandMaster2 小时前
django之优化分页功能(利用参数共存及封装来实现)
数据库·后端·python·django
SlowFeather2 小时前
Unity 使用 ADB 实时查看手机运行性能
android·unity·adb·性能优化·profiler
麦麦大数据3 小时前
vue+neo4j+flask 音乐知识图谱推荐系统
vue.js·mysql·flask·知识图谱·neo4j·推荐算法·音乐推荐
熏鱼的小迷弟Liu3 小时前
【Redis】Redis Zset实现原理:跳表+哈希表的精妙设计
数据库·redis·散列表
淋一遍下雨天3 小时前
Spark Streaming核心编程总结(四)
java·开发语言·数据库
zru_96024 小时前
Windows 安装 MongoDB 教程
数据库·mongodb
爱吃烤鸡翅的酸菜鱼4 小时前
【SpringMVC】概念引入与连接
java·开发语言·mysql
数据与后端架构提升之路4 小时前
深度解析如何将图像帧和音频片段特征高效存储到向量数据库 Milvus
数据库·opencv·音视频