安全删除需分批、索引、游标分页:WHERE条件字段必须有有效索引,用id主键游标替代LIMIT,单批1000~5000行并休眠,避免fetchall全量加载。DELETE 语句不加 LIMIT 就直接崩库?线上环境执行 DELETE FROM users WHERE status = 'inactive' 这种语句,极大概率触发锁表、主从延迟、甚至 OOM。MySQL 默认事务下,全表扫描+逐行加锁+生成大量 undo log,不是删数据,是给数据库做心肺复苏。真正安全的做法是分批、带索引条件、控制每批大小和间隔:必须确保 WHERE 条件字段有有效索引(比如 status 单独无索引,但 (status, id) 联合索引可用)用 id 或自增主键做游标分页,比 LIMIT offset, size 更稳定(避免 offset 越大越慢)单批建议 1000~5000 行,太小效率低,太大锁时间长;每批后 SLEEP(0.1) 或更久,给复制和缓冲池喘息机会别信"先 SELECT 再 DELETE"------中间可能有新数据写入,要用 SELECT ... FOR UPDATE 或原子性子查询兜底Python 脚本怎么安全跑完十万行删除?用 mysql-connector-python 或 pymysql 写循环时,最容易犯的错是:把整个结果集一次性 fetchall() 到内存,或者没关游标/连接,脚本跑一半就报 MySQL Server has gone away。正确姿势是流式处理 + 显式事务控制:每次只查一批待删 id:SELECT id FROM logs WHERE created_at 拿到这批 id 后,用 DELETE FROM logs WHERE id IN (1,2,3,...) 删除(注意 IN 列表长度别超 max_allowed_packet)每次删完立刻 conn.commit(),不要攒事务;出错时捕获 pymysql.err.IntegrityError 等并跳过异常 ID记录最后成功删除的 id 到临时文件或数据库,断点续删才靠谱mysqldump + truncate 不如直接用 pt-archiver有人想导出再清空,或者用 TRUNCATE TABLE 图快------但 TRUNCATE 是 DDL,会锁整表、重置 AUTO_INCREMENT、且无法加 WHERE 条件;mysqldump --where 导出再删,IO 和磁盘压力反而更大。 Cleanup.pictures 智能移除图片中的物体、文本、污迹、人物或任何不想要的东西
相关推荐
Cyber4K34 分钟前
【Python专项】Nginx访问日志分析时间范围处理示例PaperData41 分钟前
1988-2025年《中国人口和就业统计年鉴》全年份excel+PDF周末也要写八哥1 小时前
代码中的注释的重要性(二)愿^O^~1 小时前
JVM GC 入门 → 进阶XingshiXu1 小时前
【NWAFU×KUL】不打扰,也能看懂一头牛:非接触式技术正在改变精准畜牧kybs19911 小时前
springboot租车系统--附源码68701星河耀银海1 小时前
C语言与数据库交互:SQLite实战与数据持久化过期动态2 小时前
MySQL中的约束wxin_VXbishe2 小时前
springboot新能源车充电站管理系统小程序-计算机毕业设计源码29213程序员陆通2 小时前
月烧 400 刀到不到 20 刀:我是怎么把 OpenClaw 的 Token 账单砍掉 95% 的