安全删除需分批、索引、游标分页:WHERE条件字段必须有有效索引,用id主键游标替代LIMIT,单批1000~5000行并休眠,避免fetchall全量加载。DELETE 语句不加 LIMIT 就直接崩库?线上环境执行 DELETE FROM users WHERE status = 'inactive' 这种语句,极大概率触发锁表、主从延迟、甚至 OOM。MySQL 默认事务下,全表扫描+逐行加锁+生成大量 undo log,不是删数据,是给数据库做心肺复苏。真正安全的做法是分批、带索引条件、控制每批大小和间隔:必须确保 WHERE 条件字段有有效索引(比如 status 单独无索引,但 (status, id) 联合索引可用)用 id 或自增主键做游标分页,比 LIMIT offset, size 更稳定(避免 offset 越大越慢)单批建议 1000~5000 行,太小效率低,太大锁时间长;每批后 SLEEP(0.1) 或更久,给复制和缓冲池喘息机会别信"先 SELECT 再 DELETE"------中间可能有新数据写入,要用 SELECT ... FOR UPDATE 或原子性子查询兜底Python 脚本怎么安全跑完十万行删除?用 mysql-connector-python 或 pymysql 写循环时,最容易犯的错是:把整个结果集一次性 fetchall() 到内存,或者没关游标/连接,脚本跑一半就报 MySQL Server has gone away。正确姿势是流式处理 + 显式事务控制:每次只查一批待删 id:SELECT id FROM logs WHERE created_at 拿到这批 id 后,用 DELETE FROM logs WHERE id IN (1,2,3,...) 删除(注意 IN 列表长度别超 max_allowed_packet)每次删完立刻 conn.commit(),不要攒事务;出错时捕获 pymysql.err.IntegrityError 等并跳过异常 ID记录最后成功删除的 id 到临时文件或数据库,断点续删才靠谱mysqldump + truncate 不如直接用 pt-archiver有人想导出再清空,或者用 TRUNCATE TABLE 图快------但 TRUNCATE 是 DDL,会锁整表、重置 AUTO_INCREMENT、且无法加 WHERE 条件;mysqldump --where 导出再删,IO 和磁盘压力反而更大。 Cleanup.pictures 智能移除图片中的物体、文本、污迹、人物或任何不想要的东西
相关推荐
书到用时方恨少!2 小时前
Python 面向对象编程:从“过程清单”到“智能积木”的思维革命老苏畅谈运维2 小时前
服务器重启后数据库无法打开,记一次ORA-00600 [2252]故障修复记2401_897190552 小时前
MySQL升级导致排序规则变化怎么处理_更新Collation配置zhangchaoxies2 小时前
uni-app怎么动态生成二维码 uni-app利用插件生成分享码方法【技巧】2402_854808372 小时前
如何在可视化编辑器中回滚错误的结构修改_通过事务或备份快速恢复元数据Metaphor6922 小时前
使用 Python 压缩 PDF 文件的大小zhangzeyuaaa2 小时前
深入 Python 模块与包:从自定义到标准库,再到第三方库的完全指南粉嘟小飞妹儿2 小时前
c++如何监控指定文件夹内文件的新增与删除事件记录【实战】小高Baby@2 小时前
CGO_ENABLED=0 导致 SQLite 驱动初始化失败