编程之外的智慧—Excel在数据处理中的妙用

起因

接到一个修改了一个bug的任务,进行了分析,发现关系表中有重复的数据, 发现原来的表中 没有针对 2个 字段 进行唯一索引,导致出现了这个问题.于是 本着 为了 以后 避免 重复 数据 的问题, 针对 2个 字段 进行 唯一索引.但是 数据表中有重复数据,只能进行数据的清洗,清洗原则是:

  1. 清洗掉重复数据中 role_id 为0的数据
  2. 如果role_id 不为0 则清洗掉 get_time 比较大的数据

解决方案一

本着 一贯的思维 就是构造语句,然后删除重复的语句, 于是有了下面的语句:

  1. 查询 客户关系表 中 55 客户库的 warehouse_id,customer_id,extra_id,role_id, 然后按照 role_id 升序, get_time 降序 排序
sql 复制代码
    select warehouse_id, customer_id, extra_id,role_id,get_time from `customer_extra` where warehouse_id = 55 order by role_id asc, get_time desc

2. 按照要设定的唯一键 分组, 然后查询出对应的 要删除的 extra_id

```sql
select a.extra_id as extra_id from (select warehouse_id,customer_id,extra_id,role_id,get_time from `5k_customer_extra` where warehouse_id = 55 order by role_id asc,get_time desc) a  group by CONCAT(a.warehouse_id, '_', a.customer_id) having count(*) > 1
  1. 最后组合成删除的语句:
sql 复制代码
    DELETE FROM `5k_customer_extra` WHERE extra_id in (select t.extra_id from (select a.extra_id as extra_id from (select warehouse_id,customer_id,extra_id,role_id,get_time from `5k_customer_extra` where warehouse_id = 55 order by role_id asc,get_time desc) a  group by CONCAT(a.warehouse_id, '_', a.customer_id) having count(*) > 1) t)

搞定,感觉 不错的样子,于是在测试服务器上运行一下子,完美执行. 于是对接线上服务器高高兴兴的执行了一下, 然后 线上 系统 瞬间 访问 卡死, 然后群里立马各种问候就来了,这就很尴尬滴一说.

解决方案二:

上面执行了SQL 发现系统卡成屎,所以得查一下原因, SQL语句没有问题 于是 查了一下数据库中的数据:

sql 复制代码
    SELECT count(1) FROM customer_extra WHERE warehouse_id = 55;

查询的结果果然喜人: 120万

于是 上代码 慢慢按照 1000 条删除一次的原则进行:

python 复制代码
# 创建一个游标
cursor = connection.cursor()
for i in range(10):
    delete_sql = "DELETE FROM `customer_extra` WHERE extra_id in (select t.extra_id from (select a.extra_id as extra_id from (select warehouse_id,customer_id,extra_id,role_id,get_time from `customer_extra` where warehouse_id = 55 order by role_id asc,get_time desc) a  group by CONCAT(a.warehouse_id, '_', a.customer_id) having count(*) > 1 LIMIT 1000) t)";
    cursor.execute(delete_sql)
    connection.commit()
    print(cursor.rowcount)
    time.sleep(2)
cursor.close()
connection.close()

运行后, 线上系统是不卡嘞, 但是 这个代码 处理的速度 有点 太喜人嘞, 一分钟 才删除几万条不到, 尴尬,这个方案也是不行

解决方案三

于是, 本着 试试看的心态, 把数据导出来成 excel 格式

sql 复制代码
    
    select warehouse_id, customer_id, extra_id,role_id,get_time from `customer_extra` where warehouse_id = 55 order by role_id asc, get_time desc

导出EXCEL如下:

开始操作:

  1. 如图所示,查询公式 做出唯一键:
  1. 然后按照唯一键分组,如下图:
  1. 筛选,唯一键 拿到 为 1 的 就是重复的数据, 并且对 role_id 筛选 拿到 role_id 为 0的 先删除掉 一批

  2. 然后删按照 get_time 排序 删除掉 role_id 不为0 的数据.

OK 这样的操作比前面单纯跑 SQL 快多了,所以 方案三 可行. 但是 操作 Excel 不知道 其他熟练不, 反正我用起来 磕磕巴巴滴, 还得花点时间. 于是 就有嘞下面的操作

解决方案四

  1. 先运行 上面的查询SQL 然后 导出要删除的 主键ID
sql 复制代码
    SELECT t.extra_id
from ( select a.extra_id as extra_id from ( select
			warehouse_id,
			customer_id,
			extra_id,
			role_id,
			get_time
		from
			`5k_customer_extra`
		where
			warehouse_id = 55
		order by
			role_id asc,
			get_time desc) a
	group by
		CONCAT(a.warehouse_id, '_', a.customer_id)
	having
		count(*) > 1) t 

导出来以后, 直接 整理 id 然后 放到代码里删除

sql 复制代码
    DELETE FROM `customer_extra` WHERE extra_id IN (....) 

速度比 操作 excel快多了, 然后一早上清理 完成, 然后果断执行 新建了一个唯一索引:

sql 复制代码
CREATE UNIQUE INDEX customer_IDX USING BTREE ON `customer_extra` (customer_id,warehouse_id);

完事,搞定,尴尬的是, 今天周一.上周清洗的数据 由于周六的阿里云故障 数据又又又被回复了, 然后 重新跑一遍 吧.

相关推荐
不会编程的懒洋洋28 分钟前
Spring Cloud Eureka 服务注册与发现
java·笔记·后端·学习·spring·spring cloud·eureka
NiNg_1_2341 小时前
SpringSecurity入门
后端·spring·springboot·springsecurity
Lucifer三思而后行2 小时前
YashanDB YAC 入门指南与技术详解
数据库·后端
王二端茶倒水3 小时前
大龄程序员兼职跑外卖第五周之亲身感悟
前端·后端·程序员
夜色呦4 小时前
现代电商解决方案:Spring Boot框架实践
数据库·spring boot·后端
爱敲代码的小冰4 小时前
spring boot 请求
java·spring boot·后端
java小吕布5 小时前
Java中的排序算法:探索与比较
java·后端·算法·排序算法
Goboy5 小时前
工欲善其事,必先利其器;小白入门Hadoop必备过程
后端·程序员
李少兄6 小时前
解决 Spring Boot 中 `Ambiguous mapping. Cannot map ‘xxxController‘ method` 错误
java·spring boot·后端
代码小鑫6 小时前
A031-基于SpringBoot的健身房管理系统设计与实现
java·开发语言·数据库·spring boot·后端