大数据量处理

删除产生大量垃圾数据

个体户的系统,更新明细时先删除明细再添加明细

看上去简单高效,但是都是逻辑删除

面对大数据量时导致系统内有很多垃圾数据

需要辨别出新增还是更新,避免垃圾数据

非增量更新,产生很多冗余操作

每次编辑就删除,只能全量更新操作,非常不安全且浪费性能。

随意要跳出变更的部分,只对少量变更操作。

没有发生变更数据,不要重复更新。

页面冗余大量数据卡顿

页面设计不到位,一个页面一次展示处理好几万的数据量,页面没模块化,数据互相耦合,最后才统一入库。

页面之间,解耦,操作完数据,立即更新入库,模块之间只有简单的交互,避免大量数据冗余。

相关推荐
Carino_U10 分钟前
Innodb底层原理与MySQL日志机制
数据库·mysql
稻草猫.43 分钟前
Spring事务操作全解析
java·数据库·后端·spring
momin~1 小时前
MySQL-part2【MySQL表的增删改查】
数据库·mysql
white-persist1 小时前
【vulhub weblogic CVE-2017-10271漏洞复现】vulhub weblogic CVE-2017-10271漏洞复现详细解析
java·运维·服务器·网络·数据库·算法·安全
sR916Mecz1 小时前
MongoDB 详解、应用场景及案例分析(AI)
数据库·mongodb
sR916Mecz2 小时前
pache Hop实战:Windows平台MySQL数据迁移的深度排错与性能调优
数据库·windows·mysql
taWSw5OjU2 小时前
MyBatis-plus进阶之映射与条件构造器
数据库·oracle·mybatis
诗人不写诗2 小时前
spring boot apm生态
java·数据库·spring boot
火飞鹰4 小时前
封装MinIO为starter
java·数据库·spring boot