大数据量处理

删除产生大量垃圾数据

个体户的系统,更新明细时先删除明细再添加明细

看上去简单高效,但是都是逻辑删除

面对大数据量时导致系统内有很多垃圾数据

需要辨别出新增还是更新,避免垃圾数据

非增量更新,产生很多冗余操作

每次编辑就删除,只能全量更新操作,非常不安全且浪费性能。

随意要跳出变更的部分,只对少量变更操作。

没有发生变更数据,不要重复更新。

页面冗余大量数据卡顿

页面设计不到位,一个页面一次展示处理好几万的数据量,页面没模块化,数据互相耦合,最后才统一入库。

页面之间,解耦,操作完数据,立即更新入库,模块之间只有简单的交互,避免大量数据冗余。

相关推荐
zzb158028 分钟前
RAG from Scratch-优化-query
java·数据库·人工智能·后端·spring·mybatis
一只鹿鹿鹿38 分钟前
信息安全等级保护安全建设防护解决方案(总体资料)
运维·开发语言·数据库·面试·职场和发展
堕27441 分钟前
MySQL数据库《基础篇--数据库索引(2)》
数据库·mysql
wei_shuo42 分钟前
数据库优化器进化论:金仓如何用智能下推把查询时间从秒级打到毫秒级
数据库·kingbase·金仓
雷工笔记1 小时前
Navicat Premium 17 软件安装记录
数据库
wenlonglanying2 小时前
Ubuntu 系统下安装 Nginx
数据库·nginx·ubuntu
数据库小组2 小时前
10 分钟搞定!Docker 一键部署 NineData 社区版
数据库·docker·容器·database·数据库管理工具·ninedata·迁移工具
爬山算法2 小时前
MongoDB(38)如何使用聚合进行投影?
数据库·mongodb
l1t2 小时前
Deep Seek总结的APSW 和 SQLite 的关系
数据库·sqlite
Pocker_Spades_A3 小时前
基于代价模型的连接条件下推:复杂SQL查询的性能优化实践
数据库·sql·性能优化