9.28学习

1.如何进行分库分表

分表用户id进行分表,每个表控制在300万数据。

分库根据业务场景和地域分库,每个库并发不超过2000

Sharding-jdbc 这种 client 层方案的优点在于不用部署,运维成本低,不需要代理层的二次转发请求,性能很高,但是各个系统都需要耦合 Sharding-jdbc 的依赖,升级比较麻烦

Mycat 这种 proxy 层方案的缺点在于需要部署,自己运维一套中间件,运维成本高,但是好处在于对于各个项目是透明的,如果遇到升级之类的都是自己中间件那里搞就行了

水平拆分:一个表放到多个库,分担高并发,加快查询速度

id保证业务在关联多张表时可以在同一库上操作

range方便扩容和数据统计

hash可以使得数据更加平均

垂直拆分:一个表拆成多个表,可以将一些冷数据拆分到冗余库中

不是写瓶颈优先进行分表

分库数据间的数据无法再通过数据库直接查询了。会产生深分页的问题

分库越多,出现问题的可能性越大,维护成本也变得更高。

分库后无法保障跨库间事务,只能借助其他中间件实现最终一致性。

分库首先需考虑满足业务最核心的场景:

①订单数据按用户分库,可以提升用户的全流程体验

②超级客户导致数据倾斜可以使用最细粒度唯一标识进行hash拆分

③按照最细粒度如订单号拆分以后,数据库就无法进行单库排重了

三个问题:

富查询:采用分库分表之后,如何满足跨越分库的查询?使用ES的宽表

借助分库网关+分库业务虽然能够实现多维度查询的能力,但整体上性能不佳且对正常的写入请求有一定的影响。业界应对多维度实时查询的最常见方式便是借助 ElasticSearch

数据倾斜:数据分库基础上再进行分表

分布式事务:跨多库的修改及多个微服务间的写操作导致的分布式事务问题?

深分页问题:按游标查询,或者叫每次查询都带上上一次查询经过排序后的最大 ID

2.如何将老数据进行迁移

双写不中断迁移

线上系统里所有写库的地方,增删改操作,除了对老库增删改,都加上对新库的增删改

系统部署以后,还需要跑程序读老库数据写新库,写的时候需要判断updateTime

循环执行,直至两个库的数据完全一致,最后重新部署分库分表的代码就行了

3.系统性能的评估及扩容

和家亲目前有1亿用户:场景 10万写并发,100万读并发,60亿数据量

设计时考虑极限情况,32库*32表~64个表,一共1000 ~ 2000张表

支持3万的写并发,配合MQ实现每秒10万的写入速度

读写分离6万读并发,配合分布式缓存每秒100读并发

2000张表每张300万,可以最多写入60亿的数据

32张用户表,支撑亿级用户,后续最多也就扩容一次

★动态扩容的步骤

①推荐是 32 库 * 32 表,对于我们公司来说,可能几年都够了。

②配置路由的规则,uid % 32 = 库,uid / 32 % 32 = 表

③扩容的时候,申请增加更多的数据库服务器,呈倍数扩容

④由 DBA 负责将原先数据库服务器的库,迁移到新的数据库服务器上去

⑤修改一下配置,重新发布系统,上线,原先的路由规则变都不用变

⑥直接可以基于 n 倍的数据库服务器的资源,继续进行线上系统的提供服务。

4.如何生成自增的id主键

●使用redis可以

●并发不高可以单独起一个服务,生成自增id

●设置数据库step自增步长可以支撑水平伸缩

●UUID适合文件名、编号,但是不适合做主键

●snowflake雪花算法,综合了41时间(ms)、10机器、12序列号(ms内自增)

其中机器预留的10bit可以根据自己的业务场景配置

相关推荐
西岸行者1 天前
学习笔记:SKILLS 能帮助更好的vibe coding
笔记·学习
悠哉悠哉愿意1 天前
【单片机学习笔记】串口、超声波、NE555的同时使用
笔记·单片机·学习
别催小唐敲代码1 天前
嵌入式学习路线
学习
毛小茛1 天前
计算机系统概论——校验码
学习
babe小鑫1 天前
大专经济信息管理专业学习数据分析的必要性
学习·数据挖掘·数据分析
winfreedoms1 天前
ROS2知识大白话
笔记·学习·ros2
在这habit之下1 天前
Linux Virtual Server(LVS)学习总结
linux·学习·lvs
我想我不够好。1 天前
2026.2.25监控学习
学习
im_AMBER1 天前
Leetcode 127 删除有序数组中的重复项 | 删除有序数组中的重复项 II
数据结构·学习·算法·leetcode
CodeJourney_J1 天前
从“Hello World“ 开始 C++
c语言·c++·学习