9.28学习

1.如何进行分库分表

分表用户id进行分表,每个表控制在300万数据。

分库根据业务场景和地域分库,每个库并发不超过2000

Sharding-jdbc 这种 client 层方案的优点在于不用部署,运维成本低,不需要代理层的二次转发请求,性能很高,但是各个系统都需要耦合 Sharding-jdbc 的依赖,升级比较麻烦

Mycat 这种 proxy 层方案的缺点在于需要部署,自己运维一套中间件,运维成本高,但是好处在于对于各个项目是透明的,如果遇到升级之类的都是自己中间件那里搞就行了

水平拆分:一个表放到多个库,分担高并发,加快查询速度

id保证业务在关联多张表时可以在同一库上操作

range方便扩容和数据统计

hash可以使得数据更加平均

垂直拆分:一个表拆成多个表,可以将一些冷数据拆分到冗余库中

不是写瓶颈优先进行分表

分库数据间的数据无法再通过数据库直接查询了。会产生深分页的问题

分库越多,出现问题的可能性越大,维护成本也变得更高。

分库后无法保障跨库间事务,只能借助其他中间件实现最终一致性。

分库首先需考虑满足业务最核心的场景:

①订单数据按用户分库,可以提升用户的全流程体验

②超级客户导致数据倾斜可以使用最细粒度唯一标识进行hash拆分

③按照最细粒度如订单号拆分以后,数据库就无法进行单库排重了

三个问题:

富查询:采用分库分表之后,如何满足跨越分库的查询?使用ES的宽表

借助分库网关+分库业务虽然能够实现多维度查询的能力,但整体上性能不佳且对正常的写入请求有一定的影响。业界应对多维度实时查询的最常见方式便是借助 ElasticSearch

数据倾斜:数据分库基础上再进行分表

分布式事务:跨多库的修改及多个微服务间的写操作导致的分布式事务问题?

深分页问题:按游标查询,或者叫每次查询都带上上一次查询经过排序后的最大 ID

2.如何将老数据进行迁移

双写不中断迁移

线上系统里所有写库的地方,增删改操作,除了对老库增删改,都加上对新库的增删改

系统部署以后,还需要跑程序读老库数据写新库,写的时候需要判断updateTime

循环执行,直至两个库的数据完全一致,最后重新部署分库分表的代码就行了

3.系统性能的评估及扩容

和家亲目前有1亿用户:场景 10万写并发,100万读并发,60亿数据量

设计时考虑极限情况,32库*32表~64个表,一共1000 ~ 2000张表

支持3万的写并发,配合MQ实现每秒10万的写入速度

读写分离6万读并发,配合分布式缓存每秒100读并发

2000张表每张300万,可以最多写入60亿的数据

32张用户表,支撑亿级用户,后续最多也就扩容一次

★动态扩容的步骤

①推荐是 32 库 * 32 表,对于我们公司来说,可能几年都够了。

②配置路由的规则,uid % 32 = 库,uid / 32 % 32 = 表

③扩容的时候,申请增加更多的数据库服务器,呈倍数扩容

④由 DBA 负责将原先数据库服务器的库,迁移到新的数据库服务器上去

⑤修改一下配置,重新发布系统,上线,原先的路由规则变都不用变

⑥直接可以基于 n 倍的数据库服务器的资源,继续进行线上系统的提供服务。

4.如何生成自增的id主键

●使用redis可以

●并发不高可以单独起一个服务,生成自增id

●设置数据库step自增步长可以支撑水平伸缩

●UUID适合文件名、编号,但是不适合做主键

●snowflake雪花算法,综合了41时间(ms)、10机器、12序列号(ms内自增)

其中机器预留的10bit可以根据自己的业务场景配置

相关推荐
豆沙沙包?3 小时前
5.学习笔记-SpringMVC(P61-P70)
数据库·笔记·学习
每次的天空5 小时前
Android学习总结之Room篇
android·学习·oracle
Nuyoah.6 小时前
《Vue3学习手记5》
前端·javascript·学习
陶然同学9 小时前
RabbitMQ全栈实践手册:从零搭建消息中间件到SpringAMQP高阶玩法
java·分布式·学习·rabbitmq·mq
欧先生^_^10 小时前
学习 Apache Kafka
学习·kafka·apache
妙极矣10 小时前
JAVAEE初阶01
java·学习·java-ee
娃娃略10 小时前
【AI模型学习】双流网络——更强大的网络设计
网络·人工智能·pytorch·python·神经网络·学习
圆弧YH10 小时前
Ardunio学习
学习
我的golang之路果然有问题10 小时前
案例速成GO+redis 个人笔记
经验分享·redis·笔记·后端·学习·golang·go
韩明君11 小时前
前端学习笔记(四)自定义组件控制自己的css
前端·笔记·学习