什么是一致性 Hash 算法?——Java全栈知识(11)

什么是一致性 Hash 算法?

哈希算法大家都不陌生,经常被用在负载均衡、分库分表等场景中,比如说我们在做分库分表的时候,最开始我们根据业务预估,把数据库分成了 128 张表,这时候要插入或者查询一条记录的时候,我们就会先把分表键,如 buyer_id 进行 hash 运算,然后再对 128 取模,得到 0-127 之间的数字,这样就可以唯一定位到一个分表。

但是随着业务得突飞猛进,128 张表,已经不够用了,这时候就需要重新分表,比如增加一张新的表。这时候如果采用 hash 或者取模的方式,就会导致 128+1 张表的数据都需要重新分配,成本巨高。
一致性哈希 (Consistent Hashing)是一种用于分布式系统中数据分片和负载均衡的算法。它的目标是在节点的动态增加或删除时,尽可能地减少数据迁移和重新分布的成本。

1、如何实现?

首先我们需要一个 2^32 大小的环(虚拟)。

然后我们将我们需要的分表映射到上面。

之后我们在插入数据的时候使用 hash 算法计算值之后取模取模 2^32 。最后得出的值对应在环的位置,该位置是哪一张表就插入到哪一张表中。

2、有什么好处

可以解决两个问题:

2.1、分表之后扩容

当我们在业务初期没有预估到有大量的数据量,初期的分表数量已经不够了怎么办?

此时如果我们使用的是一般的 Hash 取模算法,那么就需要把所有的数据都进行一边 Hash 取模,消耗极大。

一致性 Hash 算法就能很好的解决这个问题。

如下:

加入我们有 0-127 这 128 张表,我们想再添加一张表怎么办?

我们直接在 hash 环上的 table_0000 和 table_0127 之间添加一个新的节点 table_0128 然后将这两个表中的数据重新计算 hash 值之后映射到三个新的表中即可。

2.2、数据倾斜

我们在分表中不可避免遇到的问题就是数据倾斜。

数据倾斜是指在分布式计算或数据库环境中,数据分布不均匀的现象。在理想的分布式系统中,数据和计算负载应该均匀分布在所有节点上。然而,由于各种原因,某些节点可能承载比其他节点更多的数据或计算负载,这就是数据倾斜。

也就是说某个表中由于分片算法的原因导致存储了大量的数据。

这样会给整个系统造成很大的性能瓶颈。

此时,我们能做的就是进行二次分表,我们的一致性 Hash 算法就可以很好的解决这个问题。

也就是上述解决扩容的解决方法,在数据量大的表的位置添加一个新的表,然后重新计算 hash 值映射即可。

其次,我们也可以在不新增表的情况下处理数据倾斜,如图:

原本分表 2 和分表 3 之间的数据都是存储在分表 3 中的,此时我们可以在 2 和 3 之间新增一个虚拟的节点, 该虚拟节点可以指向任意一个节点,然后把该虚拟节点中的数据都存储在指向的新节点中也就是其他的分表中。

这样可以有效的解决数据倾斜问题。

相关推荐
消失的旧时光-194320 分钟前
第四篇(实战): 订单表索引设计实战:从慢 SQL 到毫秒级
java·数据库·sql
それども41 分钟前
@ModelAttribute vs @RequestBody
java
雨中飘荡的记忆1 小时前
深度详解Spring Context
java·spring
Tao____1 小时前
JAVA开源物联网平台
java·物联网·mqtt·开源·ruoyi
yqd6662 小时前
SpringSecurity的使用
java·spring
仙俊红2 小时前
Java Map 家族核心解析
java·开发语言
一嘴一个橘子2 小时前
springMvc 接收参数、cookie、header
java
code_li3 小时前
聊聊支付宝架构
java·开发语言·架构
CC.GG4 小时前
【Linux】进程概念(五)(虚拟地址空间----建立宏观认知)
java·linux·运维
以太浮标4 小时前
华为eNSP模拟器综合实验之- AC+AP无线网络调优与高密场景
java·服务器·华为