数据分表算法之TimedHash

原创
2019/05/10 00:35
阅读数 62

@TOC TimedHash 顾明意思,就是时间片上的一致性hash算法。在介绍此算法之前我们先来介绍一下一致性hash算法。

hash算法产生 一致性哈希算法是分布式系统中常用的算法。比如,一个分布式的存储系统,要将数据存储到具体的节点上,如果采用普通的hash方法,将数据映射到具体的节点上,如key%N,key是数据的key,N是机器节点数,如果有一个机器加入或退出这个集群,则所有的数据映射都无效了,如果是持久化存储则要做数据迁移,如果是分布式缓存,则其他缓存就失效了。 因此,引入了一致性哈希算法: 1 把数据用hash函数(如MD5),映射到一个很大的空间里,如图所示。数据的存储时,先得到一个hash值,对应到这个环中的每个位置,如k1对应到了图中所示的位置,然后沿顺时针找到一个机器节点B,将k1存储到B这个节点中。 如果B节点宕机了,则B上的数据就会落到C节点上,如下图所示: 图2

这样,只会影响C节点,对其他的节点A,D的数据不会造成影响。然而,这又会造成一个“雪崩”的情况,即C节点由于承担了B节点的数据,所以C节点的负载会变高,C节点很容易也宕机,这样依次下去,这样造成整个集群都挂了。 为此,引入了“虚拟节点”的概念:即把想象在这个环上有很多“虚拟节点”,数据的存储是沿着环的顺时针方向找一个虚拟节点,每个虚拟节点都会关联到一个真实节点,如下图所使用: 在这里插入图片描述 虽然一致性hash算法可以做到数据的分布,一定程度上也可以解决高可用避免造成“雪崩”情况。但是此方法热心的朋友会发现,如果当我们增加新的节点E(虚拟节点E1,E2)的时候,部分数据会出现迁移。 如图: 在这里插入图片描述 未增加节点之前数据K6应该落在D1节点,K1落在C2节点。当增加节点E后,K1落在了E1节点,K6落在E2节点。虽然一直性hash算法减少了数据迁移的量,如果我们使用热部署方式去增加节点的时候,当增加了节点数据并不能及时迁移,造成了数据异常。 那么我们有没有什么办法可以解决在迁移这段时间内,数据依然可以访问之前节点获取数据,当数据迁移完毕后再访问新节点呢?

如果我们可以设计hash算法在不同时间的算法,那么此问题不就解决了吗。对于K1-K8都是在E节点添加之前的数据,那么在我们计算K8的数据落点时候排除E节点,那么数据K6依然落在D1节点,K1依然落在C2节点。 对于新进入的数据K9,我们使用A-E节点计算。我们就可以热部署增加节点了。 如图。 在这里插入图片描述

当然使用此方法会存在一些限制。

1、我们需要每个数据存储节点加入时间。 2、我们所需要查找的数据的落地时间。

那么我们该如何符合者连个限制呢? 1、通常我们存放数据的时候需要拉去数据存储节点的信息,我们只需要把加入时间加入信息中即可,这样我们的使用方即可拉去存储节点的加入时间。 2、我们每次查找的数据,可以使用 snowflake 方式或者此算法的变种来设计数据的ID,这样我们就能知道查找数据的ID。有关twitter snowflake算法可以查阅地址 https://github.com/twitter-archive/snowflake 获取更多资料

展开阅读全文
加载中
点击引领话题📣 发布并加入讨论🔥
0 评论
0 收藏
0
分享
返回顶部
顶部