2021-04-23

Redis源码分析--- 字典

字典又称为符号表(symbol table)、关联数组(assocoative array)或映射(map),是一种用于保存键值对(key-value pair)的抽象数据结构。

在字典中,一个键(key)可以和一个值(value)进行关联(或者说将键值映射为值),这些关联的键和值就称为键值对。

字典中每个键值都是独一无二的,程序可以在字典中根据键值查找与之关联的值,或者通过键来更新,又或者根据键来删除整个键值对,等等。

字典经常作为一种数据结构内置在很多高级编程语言里面,但Redis所使用的C语言并没有内置这种数据结构,因此Redis构建了自己的字典实现。

字典在Redis中的应用相当广泛,比如Redis的数据库就是使用字典来作为底层实现的,对数据库的增、删、查、改操作也是构建在对字典的操作之上。

除了用来表示数据库之外,字典还是哈希键的底层实现之一,当一个哈希键包含的键值对比较多,又或者键值对中的元素都是比较长的字符串时,Redis就会使用字典作为哈希键的底层实现。

   字典的实现

Redis的字典使用哈希表作为底层实现,一个哈希表里面可以有多个哈希表节点,而每个哈希表节点就保存了字典中的一个键值对。

哈希表

Redis字典所使用的哈希表由dict.h/dictht结构定义:

typedef struct dictht{

   //哈希表数组

   dictEntry **table;

   //哈希表大小

   unsigned long size;

   //哈希表大小掩码,用于计算索引值

   //总是等于size-1

   unsigned long sizemask;

   //该哈希表已有节点的数量

   unsigned long used;

}dictht;

table属性是一个数组,数组中的每个元素都是一个指向dict.h/dictEntry结构的指针,每个dictEntry结构保存着一个键值对。size属性记录了哈希表的大小,也即是table数组的大小,而used属性记录了哈希表目前已有节点的数量。sizemask属性的值总是等于size-1,这个属性和哈希值一起决定一个键应该被放到table数组的哪个索引上面。

哈希表节点

哈希表节点使用dictEntry结构表示,每个dictEntry结构都保存着一个键值对;

typedef struct dictEntry{

   //键

   void *key;

   //值

   union{

      void *val;

     unit64_tu64;

     int64_ts64;

   }v;

   //指向下个哈希表节点,形成链表

   struct dictEntry *next;

}dictEntry;

key属性保存着键值对中的键,而v属性则保存着键值对中的值,其中键值对的值可以是一个指针,或者是一个uint64_t整数,又或者是一个int64_t整数。

next属性是指向另一个哈希表节点的指针,这个指针可以将多个哈希值相同的键值对连接在一起,以此来解决键冲突(collision)的问题。

如下图所示展示了如何通过next指针,将两个索引值相同的键k1和k0连接在一起。

2021-04-23

字典

Redis中的字典有dict.h/dict结构表示:

typedef struct dict{

   //类型特定函数

   dictType * type;

   //私有数据

   void *privdata;

   //哈希表

   dictht ht[2];

   //rehash索引

   //当rehash不在进行时,值为-1

   in trehashidx;/*rehashing not progress if rehashidx == -1*/

}dict;

type属性和pricdata属性是针对不同类型的键值对,为创建多态字典而设置的:

type属性是一个指向dictType结构的指针,每个dictType结构保存了一簇用于操作特定类型键值对的函数,Redis会为用途不同的字典设置不同的类型特定函数。

而privdata属性则保存了需要传给那些类型特定函数的可选参数。

typedef struct dictType{

   //计算哈希值的函数

   unsigned int (*hashFunction)(const void *key);

   //复制键的函数

   void *(*valDup)(void *privdata,const void *obj);

   //对比键的函数

   int (*keyDestructor)(void *privdata,void *key);

   //销毁值的函数

   void (*valDestructor)(void *privdata,void *obj);

}dictType;

ht属性是一个包含两项的数组,数组中的每个项都是一个dictht哈希表,一般情况下,字典只使用ht[0]哈希表,ht[1]哈希表只会在对ht[0]哈希表进行rehash时使用。

除了ht[1]之外,另一个和rehash有关的属性就是rehashidx,它记录了rehash目前的进度,如果目前没有在进行rehash,那么它的值为-1。

下图展示了一个普通状态下(没有进行rehash)的字典。

2021-04-23

   哈希算法

当要将一个新的键值对添加到字典里面时,程序需要先根据键值对的键计算出哈希值和索引值,然后再根据索引值,将包含新键值对的哈希表节点放到哈希表数据的指定索引上面。

Redis计算哈希值和索引值的方法如下:

#使用字典设置的哈希函数,计算键key的哈希值

hash=dict->type-hashFunction(key);

#使用哈希表的sizemask属性和哈希值,计算出索引值

#根据情况不同,ht[x]可以是ht[0]或者是ht[1]

index = hash & dict->ht[x].sizemask;

2021-04-23

对于上图所示的字典来说,如果我们要将一个键值对k0和v0添加到字典里面,那么程序会先使用语句:

hash = dict->type->hashFunction(k0);

计算键k0的哈希值。

假设计算得出的哈希值为8,那么程序会继续使用语句:

index = hash&dict->ht[0].sizemask = 8 & 3 = 0;

计算出键k0的索引值0,这表示包含键值对k0和v0的节点应该被放置到哈希表数组的suoyin0位置上,如图所示。

2021-04-23

当字典被用作数据库的底层实现,或者哈希键的底层实现时,Redis使用MurmurHash2算法来计算键的哈希值。

MurmurHash算法最初由Austin Appleby于2008年发明。这种算法优点在于,即使输入的键是有规律的,算法仍能给出一个很好的随机分布性,并且算法的计算速度与也非常快。

   解决键冲突

当有两个或者以上数量的键被分配到了哈希表数组的同一个索引上面时,我们称这些键发生了冲突。

Redis的哈希表使用链地址法来解决冲突,每个哈希表节点都有一个next指针,多个哈希表接口可以用next指针构成一个单向链表,被分配到同一个索引上的多个节点可以用这个单向链表连接起来,这就解决了键冲突问题。

举个例子,假设程序要将键值对k2和v2添加到图4-6所示的哈希表里面,并且计算得出k2的索引值2,那么键k1和k2将产生冲突,而解决冲突的办法就是使用next指针将建k2和k1所在的节点连接起来,如图4-7所示。

因为dictEntry节点组成的链表没有指向链表表尾的指针,所以为了速度考虑,程序总是将新节点添加到链表的表头位置,排在其他已有节点的前面。

2021-04-23

   rehash操作

随着操作的不断执行,哈希表保存的键值对会逐渐地增多或者减少没了让哈希表的负载因子维持在一个合理的范围之内,当哈希表保存的键值对数量太多或者太少时,程序需要对哈希表的大小进行相应的扩展或者收缩。

扩展和收缩哈希表的工作可以通过执行rehash操作来完成,Redis对字典的哈希表执行rehash的步骤如下:

1)为字典的ht[1]哈希表分配空间,这哈希表的空间大小取决于执行的操作,以及ht[0]当前包含键值对的数量:

如果执行的是扩展操作,那么ht[1]的大小为第一个大于等于ht[0].used*2的2^n(2的n次幂)

如果执行的是收缩操作,那么ht[1]的大小为第一个大于等于ht[0].used的2^n。

2)将保存在ht[0]中的所有键值对rehash到ht[1]上面:rehash指的是重新计算键的哈希值和索引值,然后将键值对放置到ht[1]哈希表的指定位置上。

3)当ht[0]包含的所有键值对都迁移到了ht[1]之后,释放ht[0],将ht[1]设置为ht[0],并在ht[1]新创建一个空白哈希表,为下一次rehash作准备。

   哈希表的扩展与收缩

当以下条件中的任意一个被满足时,程序会自动开始对哈希表执行扩展操作:

1)服务器目前没有在执行bgsave命令或者bgrewriteaof命令,并且哈希表的负载因子大于等于1.

2)服务器目前正在执行bgsave命令或者bgrewriteaof命令,并且哈希表的负载因子大于等于5.

其中哈希表的负载因子可以通过公式:

#负载因子 = 哈希表已保存节点数量 / 哈希表大小

load_factor = ht[0].used / ht[0].size

计算得出

   渐进式rehash

redis中的rehash动作并不是一次性、集中式地完成的,而是分多次、渐进式地完成的。

这样做的原因在于,如果ht[0]里只保存着四个键值对,那么服务器就可以在瞬间就将这些键值对去哪不rehash到ht[1];但是,如果hash表里保存的键值对数量不是四个,而是四百万、四千万甚至四亿个键值对,那么要一次性将这些键值对全部rehash到ht[1]的话,庞大的计算量可能会导致服务器在一段时间内停止服务。

因此,为了避免rehash对服务性能造成影响,服务器不是一次性将ht[0]里面的所有键值对全部rehash到ht[1],而是分多次、渐进式地将ht[0]中的键值对慢慢的rehash到ht[1].

渐进式rehash的好处在于它采取分而治之的方式,将rehash键值对所需要的计算工作平均摊到对字典的每个添加、删除、查找和更新操作上,从而避免了集中式rehash而带来的庞大计算量。

   渐进式rehash执行期间的哈希表操作

因为在进行渐进式rehash的过程中,字典会同时使用ht[0]和ht[1]两个哈希表,所以在渐进式rehash进行期间,字典的删除(delete)、查找(find)、更新(update)等操作会在两个hash表上进行。

在rehash执行期间,新添加到字典的键值对一律会被保存到ht[1]里面,而ht[0]则不再进行任何添加操作,这一措施保证了ht[0]包含的键值对数量会只减不增,并随着rehash操作的执行而最终变成空表。

上一篇:Ajax使用


下一篇:智慧城市大数据运营中心 IOC 之 Web GIS 地图应用