概述

字典,又称为符号表(symbol table)、关联数组(associative array)或映射(map),是一种用于保存键值对(key-value pair)的抽象数据结构

JavaHashMapPythondict以及 Golangmap类似

字典Redis 中的应用相当广泛,比如Redis 的数据库就是使用字典来作为底层实现的,对数据库的增删改查操作也是构建在对字典的操作之上的

除了用来表示数据库之外,字典还是哈希键的底层实现之一,当一个哈希键包含的键值对比较多,又或者键值对中的元素都是比较长的字符串时, Redis 就会使用字典作为哈希键的底层实现

字典的实现

Redis字典使用哈希表作为底层实现,一个哈希表里面可以有多个哈希表节点,而每个哈希表节点就保存了字典中的一个键值对

哈希表

Redis字典所使用的哈希表由dict.h/dictht结构定义:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25

/* This is our hash table structure. Every dictionary has two of this as we
* implement incremental rehashing, for the old to the new table. */
/*
* 哈希表
*
* 每个字典都使用两个哈希表,从而实现渐进式 rehash 。
*/
typedef struct dictht {

// 哈希表数组
dictEntry **table;

// 哈希表大小
unsigned long size;

// 哈希表大小掩码,用于计算索引值
// 总是等于 size - 1
unsigned long sizemask;

// 该哈希表已有节点的数量
unsigned long used;

} dictht;

  • table属性是一个数组,数组中的每个元素都是一个指向dict.h/dictEntry结构的指针,每个dictEntry结构保存着一个键值对
  • size属性记录了哈希表的大小,也就是table数组的大小
  • used属性记录了哈希表目前已有节点的数量
  • sizemask属性的值总是等于size-1,这个属性和哈希值一起决定了一个键应该被放到table数组的哪个索引上面

1720094241571

哈希表节点

哈希表节点使用dictEntry结构表示,每个dictEntry结构都保存着一个键值对

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21

/*
* 哈希表节点
*/
typedef struct dictEntry {

// 键
void *key;

// 值
union {
void *val;
uint64_t u64;
int64_t s64;
} v;

// 指向下个哈希表节点,形成链表
struct dictEntry *next;

} dictEntry;

  • key属性保存着键值对中的键
  • v属性则保存着键值对中的值,其中键值对的值可以是一个指针,或者是一个uint64_t整数又或者是一个int64_t整数
  • next属性指向另一个哈希表节点的指针,这个指针可以将多个哈希值相同的键值对连接在一起,以此来解决键冲突(collision)的问题

next指针可以知道Redis 使用的就是拉链法解决哈希冲突的

1720094523892

字典

Redis中的字典dict.h/dict结构表示

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21

/*
* 字典
*/
typedef struct dict {

// 类型特定函数
dictType *type;

// 私有数据
void *privdata;

// 哈希表
dictht ht[2];

// rehash 索引
// 当 rehash 不在进行时,值为 -1
int rehashidx; /* rehashing not in progress if rehashidx == -1 */

} dict;

  • type属性和privdata属性是针对不同类型的键值对,为创建多态字典而设置的
    • type属性是一个指向dictType结构的指针,每个dictType结构保存了一组用于操作特定类型键值对的函数,Redis会为用途不同的字典设置不同的类型特定函数
    • privdata属性则保存了需要传给那些类型特定函数的可选参数

dict.h/dictType

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26

/*
* 字典类型特定函数
*/
typedef struct dictType {

// 计算哈希值的函数
unsigned int (*hashFunction)(const void *key);

// 复制键的函数
void *(*keyDup)(void *privdata, const void *key);

// 复制值的函数
void *(*valDup)(void *privdata, const void *obj);

// 对比键的函数
int (*keyCompare)(void *privdata, const void *key1, const void *key2);

// 销毁键的函数
void (*keyDestructor)(void *privdata, void *key);

// 销毁值的函数
void (*valDestructor)(void *privdata, void *obj);

} dictType;

  • ht属性是一个包含两个项的数组,数组中的每个项都是一个dictht哈希表,一般情况下,字典只是用ht[0]的哈希表,ht[1]哈希表只会在对ht[0]哈希表进行rehash时使用

  • rehashidx也和rehash有关,它记录了rehash的进度,如果目前没有在进行rehash,那么它的值为-1

普通状态下(没有进行rehash)的字典:

1720096568065

哈希算法

当要将一个新的键值对添加到字典里面的时候,程序需要先根据键值对的键计算出哈希值和索引值,然后再根据索引值,将包含新键值对的哈希表节点放到哈希表数组的指定索引位置上面

Redis计算哈希值和索引值的方法如下:

  1. 使用字典设置的哈希函数,计算键的哈希值

    hash = dict -> type -> hashFunction(key);

  2. 使用哈希表的sizemask属性和哈希值计算出索引值

    根据情况不同,ht[x]可以是ht[0]或者是ht[1]

    index = hash & dict -> ht[x].sizemask;

当字典被用作数据库的底层实现,或者哈希键的底层实现时,Redis使用MurmurHash2算法来计算键的哈希值

资料:http://code.google.com/p/smhasher/

解决键冲突

当有两个或以上数量的键被分配到了哈希表数组的同一个索引上面 时,我们称这些键发生了冲突(collision

Redis的哈希表使用拉链法(链地址法/separate chaining)来解决键冲突

每个哈希表节点都有一个next指针,多个哈希表节点可以用next指针构成一个单向链表,被分配到同一个索引上的多个节点可以用这个单向链表连接起来,这就解决了键冲突问题

1720283556269

源码分析
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28

dictEntry *dictAddRaw(dict *d, void *key)
{
// ...
// 前置代码,暂时不需要关注,只需要看以下的关键代码即可
// ...

// T = O(1)
/* Allocate the memory and store the new entry */
// 如果字典正在 rehash ,那么将新键添加到 1 号哈希表
// 否则,将新键添加到 0 号哈希表
ht = dictIsRehashing(d) ? &d->ht[1] : &d->ht[0];
// 为新节点分配空间
entry = zmalloc(sizeof(*entry));
// 将新节点插入到链表表头
entry->next = ht->table[index];
ht->table[index] = entry;
// 更新哈希表已使用节点数量
ht->used++;

/* Set the hash entry fields. */
// 设置新节点的键
// T = O(1)
dictSetKey(d, entry, key);

return entry;
}

新节点加入的逻辑中,是直接将新节点的next指向当前索引位置的节点,然后更新索引位置的指针为当前新加入的节点

这个过程即为头插法的实现,即每次新节点都会放在链表的头部,这种方式将插入的复杂度固定在O(1)

1720284337818

rehash

随着操作的不断执行,哈希表保存的键值对会逐渐地增多或者减少,为了让哈希表的负载因子(load factor)维持在一个合理的范围之内,当哈希表保存的键值对数量太多或者太少时,程序需要对哈希表的大小进行相应的扩展或者收缩

扩展和收缩哈希表的工作可以通过执行rehash(重新散列)操作来完成,Redis对字典的哈希表执行rehash的步骤如下:

  1. 为字典的ht[1]哈希表分配空间,这个哈希表的空间大小取决于要执行的操作和ht[0]当前包含的键值对数量(也就是ht[0].used属性的值)

    • 如果执行的是扩展操作,那么ht[1]的大小为第一个大于等于$ht[0].used * 2$的$2^n$

    • 如果执行的是收缩操作,那么ht[1]的大小为第一个大于等于$ht[0].used$的$2^n$

  2. 将保存在ht[0]中的所有键值对rehashht[1]上面

    rehash指的是重新计算键的哈希值和索引值,然后将键值对放置到ht[1]哈希表的指定位置上

  3. ht[0]包含的所有键值对都迁移到了ht[1]之后(ht[0]变为空表),释放ht[0],将ht[1]设置为ht[0](交换指针),并在ht[1]新创建一个空白哈希表,为下一次rehash做准备

举个栗子🌰

假设程序要对下图所示的字典的ht[0]进行扩展操作

1720334001176

  1. ht[0].used当前的值为$4$,$4*2=8$,而$8$($2^3$)恰好是第一个大于等于$4$的$2$的$n$次方,所以程序会将ht[1]哈希表的大小设置为$8$

    1720334215791

  2. ht[0]包含的四个键值对都rehashht[1]

    1720334249824

  3. 释放ht[0],并将ht[1]设置为ht[0],然后为ht[1]分配一个空白哈希表

    至此,对哈希表的扩展操作执行完毕,程序成功将哈希表的大小从原来的$4$扩大到了现在的$8$

    1720334335665

哈希表的扩展与收缩

扩展

当以下条件中的任意一个被满足时,程序会自动开始对哈希表执行扩展操作

  • 服务器目前没有在执行BGSAVE命令或者BGREWRITEAOF命令,并且哈希表的负载因子大于等于$1$
  • 服务器目前正在执行BGSAVE命令或者BGREWRITEAOF命令,并且哈希表的负载因子大于$5$

其中,哈希表负载因子的计算公式为:
$$
LoadFactor = ht[0].used / ht[0].size
$$

根据BGSAVE或者BGREWRITEAOF命令是否正在执行,服务器执行扩展操作所需的负载因子并不相同,这是因为在执行BGSAVE或者BGREWRITEAOF命令的过程中,Redis需要创建当前服务器进程的子进程,而大多数操作系统都是采用写时复制(copy-on-write)技术来优化子进程的使用效率,所以在子进程存在期间,服务器会提高执行扩展操作所需的负载因子,从而尽可能地避免在子进程存在期间进行哈希表扩展操作,这可以 避免不必要的内存写入操作,最大限度地节约内存

源码分析

dict.c/_dictExpandIfNeeded

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25

static int _dictExpandIfNeeded(dict *d)
{
// ...

/* If we reached the 1:1 ratio, and we are allowed to resize the hash
* table (global setting) or we should avoid it but the ratio between
* elements/buckets is over the "safe" threshold, we resize doubling
* the number of buckets. */
// 一下两个条件之一为真时,对字典进行扩展
// 1)字典已使用节点数和字典大小之间的比率接近 1:1
// 并且 dict_can_resize 为真
// 2)已使用节点数和字典大小之间的比率超过 dict_force_resize_ratio
if (d->ht[0].used >= d->ht[0].size &&
(dict_can_resize ||
d->ht[0].used/d->ht[0].size > dict_force_resize_ratio))
{
// 新哈希表的大小至少是目前已使用节点数的两倍
// T = O(N)
return dictExpand(d, d->ht[0].used*2);
}

return DICT_OK;
}

  • dict_can_resize开关处于启用状态,并且负载因子大于等于1时,会进行扩容
  • 当负载因子大于dict_force_resize_ratio时,会强制进行扩容

Redis执行BGSAVE或者BGREWRITEAOF命令时,会使用dictDisableResize函数关闭dict_can_resize开关,尽可能不进行扩容;而当哈希表的负载因子超过了强制扩容的上限(目前这个值设置的是$5$)时,也会强制进行扩容以保证哈希表的性能

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19

/*
* 开启自动 rehash
*
* T = O(1)
*/
void dictEnableResize(void) {
dict_can_resize = 1;
}

/*
* 关闭自动 rehash
*
* T = O(1)
*/
void dictDisableResize(void) {
dict_can_resize = 0;
}

收缩

当哈希表的负载因子小于$0.1$时,程序自动开始对哈希表执行收缩操作

渐进式rehash

扩展或收缩哈希表需要将ht[0]里面的所有键值对rehashht[1]里面,但是,这个rehash动作并不是一次性、集中式完成的,而是分多次、渐进式完成的

原因在于,如果ht[0]里面只保存着四个键值对,那么服务器可以在瞬间就将这些键值对全部rehashht[1];但是,如果哈希表里面保存着上万上千万甚至上亿个键值对的时候,那么一次性将这些键值对全部rehashht[1]的话,庞大的计算量可能会导致服务器在一段时间内停止服务

因此,为了避免rehash对服务器性能造成影响,服务器不是一次性将ht[0]里面的键值对全部rehashht[1],而是分多次、渐进式地将ht[0]里面的键值对慢慢地rehashht[1]

以下是哈希表渐进式rehash的详细步骤:

  1. ht[1]分配空间,让字典同时持有ht[0]ht[1]两个哈希表
  2. 在字典中维持一个索引计数器变量rehashidx,并将它的值设置为$0$,表示rehash工作正式开始
  3. rehash进行期间,每次对字典执行添加、删除、查找或者更新操作时,程序除了执行指定的操作以外,还会顺带将ht[0]哈希表在rehashidx索引上的所有键值对rehashht[1]上,当rehash工作完成之后,程序将rehashidx`属性的值增一
  4. 随着字典操作的不断执行,最终在某个时间点上,ht[0]的所有键值对都会被rehashht[1],这时程序将rehashidx属性的值设为$-1$,表示rehash操作已完成

渐进式rehash的好处在于它采取了分而治之的方式,将rehash键值对所需的计算工作均摊到对字典的每个添加、删除、查找和更新操作上,从而避免了集中式rehash带来的庞大计算量

渐进式rehash执行期间的哈希表操作

因为在进行渐进式rehash的过程中,字典会同时使用ht[0]ht[1]两个哈希表,所以在渐进式rehash进行期间,字典的删除、查找、更新等操作会在两个哈希表上进行

  • 要在字典里面查找一个键的话,程序会现在ht[0]里面进行查找,如果没找到的话 ,就会继续到ht[1]里面进行查找
  • 新添加到字典的键值对一律会被保存到ht[1]里面,而ht[0]则不会再进行任何添加操作,这一措施保证了ht[0]包含的键值对数量只减不增,并随着rehash操作的执行而最终变成空表
源码分析

dict.c/dictGenericDelete

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42

static int dictGenericDelete(dict *d, const void *key, int nofree)
{
// ...

// 遍历哈希表
// T = O(1)
for (table = 0; table <= 1; table++) {

// 计算索引值
idx = h & d->ht[table].sizemask;
// 指向该索引上的链表
he = d->ht[table].table[idx];
prevHe = NULL;
// 遍历链表上的所有节点
// T = O(1)
while(he) {

if (dictCompareKeys(d, key, he->key)) {

// ...

// 更新已使用节点数量
d->ht[table].used--;

// 返回已找到信号
return DICT_OK;
}

prevHe = he;
he = he->next;
}

// 如果执行到这里,说明在 0 号哈希表中找不到给定键
// 那么根据字典是否正在进行 rehash ,决定要不要查找 1 号哈希表
if (!dictIsRehashing(d)) break;
}

// 没找到
return DICT_ERR; /* not found */
}

总结

  • 字典被广泛用于实现Redis的各种功能,其中包括数据库和哈希键
  • Redis中的字典使用哈希表作为底层实现,每个字典带有两个哈希表,一个平时使用,另一个仅在进行rehash时使用
  • 当字典被用作数据库的底层实现,或者哈希键的底层实现时,Redis使用MurmurHash2算法来计算键的哈希值
  • 哈希表使用链地址法解决哈希冲突,被分配到同一个索引上的多个键值对会连接成一个单向链表
  • 在对哈希表进行扩展或者收缩操作时,程序需要将现有哈希表包含的所有键值对rehash到新哈希表里面,并且这个rehash过程并不是一次性完成,而是渐进式完成地

参考资料

《Redis设计与实现》—— 第四章:字典

huangzworks/redis-3.0-annotated: 带有详细注释的 Redis 3.0 代码(annotated Redis 3.0 source code)。 (github.com)