Redis-字典
概述
字典,又称为符号表(symbol table)、关联数组(associative array)或映射(map),是一种用于保存键值对(key-value pair)的抽象数据结构
和Java 的
HashMap
, Python 的dict
以及 Golang 的map
类似
字典在Redis 中的应用相当广泛,比如Redis 的数据库就是使用字典来作为底层实现的,对数据库的增删改查操作也是构建在对字典的操作之上的
除了用来表示数据库之外,字典还是哈希键的底层实现之一,当一个哈希键包含的键值对比较多,又或者键值对中的元素都是比较长的字符串时, Redis 就会使用字典作为哈希键的底层实现
字典的实现
Redis
的字典使用哈希表作为底层实现,一个哈希表里面可以有多个哈希表节点,而每个哈希表节点就保存了字典中的一个键值对
哈希表
Redis
的字典所使用的哈希表由dict.h/dictht
结构定义:
1 |
|
table
属性是一个数组,数组中的每个元素都是一个指向dict.h/dictEntry
结构的指针,每个dictEntry
结构保存着一个键值对size
属性记录了哈希表的大小,也就是table
数组的大小used
属性记录了哈希表目前已有节点的数量sizemask
属性的值总是等于size-1
,这个属性和哈希值一起决定了一个键应该被放到table
数组的哪个索引上面
哈希表节点
哈希表节点使用dictEntry
结构表示,每个dictEntry
结构都保存着一个键值对
1 |
|
key
属性保存着键值对中的键v
属性则保存着键值对中的值,其中键值对的值可以是一个指针,或者是一个uint64_t
整数又或者是一个int64_t
整数next
属性指向另一个哈希表节点的指针,这个指针可以将多个哈希值相同的键值对连接在一起,以此来解决键冲突(collision)的问题
从
next
指针可以知道Redis 使用的就是拉链法解决哈希冲突的
字典
Redis
中的字典由dict.h/dict
结构表示
1 |
|
type
属性和privdata
属性是针对不同类型的键值对,为创建多态字典而设置的type
属性是一个指向dictType
结构的指针,每个dictType
结构保存了一组用于操作特定类型键值对的函数,Redis
会为用途不同的字典设置不同的类型特定函数privdata
属性则保存了需要传给那些类型特定函数的可选参数
dict.h/dictType
ht
属性是一个包含两个项的数组,数组中的每个项都是一个dictht
哈希表,一般情况下,字典只是用ht[0]
的哈希表,ht[1]
哈希表只会在对ht[0]
哈希表进行rehash时使用rehashidx
也和rehash有关,它记录了rehash的进度,如果目前没有在进行rehash,那么它的值为-1
普通状态下(没有进行rehash)的字典:
哈希算法
当要将一个新的键值对添加到字典里面的时候,程序需要先根据键值对的键计算出哈希值和索引值,然后再根据索引值,将包含新键值对的哈希表节点放到哈希表数组的指定索引位置上面
Redis
计算哈希值和索引值的方法如下:
使用字典设置的哈希函数,计算键的哈希值
hash = dict -> type -> hashFunction(key);
使用哈希表的
sizemask
属性和哈希值计算出索引值根据情况不同,
ht[x]
可以是ht[0]
或者是ht[1]
index = hash & dict -> ht[x].sizemask;
当字典被用作数据库的底层实现,或者哈希键的底层实现时,Redis
使用MurmurHash2
算法来计算键的哈希值
解决键冲突
当有两个或以上数量的键被分配到了哈希表数组的同一个索引上面 时,我们称这些键发生了冲突(collision)
Redis
的哈希表使用拉链法(链地址法/separate chaining)来解决键冲突
每个哈希表节点都有一个next
指针,多个哈希表节点可以用next
指针构成一个单向链表,被分配到同一个索引上的多个节点可以用这个单向链表连接起来,这就解决了键冲突问题
源码分析
1 |
|
新节点加入的逻辑中,是直接将新节点的next
指向当前索引位置的节点,然后更新索引位置的指针为当前新加入的节点
这个过程即为头插法的实现,即每次新节点都会放在链表的头部,这种方式将插入的复杂度固定在O(1)
rehash
随着操作的不断执行,哈希表保存的键值对会逐渐地增多或者减少,为了让哈希表的负载因子(load factor)维持在一个合理的范围之内,当哈希表保存的键值对数量太多或者太少时,程序需要对哈希表的大小进行相应的扩展或者收缩
扩展和收缩哈希表的工作可以通过执行rehash
(重新散列)操作来完成,Redis
对字典的哈希表执行rehash
的步骤如下:
为字典的
ht[1]
哈希表分配空间,这个哈希表的空间大小取决于要执行的操作和ht[0]
当前包含的键值对数量(也就是ht[0].used
属性的值)如果执行的是扩展操作,那么
ht[1]
的大小为第一个大于等于$ht[0].used * 2$的$2^n$如果执行的是收缩操作,那么
ht[1]
的大小为第一个大于等于$ht[0].used$的$2^n$
将保存在
ht[0]
中的所有键值对rehash
到ht[1]
上面rehash
指的是重新计算键的哈希值和索引值,然后将键值对放置到ht[1]
哈希表的指定位置上当
ht[0]
包含的所有键值对都迁移到了ht[1]
之后(ht[0]
变为空表),释放ht[0]
,将ht[1]
设置为ht[0]
(交换指针),并在ht[1]
新创建一个空白哈希表,为下一次rehash
做准备
举个栗子🌰
假设程序要对下图所示的字典的ht[0]
进行扩展操作
ht[0].used
当前的值为$4$,$4*2=8$,而$8$($2^3$)恰好是第一个大于等于$4$的$2$的$n$次方,所以程序会将ht[1]
哈希表的大小设置为$8$将
ht[0]
包含的四个键值对都rehash
到ht[1]
释放
ht[0]
,并将ht[1]
设置为ht[0]
,然后为ht[1]
分配一个空白哈希表至此,对哈希表的扩展操作执行完毕,程序成功将哈希表的大小从原来的$4$扩大到了现在的$8$
哈希表的扩展与收缩
扩展
当以下条件中的任意一个被满足时,程序会自动开始对哈希表执行扩展操作
- 服务器目前没有在执行
BGSAVE
命令或者BGREWRITEAOF
命令,并且哈希表的负载因子大于等于$1$ - 服务器目前正在执行
BGSAVE
命令或者BGREWRITEAOF
命令,并且哈希表的负载因子大于$5$
其中,哈希表负载因子的计算公式为:
$$
LoadFactor = ht[0].used / ht[0].size
$$
根据
BGSAVE
或者BGREWRITEAOF
命令是否正在执行,服务器执行扩展操作所需的负载因子并不相同,这是因为在执行BGSAVE
或者BGREWRITEAOF
命令的过程中,Redis
需要创建当前服务器进程的子进程,而大多数操作系统都是采用写时复制(copy-on-write)技术来优化子进程的使用效率,所以在子进程存在期间,服务器会提高执行扩展操作所需的负载因子,从而尽可能地避免在子进程存在期间进行哈希表扩展操作,这可以 避免不必要的内存写入操作,最大限度地节约内存
源码分析
dict.c/_dictExpandIfNeeded
1 |
|
- 当
dict_can_resize
开关处于启用状态,并且负载因子大于等于1时,会进行扩容 - 当负载因子大于
dict_force_resize_ratio
时,会强制进行扩容
当Redis
执行BGSAVE
或者BGREWRITEAOF
命令时,会使用dictDisableResize
函数关闭dict_can_resize
开关,尽可能不进行扩容;而当哈希表的负载因子超过了强制扩容的上限(目前这个值设置的是$5$)时,也会强制进行扩容以保证哈希表的性能
1 |
|
收缩
当哈希表的负载因子小于$0.1$时,程序自动开始对哈希表执行收缩操作
渐进式rehash
扩展或收缩哈希表需要将ht[0]
里面的所有键值对rehash
到ht[1]
里面,但是,这个rehash
动作并不是一次性、集中式完成的,而是分多次、渐进式完成的
原因在于,如果ht[0]
里面只保存着四个键值对,那么服务器可以在瞬间就将这些键值对全部rehash
到ht[1]
;但是,如果哈希表里面保存着上万上千万甚至上亿个键值对的时候,那么一次性将这些键值对全部rehash
到ht[1]
的话,庞大的计算量可能会导致服务器在一段时间内停止服务
因此,为了避免rehash
对服务器性能造成影响,服务器不是一次性将ht[0]
里面的键值对全部rehash
到ht[1]
,而是分多次、渐进式地将ht[0]
里面的键值对慢慢地rehash
到ht[1]
上
以下是哈希表渐进式rehash
的详细步骤:
- 为
ht[1]
分配空间,让字典同时持有ht[0]
和ht[1]
两个哈希表 - 在字典中维持一个索引计数器变量
rehashidx
,并将它的值设置为$0$,表示rehash
工作正式开始 - 在
rehash
进行期间,每次对字典执行添加、删除、查找或者更新操作时,程序除了执行指定的操作以外,还会顺带将ht[0]
哈希表在rehashidx
索引上的所有键值对rehash
到ht[1]
上,当rehash
工作完成之后,程序将rehashidx`属性的值增一 - 随着字典操作的不断执行,最终在某个时间点上,
ht[0]
的所有键值对都会被rehash
到ht[1]
,这时程序将rehashidx
属性的值设为$-1$,表示rehash
操作已完成
渐进式
rehash
的好处在于它采取了分而治之的方式,将rehash
键值对所需的计算工作均摊到对字典的每个添加、删除、查找和更新操作上,从而避免了集中式rehash
带来的庞大计算量
渐进式rehash执行期间的哈希表操作
因为在进行渐进式rehash
的过程中,字典会同时使用ht[0]
和ht[1]
两个哈希表,所以在渐进式rehash
进行期间,字典的删除、查找、更新等操作会在两个哈希表上进行
- 要在字典里面查找一个键的话,程序会现在
ht[0]
里面进行查找,如果没找到的话 ,就会继续到ht[1]
里面进行查找 - 新添加到字典的键值对一律会被保存到
ht[1]
里面,而ht[0]
则不会再进行任何添加操作,这一措施保证了ht[0]
包含的键值对数量只减不增,并随着rehash
操作的执行而最终变成空表
源码分析
dict.c/dictGenericDelete
1 |
|
总结
- 字典被广泛用于实现
Redis
的各种功能,其中包括数据库和哈希键 Redis
中的字典使用哈希表作为底层实现,每个字典带有两个哈希表,一个平时使用,另一个仅在进行rehash
时使用- 当字典被用作数据库的底层实现,或者哈希键的底层实现时,
Redis
使用MurmurHash2
算法来计算键的哈希值 - 哈希表使用链地址法解决哈希冲突,被分配到同一个索引上的多个键值对会连接成一个单向链表
- 在对哈希表进行扩展或者收缩操作时,程序需要将现有哈希表包含的所有键值对
rehash
到新哈希表里面,并且这个rehash
过程并不是一次性完成,而是渐进式完成地
参考资料
《Redis设计与实现》—— 第四章:字典
huangzworks/redis-3.0-annotated: 带有详细注释的 Redis 3.0 代码(annotated Redis 3.0 source code)。 (github.com)