想要弄清楚Redis内部如何支持5种数据类型,也就是要弄清Redis究竟是使用什么样的数据结构来存储、查找咱们设置在内存中的数据。java
虽然咱们使用5种数据类型来缓存数据,可是Redis会根据咱们存储数据的不一样而选用不一样的数据结构和编码。node
这些数据类型在内存中的数据结构和编码有不少种,随着咱们存储的数据类型的不一样、数据量的大小不一样都会引发内存数据结构的动态调整。redis
本文只是作数据结构和编码的通常性介绍,不作过多细节讨论,一方面是关于Redis源码分析的资料网上有不少,还有一个缘由就是Redis每个版本的实现有很大差别,一旦展开细节讨论,每个点每个数据结构都会很复杂,因此咱们这里就不展开讨论这些,只是起到抛砖引玉做用。算法
咱们知道使用type命令能够查看某个key是不是5种数据类型之一,可是当咱们想查看某个key底层是使用哪一种数据结构和编码来存储的时候,可使用OBJECT encoding命令。sql
一样一个key,因为咱们设置的值不一样,Redis选用了不一样的内存数据结构和编码。虽然Redis提供String数据类型,可是Redis会自动识别咱们cache的数据类型是int仍是String。数据库
若是咱们设置的是字符串,且这个字符串长度不大于39字节,那么将使用embstr来编码;若是大于39字节将使用raw来编码。Redis4.0将这个阀值扩大了45个字节。数组
除了使用OBJECT encoding命令外,咱们还可使用DEBUG OBJECT命令来查看更多详细信息。缓存
DEBUG OBJECT能看到这个对象的refcount引用计数、serializedlength长度、lru_seconds_idle时间,这些信息决定了这个key缓存清除策略。服务器
简单动态字符串简称SDS,在Redis中全部涉及到字符串的地方都是使用SDS实现,固然这里不包括字面量。SDS与传统C字符串的区别就是SDS是结构化的,它能够高效的处理分配、回收、长度计算等问题。数据结构
struct sdshdr { unsigned int len; unsigned int free; char buf[]; };
这是Redis3.0版本的sds.h头文件定义,3.0.0以后变化比较大。len表示字符串长度,free表示空间长度,buf数组表示字符串。
SDS有不少优势,好比,获取长度的时间复杂度O(1),不须要遍历全部charbuf[]组数,直接返回len值。
static inline size_t sdslen(const sds s) { struct sdshdr *sh = (void*)(s-(sizeof(struct sdshdr))); return sh->len; }
固然还有空间分配检查、空间预分配、空间惰性释放等,这些都是SDS结构化字符串带来的强大的扩展能力。
链表数据结构咱们是比较熟悉的,最大的特色就是节点的增、删很是灵活。Redis List数据类型底层就是基于链表来实现。这是Redis3.0实现。
typedef struct list { listNode *head; listNode *tail; void *(*dup)(void *ptr); void (*free)(void *ptr); int (*match)(void *ptr, void *key); unsigned long len; } list; typedef struct listNode { struct listNode *prev; struct listNode *next; void *value; } listNode;
在Redis3.2.0版本的时候引入了quicklist链表结构,结合了linkedlist和ziplist的优点。
typedef struct quicklist { quicklistNode *head; quicklistNode *tail; unsigned long count; /* total count of all entries in all ziplists */ unsigned int len; /* number of quicklistNodes */ int fill : 16; /* fill factor for individual nodes */ unsigned int compress : 16; /* depth of end nodes not to compress;0=off */ } quicklist; typedef struct quicklistNode { struct quicklistNode *prev; struct quicklistNode *next; unsigned char *zl; unsigned int sz; /* ziplist size in bytes */ unsigned int count : 16; /* count of items in ziplist */ unsigned int encoding : 2; /* RAW==1 or LZF==2 */ unsigned int container : 2; /* NONE==1 or ZIPLIST==2 */ unsigned int recompress : 1; /* was this node previous compressed? */ unsigned int attempted_compress : 1; /* node can't compress; too small */ unsigned int extra : 10; /* more bits to steal for future usage */ } quicklistNode;
quicklist提供了灵活性同时也兼顾了ziplist的压缩能力,quicklist->encoding指定了两种压缩算法。quickList->compress表示咱们能够进行quicklist node的深度压缩能力。Redis提供了两个有关于压缩的配置:
对比Redis3.2的quicklist与Redis3.0,很明显quicklist提供了更加丰富的压缩功能。Redis3.0的版本是每一个listnode直接缓存值,而quicklistnode还有强大的有关于压缩能力。
LPUSH list:products:mall 100 200 300 (integer) 3 OBJECT encoding list:products:mall "quicklist"
dict字典是基于Hash算法来实现,是Hash数据类型的底层存储数据结构。咱们来看下Redis3.0.0版本的dict.h头文件定义:
typedef struct dict { dictType *type; void *privdata; dictht ht[2]; long rehashidx; int iterators; } dict; typedef struct dictht { dictEntry **table; unsigned long size; unsigned long sizemask; unsigned long used; } dictht; typedef struct dictEntry { void *key; union { void *val; uint64_t u64; int64_t s64; double d; } v; struct dictEntry *next; } dictEntry;
说到Hash table有两个东西是咱们常常会碰到的,首先就是Hash碰撞问题,Redis dict是采用链地址法来解决,dictEntry->next就是指向下个冲突key的节点。
还有一个常常碰到的就是rehash的问题,提到rehash咱们仍是有点担忧性能的。那么Redis实现是很是巧妙的,采用惰性渐进式rehash算法。
在dict struct里有一个ht[2]组数,还有一个rehashidx索引。Redis进行rehash的大体算法是这样的:
首先会开辟一个新的dictht空间,放在ht[2]索引上,此时将rehashidx设置为0,表示开始进入rehash阶段,这个阶段可能会持续很长时间,rehashidx表示dictEntry个数。每次当有对某个ht[1]索引中的key进行访问时,获取、删除、更新,Redis都会将当前dictEntry索引中的全部key rehash到ht[2]字典中。一旦rehashidx=-1表示rehash结束。
skip list是Zset的底层数据结构,有着高性能的查找排序能力。
咱们都知道通常用来实现带有排序的查找都是用Tree实现,无论是各类变体的B Tree仍是B+Tree,本质都是用来作顺序查找。
skip list实现起来简单,性能也与B Tree相接近。
typedef struct zskiplistNode { robj *obj; double score; struct zskiplistNode *backward; struct zskiplistLevel { struct zskiplistNode *forward; unsigned int span; } level[]; } zskiplistNode; typedef struct zskiplist { struct zskiplistNode *header, *tail; unsigned long length; int level; } zskiplist;
zskiplistNode->zskiplistLevel->span这个值记录了当前节点距离下个节点的跨度。每个节点会有最大不超过zskiplist->level节点个数,分别用来表示不一样跨度与节点的距离。
每一个节点会有多个forward向前指针,只有一个backward指针。每一个节点会有对象__*obj__和score分值,每一个分值都会按照顺序排列。
int set整数集合是set数据类型的底层实现数据结构,它的特色和使用场景很明显,只要咱们使用的集合都是整数且在必定的范围以内,都会使用整数集合编码。
SADD set:userid 100 200 300 (integer) 3 OBJECT encoding set:userid "intset"
int set使用一块连续的内存来存储集合数据,它是数组结构不是链表结构。
typedef struct intset { uint32_t encoding; uint32_t length; int8_t contents[]; } intset;
intset->encoding用来肯定contents[]是什么类型的整数编码,如下三种值之一:
#define INTSET_ENC_INT16 (sizeof(int16_t)) #define INTSET_ENC_INT32 (sizeof(int32_t)) #define INTSET_ENC_INT64 (sizeof(int64_t))
Redis会根据咱们设置的值类型动态sizeof出一个对应的空间大小。若是咱们集合原来是int16,而后往集合里添加了int32整数将触发升级,一旦升级成功不会触发降级操做。
zip list压缩表是List、Zset、Hash数据类型的底层数据结构之一。它是为了节省内存经过压缩数据存储在一块连续的内存空间中。
typedef struct zlentry { unsigned int prevrawlensize, prevrawlen; unsigned int lensize, len; unsigned int headersize; unsigned char encoding; unsigned char *p; } zlentry;
它最大的优势就是压缩空间,空间利用率很高。缺点就是一旦出现更新可能就是连锁更新,由于数据在内容空间中都是连续的,最极端状况下就是可能出现顺序连锁扩张。
压缩列表会由多个zlentry节点组成,每个zlentry记录上一个节点长度和大小,当前节点长度lensize和大小len包括编码encoding。
这取决于业务场景,Redis提供了一组配置,专门用来针对不一样的场景进行阈值控制:
hash-max-ziplist-entries 512 hash-max-ziplist-value 64 list-max-ziplist-entries 512 list-max-ziplist-value 64 zset-max-ziplist-entries 128 zset-max-ziplist-value 64
上述配置分别用来配置ziplist做为Hash、List、Zset数据类型的底层压缩阈值控制。
Redis内部每一种数据类型都是对象化的,也就是咱们所说的5种数据类型其实内部都会对应到Redis Object对象,而后再由Redis Object来包装具体的存储数据结构和编码。
typedef struct redisObject { unsigned type:4; unsigned encoding:4; unsigned lru:REDIS_LRU_BITS; int refcount; void *ptr; } robj;
这是一个很OO的设计,redisObject->type是5种数据类型之一,redisObject->encoding是这个数据类型所使用的数据结构和编码。
咱们看下Redis提供的5种数据类型与每一种数据类型对应的存储数据结构和编码。
/* Object types */ #define REDIS_STRING 0 #define REDIS_LIST 1 #define REDIS_SET 2 #define REDIS_ZSET 3 #define REDIS_HASH 4 #define REDIS_ENCODING_RAW 0 #define REDIS_ENCODING_INT 1 #define REDIS_ENCODING_HT 2 #define REDIS_ENCODING_ZIPMAP 3 #define REDIS_ENCODING_LINKEDLIST 4 #define REDIS_ENCODING_ZIPLIST 5 #define REDIS_ENCODING_INTSET 6 #define REDIS_ENCODING_SKIPLIST 7 #define REDIS_ENCODING_EMBSTR 8
REDIS_ENCODING_ZIPMAP 3这个编码能够忽略了,在特定的状况下有性能问题,在Redis 2.6版本以后已经废弃,为了兼容性保留。
图是Redis 5种数据类型与底层数据结构和编码的对应关系:
可是这种对应关系在每个版本中都会有可能发生变化,这也是Redis Object的灵活性所在,有着OO的这种多态性。
Redis在服务端分别为不一样的db index维护一个dict,这个dict称为key space键空间。每个RedisClient只能属于一个db index,在Redis服务端会维护每个连接的RedisClient。
typedef struct redisClient { uint64_t id; int fd; redisDb *db; } redisClient;
在服务端每个Redis客户端都会有一个指向redisDb的指针。
typedef struct redisDb { dict *dict; dict *expires; dict *blocking_keys; dict *ready_keys; dict *watched_keys; struct evictionPoolEntry *eviction_pool; int id; long long avg_ttl; } redisDb;
key space键空间就是这里的redisDb->dict。redisDb->expires是维护全部键空间的每个key的过时时间。
对于一个key咱们能够设置它多少秒、毫秒以后过时,也能够设置它在某个具体的时间点过时,后者是一个时间戳。例如:
其实上述命令最终都会被转换成对PEXPIREAT命令。在redisDb->expires指向的key字典中维护着一个到期的毫秒时间戳。
TTL、PTTL能够经过这两个命令查看某个key的过时秒、毫秒数。
Redis内部有一个事件循环,这个事件循环会检查键的过时时间是否小于当前时间,若是小于则会删除这个键。
在使用Redis的时候咱们最关心的就是键是如何被删除的,如何高效准时地删除某个键。其实Redis提供了两个方案来完成这件事情:惰性删除、按期删除双重删除策略。
惰性删除:当咱们访问某个key的时候,Redis会检查它是否过时。
robj *lookupKeyRead(redisDb *db, robj *key) { robj *val; expireIfNeeded(db,key); val = lookupKey(db,key); if (val == NULL) server.stat_keyspace_misses++; else server.stat_keyspace_hits++; return val; } int expireIfNeeded(redisDb *db, robj *key) { mstime_t when = getExpire(db,key); mstime_t now; if (when < 0) return 0; /* No expire for this key */ if (server.loading) return 0; now = server.lua_caller ? server.lua_time_start : mstime(); if (server.masterhost != NULL) return now > when; /* Return when this key has not expired */ if (now <= when) return 0; /* Delete the key */ server.stat_expiredkeys++; propagateExpire(db,key); notifyKeyspaceEvent(REDIS_NOTIFY_EXPIRED,"expired",key,db->id); return dbDelete(db,key); }
按期删除:Redis经过事件循环,周期性地执行key的过时删除动做。
int serverCron(struct aeEventLoop *eventLoop, long long id, void *clientData) { /* Handle background operations on Redis databases. */ databasesCron(); } void databasesCron(void) { /* Expire keys by random sampling. Not required for slaves * as master will synthesize DELs for us. */ if (server.active_expire_enabled && server.masterhost == NULL) activeExpireCycle(ACTIVE_EXPIRE_CYCLE_SLOW); }
要注意的是:
既然键会随时存在过时问题,那么涉及到持久化Redis是如何帮咱们处理的?
当Redis使用RDB方式持久化时,每次持久化的时候就会检查这些即将被持久化的key是否已通过期,若是过时将直接忽略,持久化那些没有过时的键。
当Redis做为master主服务器启动的时候,载入rdb持久化键时也会检查这些键是否过时,将忽略过时的键,只载入没过时的键。
当Redis使用AOF方式持久化时,每次遇到过时的key Redis会追加一条DEL命令到AOF文件,也就是说只要咱们顺序载入执行AOF命令文件就会删除过时的键。
若是Redis做为从服务器启动的话,它一旦与master主服务器创建连接就会清空全部数据进行完整同步。固然新版本的Redis支持SYCN2的半同步,若是是已经创建了master/slave主从同步以后,主服务器会发送DEL命令给全部从服务器执行删除操做。
在使用Redis的时候咱们会设置maxmemory选项,64位的默认是0不限制。线上的服务器必需要设置的,要否则颇有可能致使Redis宿主服务器直接内存耗尽,最后连接都上不去。
因此基本要设置两个配置:
能够经过CONFIG GET maxmemory/maxmemory-policy分别查看这两个配置值,也能够经过CONFIG SET去分别配置。
关于cache的命中率能够经过info命令查看键空间的命中率和未命中率。
# Stats keyspace_hits:33 keyspace_misses:5
maxmemory在到达阈值的时候会采用必定的策略去释放内存,这些策略咱们能够根据本身的业务场景来选择,默认是noeviction 。
Redis LRU算法有一个取样的优化机制,能够经过必定的取样因子来增强回收的key的准确度。CONFIG GET maxmemory-samples查看取样配置,具体能够参考更加详细的文章。
Redis自己提供持久化功能,有两种持久化机制,一种是数据持久化RDB,一种是命令持久化AOF,这两种持久化方式各有优缺点,也能够组合使用。一旦组合使用,Redis在载入数据的时候会优先载入aof文件,只有当AOF持久化关闭的时候才会载入rdb文件。
RDB是Redis数据库,Redis会根据一个配置来触发持久化:
#save <seconds> <changes> save 900 1 save 300 10 save 60 10000 CONFIG GET save 1) "save" 2) "3600 1 300 100 60 10000"
表示在多少秒之类的变化次数,一旦达到这个触发条件Redis将触发持久化动做。
Redis在执行持久化的时候有两种模式BGSAVE、SAVE:
struct redisServer { long long dirty;/* Changes to DB from the last save */ time_t lastsave; /* Unix time of last successful save */ long long dirty_before_bgsave; pid_t rdb_child_pid;/* PID of RDB saving child */ struct saveparam *saveparams; /* Save points array for RDB */ } struct saveparam { time_t seconds; int changes; };
RedisServer包含的信息不少,其中就包含了有关于RDB持久化的信息。
redisServer->dirty至上次save到目前为止的change数。redisServer->lastsave上次save时间。
saveparam struct保存了咱们经过save命令设置的参数,time_t是个long时间戳。
typedef __darwin_time_t time_t; typedef long __darwin_time_t; /* time() */ int serverCron(struct aeEventLoop *eventLoop, long long id, void *clientData) { for (j = 0; j < server.saveparamslen; j++) { struct saveparam *sp = server.saveparams+j; if (server.dirty >= sp->changes && server.unixtime-server.lastsave > sp->seconds && (server.unixtime-server.lastbgsave_try > REDIS_BGSAVE_RETRY_DELAY || server.lastbgsave_status == REDIS_OK)) { redisLog(REDIS_NOTICE,"%d changes in %d seconds. Saving...", sp->changes, (int)sp->seconds); rdbSaveBackground(server.rdb_filename); break; } } }
Redis事件循环会周期性的执行serverCron方法,这段代码会循环遍历server.saveparams参数链表。
若是server.dirty大于等于咱们参数里配置的变化而且server.unixtime-server.lastsave大于参数里配置的时间,而且server.unixtime-server.lastbgsave_try减去bgsave重试延迟时间,或者当前server.lastbgsave_status== REDIS_OK则执行rdbSaveBackground方法。
AOF持久化是采用对文件进行追加对方式进行,每次追加都是Redis处理的命令。有点相似command sourcing命令溯源的模式,只要咱们能够将全部的命令按照执行顺序在重放一遍就能够还原最终的Redis内存状态。
AOF持久化最大的优点是能够缩短数据丢失的间隔,作到秒级的丢失率。RDB会丢失上一个保存周期到目前的全部数据,只要没有触发save命令设置的save seconds changes阈值数据就会一直不被持久化。
struct redisServer { /* AOF buffer, written before entering the event loop */ sds aof_buf; } struct sdshdr { unsigned int len; unsigned int free; char buf[]; };
aof_buf是命令缓存区,采用sds结构缓存,每次当有命令被执行当时候都会写一次到aof_buf中。有几个配置用来控制AOF持久化的机制。
appendonly no appendfilename "appendonly.aof"
appendonly用来控制是否开启AOF持久化,appendfilename用来设置aof文件名。
appendfsync always appendfsync everysec appendfsync no
appendfsync用来控制命令刷盘机制。如今操做系统都有文件cache/buffer的概念,全部的写入和读取都会走cache/buffer,并不会每次都同步刷盘,由于这样性能必定会受影响。因此Redis也提供了这个选项让咱们来本身根据业务场景控制。
AOF也是采用后台子进程的方式进行,与主进程共享数据空间也就是aof_buf,可是只要开始了AOF子进程以后Redis事件循环文件事件处理器会将以后的命令写入另一个aof_buf,这样就能够作到平滑的切换。
AOF会不断的追加命令进aof文件,随着时间和并发量的加大aof文件会极速膨胀,因此有必要对这个文件大小进行优化。Redis基于rewrite重写对文件进行压缩。
no-appendfsync-on-rewrite no/yes auto-aof-rewrite-percentage 100 auto-aof-rewrite-min-size 64mb
no-appendfsync-on-rewrite控制是否在bgrewriteaof的时候还须要进行命令追加,若是追加可能会出现磁盘IO跑高现象。
上面说过,当AOF进程在执行的时候原来的事件循环还会正常的追加命令进aof文件,同时还会追加命令进另一个aof_buf,用来作新aof文件的重写。这是两条并行的动做,若是咱们设置成yes就不追加原来的aof_buf 由于新的aof文件已经包含了以后进来的命令。
auto-aof-rewrite-percentage和auto-aof-rewrite-min -size64mb这两个配置前者是文件增加百分比来进行rewrite,后者是按照文件大小增加进行rewrite
欢迎欢迎学Java的朋友们加入java架构交流: 855835163 群内提供免费的Java架构学习资料(里面有高可用、高并发、高性能及分布式、Jvm性能调优、Spring源码,MyBatis,Netty,Redis,Kafka,Mysql,Zookeeper,Tomcat,Docker,Dubbo,Nginx等多个知识点的架构资料)合理利用本身每一分每一秒的时间来学习提高本身,不要再用"没有时间“来掩饰本身思想上的懒惰!趁年轻,使劲拼,给将来的本身一个交代!