#内存分配
Redis对 malloc、free、calloc、realloc 等库函数进行了包装(zmalloc.c, zmalloc.h),把需要申请的内存的大小放在申请内存的前端,free的时候就知道这次free的内存大小。
(以下两个函数去掉编译宏,仅仅适合linux环境使用原生malloc)
#define PREFIX_SIZE (sizeof(size_t))
void *zmalloc(size_t size) {
void *ptr = malloc(size+PREFIX_SIZE);
*((size_t*)ptr) = size;
update_zmalloc_stat_alloc(size+PREFIX_SIZE,size);
return (char*)ptr+PREFIX_SIZE;
}
void zfree(void *ptr) {
void *realptr;
size_t oldsize;
if (ptr == NULL) return;
realptr = (char*)ptr-PREFIX_SIZE;
oldsize = *((size_t*)realptr);
update_zmalloc_stat_free(oldsize+PREFIX_SIZE);
free(realptr);
}
update_zmalloc_stat_alloc 会记录全局的内存申请状况 (used_memory),与 redis.conf 里的 maxmmory 就能够控制全局的内存使用。另外还会并对内存划分的大小分组记录(zmalloc_allocations),这样你就对key-value的大小分布非常的清楚,便于接下来的迁移、合并工作。
对于一些程序常见的字符串(例如协议内的\r\n,OK,error,pong),Redis 提前为我们产生了对象,这样再用的使用就不会额外的申请内存。
struct sharedObjectsStruct shared;
struct sharedObjectsStruct
{
robj *crlf, *ok, *err, *emptybulk, *czero, *cone, *cnegone, *pong, *space,
*colon, *nullbulk, *nullmultibulk, *queued,
*emptymultibulk, *wrongtypeerr, *nokeyerr, *syntaxerr, *sameobjecterr,
*outofrangeerr, *loadingerr, *plus,
*select[REDIS_SHARED_SELECT_CMDS],
*messagebulk, *pmessagebulk, *subscribebulk, *unsubscribebulk, *mbulk3,
*mbulk4, *psubscribebulk, *punsubscribebulk,
*integers[REDIS_SHARED_INTEGERS];
};
还有从 1 到 REDIS_SHARED_INTEGERS (一般为1000)的数字都已经预分配好了。
for (j = 0; j < REDIS_SHARED_INTEGERS; j++) {
shared.integers[j] = createObject(REDIS_STRING,(void*)(long)j);
shared.integers[j]->encoding = REDIS_ENCODING_INT;
}
当使用这个数字,不需要在栈,或者堆上申请而是引用计数的使用这些不变对象,在很多虚拟机语言里也常被使用,利用 Python,java。
##如何评估内存的使用大小?
redis是个内存全集的kv数据库,不存在部分数据在磁盘部分数据在内存里的情况,所以提前预估和节约内存非常重要.本文将以最常用的string和zipmap两类数据结构在jemalloc内存分配器下的内存容量预估和节约内存的方法.
先说说jemalloc,传说中解决firefox内存问题freebsd的默认malloc分配器,area,thread-cache功能和tmalloc非常的相识.在2.4版本被redis引入,在antirez的博文中提到内节约30%的内存使用.相比glibc的malloc需要在每个内存外附加一个额外的4字节内存块,jemalloc可以通过je_malloc_usable_size函数获得指针实际指向的内存大小,这样redis里的每个key或者value都可以节约4个字节,不少阿.
下面是jemalloc size class categories,左边是用户申请内存范围,右边是实际申请的内存大小.这张表后面会用到.
1 - 4 size class:4 5 - 8 size class:8 9 - 16 size class:16 17 - 32 size class:32 33 - 48 size class:48 49 - 64 size class:64 65 - 80 size class:80 81 - 96 size class:96 97 - 112 size class:112 113 - 128 size class:128 129 - 192 size class:192 193 - 256 size class:256 257 - 320 size class:320 321 - 384 size class:384 385 - 448 size class:448 449 - 512 size class:512 513 - 768 size class:768 769 - 1024 size class:1024 1025 - 1280 size class:1280 1281 - 1536 size class:1536 1537 - 1792 size class:1792 1793 - 2048 size class:2048 2049 - 2304 size class:2304 2305 - 2560 size class:2560 STRING string类型看似简单,但还是有几个可优化的点.先来看一个简单的set命令所添加的数据结构.
一个set hello world命令最终(中间会malloc,free的我们不考虑)会产生4个对象,一个dictEntry(12字节),一个sds用于存储key,还有一个redisObject(12字节),还有一个存储string的sds.sds对象除了包含字符串本生之外,还有一个sds header和额外的一个字节作为字符串结尾共9个字节.
51 sds sdsnewlen(const void *init, size_t initlen) { 52 struct sdshdr *sh; 53 54 sh = zmalloc(sizeof(struct sdshdr)+initlen+1);
39 struct sdshdr { 40 int len; 41 int free; 42 char buf[]; 43 }; 根据jemalloc size class那张表,这个命令最终申请的内存为16(dictEtnry) + 16 (redisObject) + 16(“hello”) + 16(“world”),一共64字节.注意如果key或者value的字符串长度+9字节超过16字节,则实际申请的内存大小32字节.
提一下string常见的优化方法
尽量使VALUE为纯数字
这样字符串会转化成int类型减少内存的使用.
37 void setCommand(redisClient c) { 38 c->argv[2] = tryObjectEncoding(c->argv[2]); 39 setGenericCommand(c,0,c->argv[1],c->argv[2],NULL); 40 } object.c ======= 275 o->encoding = REDIS_ENCODING_INT; 276 sdsfree(o->ptr); 277 o->ptr = (void) value; 可以看到sds被释放了,数字被存储在指针位上,所以对于set hello 1111111就只需要48字节的内存.
调整REDIS_SHARED_INTEGERS
如果value数字小于宏REDIS_SHARED_INTEGERS(默认10000),则这个redisObject也都节省了,使用redis Server启动时的share Object.
269 if (server.maxmemory == 0 && value >= 0 && value < REDIS_SHARED_INTEGERS && 270 pthread_equal(pthread_self(),server.mainthread)) { 271 decrRefCount(o); 272 incrRefCount(shared.integers[value]); 273 return shared.integers[value]; 274 } 这样一个set hello 111就只需要32字节,连redisObject也省了.所以对于value都是小数字的应用,适当调大REDIS_SHARED_INTEGERS这个宏可以很好的节约内存.
出去kv之外,dict的bucket逐渐变大也需要消耗内存,bucket的元素是个指针(dictEntry**), 而bucket的大小是超过key个数向上求整的2的n次方,对于1w个key如果rehash过后就需要16384个bucket.
开始string类型的容量预估测试, 脚本如下
#! /bin/bash
redis-cli info|grep used_memory:
for (( start = 10000; start < 30000; start++ )) do redis-cli set a$start baaaaaaaa$start > /dev/null done
redis-cli info|grep used_memory: 根据上面的总结我们得出string公式
string类型的内存大小 = 键值个数 * (dictEntry大小 + redisObject大小 + 包含key的sds大小 + 包含value的sds大小) + bucket个数 * 4
下面是我们的预估值
20000 * (16 + 16 + 16 + 32) + 32768 * 4 1731072 运行一下测试脚本
hoterran@~/Projects/redis-2.4.1$ bash redis-mem-test.sh used_memory:564352 used_memory:2295424 计算一下差值
2295424 - 564352 1731072 都是1731072,说明预估非常的准确, ^_^
ZIPMAP 这篇文章已经解释zipmap的效果,可以大量的节约内存的使用.对于一个普通的subkey和value,只需要额外的3个字节(keylen,valuelen,freelen)来存储,另外的hash key也只需要额外的2个字节(zm头尾)来存储subkey的个数和结束符.
zipmap类型的内存大小 = hashkey个数 * (dictEntry大小 + redisObject大小 + 包含key的sds大小 + subkey的总大小) + bucket个数 * 4
开始容量预估测试,100个hashkey,其中每个hashkey里包含300个subkey, 这里key+value的长度为5字节
#! /bin/bash
redis-cli info|grep used_memory:
for (( start = 100; start < 200; start++ )) do for (( start2 = 100; start2 < 400; start2++ )) do redis-cli hset test$start a$start2 "1" > /dev/null done done
redis-cli info|grep used_memory: 这里subkey是同时申请的的,大小是300 * (5 + 3) + 2 =2402字节,根据上面jemalloc size class可以看出实际申请的内存为2560.另外100hashkey的bucket是128.所以总的预估大小为
100 * (16 + 16 + 16 + 2560) + 128 * 4 261312 运行一下上面的脚本
hoterran@~/Projects/redis-2.4.1$ bash redis-mem-test-zipmap.sh used_memory:555916 used_memory:817228 计算一下差值
817228 - 555916 261312 是的完全一样,预估很准确.
另外扯扯zipmap的一个缺陷,zipmap用于记录subkey个数的zmlen只有一个字节,超过254个subkey后则无法记录,需要遍历整个zipmap才能获得subkey的个数.而我们现在常把hash_max_zipmap_entries设置为1000,这样超过254个subkey之后每次hset效率都很差.
354 if (zm[0] < ZIPMAP_BIGLEN) { 355 len = zm[0]; //小于254,直接返回结果 356 } else { 357 unsigned char p = zipmapRewind(zm); //遍历zipmap 358 while((p = zipmapNext(p,NULL,NULL,NULL,NULL)) != NULL) len++; 359 360 / Re-store length if small enough */ 361 if (len < ZIPMAP_BIGLEN) zm[0] = len; 362 } 简单把zmlen设置为2个字节(可以存储65534个subkey)可以解决这个问题,今天和antirez聊了一下,这会破坏rdb的兼容性,这个功能改进推迟到3.0版本,另外这个缺陷可能是weibo的redis机器cpu消耗过高的原因之一.
当达到使用内存 userd_memory 达到 maxmemory,就要通过删除键值来减少内存的使用,否则命令无法执行。
- volatile-lru -> 用 LRU 算法,删除过期的键值来达到节约内存的目的。
- allkeys-lru -> 用 LRU 算法,删除任意的键值,这里的任意包括过期的键值,和非过期正在使用的键值。
- volatile-random -> 用随机算法,删除过期的键值。
- allkeys->random -> 用随机算法,删除任意键值。
- volatile-ttl -> 删除马上就要过期的键值
- noeviction -> 不做任何操作,直接报错。
这里的 LRU 算法,和 mintor TTL 算法,严格按照算法来说,需要遍历所有的键值才能知道谁才是应该被删除的,但这样效率太差了。 于是有另外一个参数,取样次数来决定,在几次的范围内,使用 LRU,或者 TTL算法阿。
默认的策略是 volatile-lru,我们看这种算法的实现。
for (k = 0; k < server.maxmemory_samples; k++) {
sds thiskey;
long thisval;
robj *o;
de = dictGetRandomKey(dict);
thiskey = dictGetEntryKey(de);
/* When policy is volatile-lru we need an additonal lookup
* to locate the real key, as dict is set to db->expires. */
if (server.maxmemory_policy == REDIS_MAXMEMORY_VOLATILE_LRU)
de = dictFind(db->dict, thiskey);
o = dictGetEntryVal(de);
thisval = estimateObjectIdleTime(o);
/* Higher idle time is better candidate for deletion */
if (bestkey == NULL || thisval > bestval) {
bestkey = thiskey;
bestval = thisval;
}
}
maxmemory_samples 就是取样次数。这里的 dict 是 db->expires,从过期库里取出一个dictEntry,拿到他的键 thiskey。 再拿到这个键值在正常库里的dictEntry,再通过 estimateObjectIdleTime 拿到这个键值的 LRU 时间。 取 maxmemory_samples 次后,LRU 时间最大的键 thiskey,再把其删除
estimateObjectIdleTime 是如何拿到键的 LRU 时间内?
我们知道 server.lruclock 类似于时间戳,在 serverCron 里每 100ms 被更新一次。
int serverCron(struct aeEventLoop *eventLoop, long long id, void *clientData)
{
...
updateLRUClock();
...
}
而每个键值,再被访问的时候,会把 server.lruclock 写入键值内,这就是键值的 lruclock 了,我们就是通过键值的 lruclock 来判断 LRU 时间的。
robj *lookupKey(redisDb *db, robj *key) {
....
robj *val = dictGetEntryVal(de);
if (server.bgsavechildpid == -1 && server.bgrewritechildpid == -1)
val->lru = server.lruclock;
上面的代码有个有趣的地方,当在做快照的时候,就不要更新 lruclock,因为这会造成做快照的子进程有大量的 copy on write 的行为。