• redis-09 选择合适redis数据结构,减少80%的内存占用


    前言

      redis是一个纯内存的数据库,在存放大量数据时,内存的占用将会非常可观。那么在一些场景下,通过选用合适数据结构来存储,可以大幅减少内存的占用,甚至于可以减少80%-99%的内存占用。

    利用 zipList 来代替大量的 key-value

      先来看一下场景,在 广告系统、海量用户系统 经常会碰到这样的需求,要求根据用户的某个唯一标识迅速到该用户id。譬如根据 uuid 或 手机号的md5,去查询到该用户的id。

      特点是数据量很大、千万或亿级别,key 是比较长的字符串,如32位的md5 或者 uuid这种。

      如果不加以处理,直接以 key-value 形式进行存储,我们可以简单测试一下,往redis里插入1千万条数据,1550000000 - 1559999999,形式就是key(md5(1550000000))→ value(1550000000)这种。 

      通过 info memory 命令看了下内存消耗情况,发现这 1 千万条数据,占用 redis 内存 1.17GB。当数据量变成 1 亿时,实测大约占用 8GB。

      同样的数据,利用 zipList 结构存储,内存只占用 123MB,大约减少了 85% 的内存空间。这个到底是为什么呢?redis 底层怎么帮我们做的优化呢?

    redis 底层存储结构剖析

      具体详情可以参考我的一篇博文:redis-02 五种类型底层数据结构

      从上一篇博文我们可以知道,string 底层存储,redis 共用了三种方式:int、embstr 和 raw。

      int是一种定长的结构,占8个字节(注意,相当于java里的long),只能用来存储长整形。

      embstr是动态扩容的,每次扩容1倍,超过1M时,每次只扩容1M。

      raw用来存储大于44个字节的字符串。

      第一个优化点:

      具体到我们的案例中,key是32个字节的字符串(embstr),value是一个长整形(int),所以如果能将32位的md5变成int,那么在key的存储上就可以直接减少3/4的内存占用。

     redis如何存储Hash

      直接使用上一篇博文的图来看一下:

      

       而对应的 zipList 存储结果如下:

      

       可以看到,zipList最大的特点就是,它根本不是hash结构,而是一个比较长的字符串,将key-value都按顺序依次摆放到一个长长的字符串里来存储。如果要找某个key的话,就直接遍历整个长字符串就好了。

      所以很明显,zipList要比hashTable占用少的多的空间。但是会耗费更多的cpu来进行查询。而且从第一个图也可以得知,什么时候会使用 zipList 结构来存储数据。

      那第二个优化点就来了

      第二个优化点:

     用zipList来代替key-value

      通过上面的知识,我们得出了两个结论。用int作为key,会比string省很多空间。用hash中的zipList,会比key-value省巨大的空间。

      那么我们就来改造一下当初的1千万个key-value。

      第一步:

      我们要将1千万个键值对,放到N个bucket中,每个bucket是一个redis的hash数据结构,并且要让每个bucket内不超过默认的512个元素,以避免hash将编码方式从zipList变成hash。

      1千万 / 512 = 19531。由于将来要将所有的key进行哈希算法,来尽量均摊到所有bucket里,但由于哈希函数的不确定性,未必能完全平均分配。所以我们要预留一些空间,譬如我分配25000个bucket,或 30000个bucket。

      第二步:

      选用哈希算法,决定将 key 放到哪个bucket。这里我们采用高效而且均衡的知名算法:crc32,该哈希算法可以将一个字符串变成一个long型的数字,通过获取这个 md5型的key的crc32后,再对bucket的数量进行取余,就可以确定该 key 要被放到哪个bucket中。

        

      第三步:

      通过第二步,我们确定了key即将存放在的 redis 里hash结构的外层key,对于内层field,我们就选用另一个hash算法,以避免两个完全不同的值,通过 crc32(key) % COUNT 后,发生field再次相同,产生hash冲突导致值被覆盖的情况。内层field我们选用 bkdr哈希算法(或直接选用Java的hashCode),该算法也会得到一个long整形的数字。value的存储保持不变。

      

      第四步:

      装入数据。

      原来的数据结构是key-value,0eac261f1c2d21e0bfdbd567bb270a68 →  1550000000。

      现在的数据结构是hash,key为14523,field是1927144074,value是1550000000。

      通过实测,将1千万数据存入25000个bucket后,整体hash比较均衡,每个bucket下大概有300多个field-value键值对。理论上只要不发生两次hash算法后,均产生相同的值,那么就可以完全依靠key-field来找到原始的value。这一点可以通过计算总量进行确认。实际上,在bucket数量较多时,且每个bucket下,value数量不是很多,发生连续碰撞概率极低,实测在存储50亿个手机号情况下,未发生明显碰撞。

      第五步:

      在存储完这1千万个数据后,我们进行了查询测试,采用key-value型和hash型,分别查询100万条数据,看一下对查询速度的影响。

      key-value耗时:10653、10790、11318、9900、11270ms

      hash-field耗时:12042、11349、11126、11355、11168ms

      可以看到,整体上采用hash存储后,查询100万条耗时,也仅仅增加了500毫秒不到。对性能的影响极其微小。但内存占用从 1.1G 变成了120M,带来了接近 90% 的内存节省。

    总结

      大量的key-value,占用过多的key,redis里为了处理hash碰撞,需要占用更多的空间来存储这些key-value数据。

      如果key的长短不一,譬如有些40位,有些10位,因为对齐问题,那么将产生巨大的内存碎片,占用空间情况更为严重。所以,保持key的长度统一(譬如统一采用int型,定长8个字节),也会对内存占用有帮助。

      string型的md5,占用了32个字节。而通过hash算法后,将32降到了8个字节的长整形,这显著降低了key的空间占用。

      zipList 比 hash 明显减少了内存占用,它的存储非常紧凑,对查询效率影响也很小。所以应善于利用zipList,避免在hash结构里,存放超过512个field-value元素。

      如果value是字符串、对象等,应尽量采用 byte[] 来存储,同样可以大幅降低内存占用。譬如可以选用 google 的 Snappy压缩算法,将字符串转为 byte[],非常高效,压缩率也很高。

      为减少redis对字符串的预分配和扩容(每次翻倍),造成内存碎片,不应该使用append,setrange等。而是直接用set,替换原来的。

  • 相关阅读:
    2.由浅入深解析 SimpleDateFormat
    7.如何在Maven项目中引入自己的jar包
    6.Java英文缩写详解
    6.JXL操作Excel
    5.Apache POI使用详解
    4.Properties文件的加载和使用
    3.java.util.logging.Logger使用详解
    2.使用dom4j解析XML文件
    jdk、jre、spring、java ee、java se
    JVM架构
  • 原文地址:https://www.cnblogs.com/liang1101/p/12920600.html
Copyright © 2020-2023  润新知