• Redis(八) LRU Cache


    Redis(八)—— LRU Cache

    在计算机中缓存可谓无所不在,无论还是应用还是操作系统中,为了性能都需要做缓存。然缓存必然与缓存算法息息相关,LRU就是其中之一。笔者在最先接触LRU是大学学习操作系统时的了解到的,至今已经非常模糊。在学习Redis时,又再次与其相遇,这里将这块内容好好梳理总结。

      LRU(Least Recently Used)是缓存算法家族的一员——最近最少使用算法,类似的算法还有FIFO(先进先出)、LIFO(后进先出)等。因为缓存的选择一般都是用内存(RAM)或者计算机中的L1甚至L2高速缓存,无疑这些存储器都是有大小限制,使用的代价都非常高昂,不可能将所有需要缓存的数据都缓存起来,需要使用特定的算法,比如LRU将不常用的数据驱逐出缓存,以腾出更多的空间存储更有价值的数据。

      上图引用wiki上描述LRU算法的图。其中A是最近最少被使用,所以当缓存E时,根据LRU的特征,驱逐A,存储E。

      在LRU中最核心的部分是"最近最少",所以必然需要对缓存数据的访问(读和写)做跟踪记录——即什么时候使用了什么数据!

      本文先介绍Redis中的LRU特点,再介绍如何自实现一个LRU。

    • Redis中的LRU
    • 自实现LRU Cache
    • Guava Cache

    Redis中的LRU

    1.内存限制

      前文中介绍Redis是基于内存的K-V数据结构服务器。Redis在存储方面有内存容量限制。在Redis中通过maxmemory配置设置Redis可以使用的最大内存。如:

    maxmemory 100mb
    

    以上配置则限制Redis可以使用的最大内存为100M。当设置为0时,表示没有进行内存限制。

      上述说到Redis的内存限制问题,如果Redis使用的内存达到限制,再进行写入操作,Redis该如何处理?
      Redis中有很多驱逐策略——Eviction Policies,当内存达到限制时,Redis会使用其配置的策略对内存中的数据进行驱逐回收,释放内存空间,以便存储待写入的数据。

    2.驱逐策略

    Redis中有以下的内存策略可供选择

    • noeviction:没有任何驱逐策略,当内存达到限制,如果执行的命令需要使用更多的内存,则直接返回错误;
    • allkeys-lru:使用lru算法,即驱逐最近最少被使用的键,回收空间以便写入新的数据;
    • volatile-lru:使用lru算法,即驱逐最近最少被使用的被设置过期的键,回收空间以便写入新的数据;
    • allkeys-random:使用随机算法,即随机驱逐任意的键,回收空间以便写入新的数据
    • volatile-random:使用随机算法,即随机驱逐被设置的过期键,回收空间以便写入新的数据;
    • volatile-ttl:驱逐只有更短的有效期的被设置的过期键,回收空间以便写入新的数据;

    其中volatile-lru、volatile-random和volatile-ttl策略驱逐,如果没有可驱逐的键,则结果和noeviction策略一样,都是返回错误。

    Notes:
    在Redis中的LRU算法并不是完全精确的LRU实现,只是近似的LRU算法——即通过采样一些键,然后从采样中按照LRU驱逐。如果要实现完全精确的LRU算法,势必需要跨越整个Redis内存进行统计,这样对性能就有折扣。在性能和LRU之间的trade off。
    关于更多详细内容,请参考:Approximated LRU algorithm

    自实现LRU Cache

    上述介绍了Redis中对于内存限制实现其LRU策略,下面笔者综合平时所学,简单实现一个LRU Cache,加深对其理解。

    实现LRU Cache的关键点在于:

    1. Cache目的为了提高查找的性能,所以如何设计Cache的数据结构保证查找的算法复杂度比较低是关键;
    2. LRU算法决定了必须要对Cache中的所有数据进行年龄追踪,即LRU中的数据的访问(读和写)都需要实时记录;

    对于第一点,能够实现快速查找的数据结构Map是必选,映射表结构具有天然的快速查找的特点。
    对于第二点,要么对每个元素维护一份访问信息——每个元素都有一个访问时间字段,要么以特定的顺序表示其访问信息——列表前后顺序表示访问时间排序。

    基于以上分析,JDK中提供了Map和访问顺序的数据结构——LinkedHashMap。这里为了简单,基于LinkedHashMap实现。当然感兴趣还可以基于Map接口自实现,不过都是大同小异。
    当然还可以使用第二点中的第一种方式,但是这样需要跨越整个缓存空间,遍历比较每个元素的访问时间,代价高昂。

    先定义LRUCache的接口:

    public interface LRUCache<K, V> {
    
        V put(K key, V value);
    
        V get(K key);
    
        int getCapacity();
    
        int getCurrentSize();
    }
    

    然后继承实现LinkedHashMap,在LinkedHashMap中有布尔accessOrder属性控制其顺序:true表示按照访问顺序,false表示按照插入顺序。 在构造LinkedHashMap时需要设置true,表示按照访问顺序进行迭代。

    重写removeEldestEntry方法:如果当前缓存中的元素个数大于缓存的容量,则返回true,表示需要移除元素。

    /**
     * 基于{@link LinkedHashMap}实现的LRU Cache,该缓存是非线程安全,需要caller保证同步。
     * 原理:
     * 1.LinkedHashMap中使用双向循环链表的顺序有两种,其中访问顺序表示最近最少未被访问的顺序
     * 2.基于HashMap,所以get的算法复杂度O(1)
     *
     * @author huaijin
     */
    public final class LRUCacheBaseLinkedHashMap<K, V>
            extends LinkedHashMap<K, V> implements LRUCache<K, V>{
    
        private static final int DEFAULT_CAPACITY = 16;
        private static final float DEFAULT_LOAD_FACTOR = 0.75F;
    
        /**
         * 缓存大小
         */
        private int capacity;
    
    
        public LRUCacheBaseLinkedHashMap() {
            this(DEFAULT_CAPACITY);
        }
    
        public LRUCacheBaseLinkedHashMap(int capacity) {
            this(capacity, DEFAULT_LOAD_FACTOR);
        }
    
        public LRUCacheBaseLinkedHashMap(int capacity, float loadFactor) {
            super(capacity, loadFactor, true);
            this.capacity = capacity;
        }
    
        @Override
        protected boolean removeEldestEntry(Map.Entry<K, V> eldest) {
            return size() > capacity;
        }
    
        @Override
        public V put(K key, V value) {
            Objects.requireNonNull(key, "key must not be null.");
            Objects.requireNonNull(value, "value must not be null.");
            return super.put(key, value);
        }
    
        @Override
        public String toString() {
            List<String> sb = new ArrayList<>();
            Set<Map.Entry<K, V>> entries = entrySet();
            for (Map.Entry<K, V> entry : entries) {
                sb.add(entry.getKey().toString() + ":" + entry.getValue().toString());
            }
            return String.join("  ", sb);
        }
    
        @Override
        public int getCapacity() {
            return capacity;
        }
    
        @Override
        public int getCurrentSize() {
            return size();
        }
    }
    

    如果对LinkedHashMap不是很熟悉,请移步至Map 综述(二):彻头彻尾理解 LinkedHashMap

    Guava Cache

    对于使用Cache而言,Guava工具库中的Guava Cache是一个非常不错的选择。其优势在于:

    • 适用性:缓存在很多场景中都适用,无论是大到操作系统、数据库、浏览器和大型网站等等,小到平时开发的小型应用、移动app等等;
    • 多样性:Guava Cache提供多种方式载入数据至缓存;
    • 可驱逐:内存资源是宝贵的,这点无可否认!所以缓存数据需要置换策略,Guava Cache从多种维度提供了不同的策略;

    详细情况可以参考:Caches。在Guava Cache中的驱逐策略有基于大小的策略,该策略就是LRU的实现:

    Cache<String, String> guavaCache = CacheBuilder.newBuilder()
            .maximumSize(5)
            .build();
    

    当Cache的容量达到5个时,如果再往缓存中写入数据,Cache将淘汰最近最少被使用的数据。

    测试如下案例如下:

    @Test
    public void testLRUGuavaCacheBaseSize() throws ExecutionException {
        Cache<String, String> guavaCache = CacheBuilder.newBuilder()
                .maximumSize(5)
                .build();
        guavaCache.put("1", "1");
        guavaCache.put("2", "2");
        guavaCache.put("3", "3");
        guavaCache.put("4", "4");
        guavaCache.put("5", "5");
        printGuavaCache("原cache:", guavaCache);
        guavaCache.getIfPresent("1");
        guavaCache.put("6", "6");
        printGuavaCache("put一次后cache:", guavaCache);
    }
    

    执行结果:

    原cache:2:2  3:3  1:1  5:5  4:4
    put一次后cache:6:6  3:3  1:1  5:5  4:4
    

    因为数据1被get一次,导致2是最近最少被使用,当put 6时,将2淘汰驱逐。

    总结

      缓存目的就是为了提高访问速度以带来性能上质的提升。但是缓存的容量和命中率却是从反比。
      基于内存存储数据,无论应用本地缓存,还是分布式缓存服务器甚至操作系统,都需要考虑存储容量的限制对命中率的影响。采用合适缓存算法,对提高缓存命中率至为关键。

  • 相关阅读:
    安卓笔记:Android 界面设计指南——人人都是产品经理就是个玩笑话
    Windows CMD 命令
    安卓开发:dex 文件反编译
    VBA 学习笔记 运算符
    工商管理同等学力申硕全国统一考试资料整理
    VBA 学习笔记 判断语句、循环
    VBA 学习笔记 日期时间函数
    安卓自动领水果福气
    【合集】人大商学院同等学力工商管理
    安卓笔记:进度设计原则和常见错误
  • 原文地址:https://www.cnblogs.com/lxyit/p/9829141.html
Copyright © 2020-2023  润新知