• 基于jdk1.8的HashMap源码学习笔记


          作为一种最为常用的容器,同时也是效率比较高的容器,HashMap当之无愧。所以自己这次jdk源码学习,就从HashMap开始吧,当然水平有限,有不正确的地方,欢迎指正,促进共同学习进步,就是喜欢程序员这种开源精神。(好吧,第一篇博客有点紧张)

    一. HashMap结构

          HashMap在jdk1.6版本采用数组+链表的存储方式,但是到1.8版本时采用了数组+链表/红黑树的方式进行存储,有效的提高了查找时间,解决冲突。这里有一篇博客写的非常好,HashMap的结构图也画的非常清楚,鼎力推荐一下杭州Mark的HashMap源码分析。虽然是基于jdk1.6的,但是换成jdk1.8,只要链表长度大于门限时,换成红黑树就好了, 我就不具体解释HashMap的具体结构了。

    二.HashMap 定义

    public class HashMap<K,V> extends AbstractMap<K,V>
       implements Map<K,V>, Cloneable, Serializable

          继承自AbstractMap,这是一个抽象类,定义了并且实现了Map接口的基本行为,但是基本上HashMap都对其进行了重写覆盖,采用了自己更高效的方式。AbstractMap是我们自己编写Map时,可以用到的基类。(好吧,来自JAVA编程思想,还没有自己写过Map)

          实现了Map接口,这里其实有一个疑问,为什么在AbstractMap中已经明显实现Map接口的情况下,还要显著在实现Map接口?这种设计方式的原因?
          其余都是标记接口。

    三.重要的field属性

    //默认的初始化数组大小为16,为啥不直接写16(jdk1.6是这么干的)啊?confused
      //这里必须是2的整数幂,
      static final int DEFAULT_INITIAL_CAPACITY = 1 << 4
      //最大存储容量
      static final int MAXIMUM_CAPACITY = 1 << 30
      //默认装载因子,我理解的就是所占最大百分比,即当超过75%时,就需要扩容了
      static final float DEFAULT_LOAD_FACTOR = 0.75f;
      //这是jdk1.8新加的,这是链表的最大长度,当大于这个长度时,就会将链表转成红黑树
      static final int TREEIFY_THRESHOLD = 8;
    
      //table就是存储Node 的数组,就是hash表中的桶位,后面会重点介绍Node
      transient Node<K,V>[] table;
      //实际存储的数量,则HashMap的size()方法,实际返回的就是这个值,isEmpty()也是判断该值是否为0
      transient int size;
      //HashMap每改变一次结构,不管是添加还是删除都会modCount+1,主要用来当迭代时,保持数据的一致性(不知道这么理解正确么?)
      //因为每一次迭代,都会检查modCount是否改变是否一致,不一致就会抛出异常。这也是为什么迭代过程中,除了运用迭代器的remove()方法外,不能自己进行改变数据
      //fast-fail机制
      transient int modCount;
    
      //扩容的门限值,当大于这个值时,table数组要进行扩容,一般等于(cap*loadFactor)
      int threshold;
      //装载因子
      final float loadFactor;

    四.HashMap构造器

         HashMap共有四种构造器,常用的有三种,主要分为无参构造器,应用默认的参数;指定初始化容量的构造器;将原有Map装进当前HashMap的构造器。

    1.无参构造器

    //这就是一个默认的方式,潜在的问题是初始容量16太小了,可能中间需要不断扩容的问题,会影响插入的效率,当看到后面resize()方法时,可以很明显的看到这个问题
       public HashMap() {
            this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
        }

    2.含参包括装载因子,与容量

    //可以指定初始容量,以及装载因子,但是感觉一般情况下指定装载因子意义不大
        public HashMap(int initialCapacity, float loadFactor){
            if (initialCapacity < 0)
                throw new IllegalArgumentException("Illegal initial capacity: " +
                                                   initialCapacity);
            if (initialCapacity > MAXIMUM_CAPACITY)
                initialCapacity = MAXIMUM_CAPACITY;
            if (loadFactor <= 0 || Float.isNaN(loadFactor))
                throw new IllegalArgumentException("Illegal load factor: " +
                                                   loadFactor);
            this.loadFactor = loadFactor;
            this.threshold = tableSizeFor(initialCapacity)//这里就重新定义了扩容的门限
        }

               可以看到此时threshold被tableSizeFor()方法重新计算了,那我们研究一下tableSizeFor方法

    //tableSizeFor的功能主要是用来保证容量应该大于cap,且为2的整数幂,但是这段代码没有完全看懂
        //我理解了一下就是将最高位依次跟后面的进行或运算,将低位全变成1,最后在n+1,从而变成2的整数幂
          static final int tableSizeFor(int cap) {
            int n = cap - 1;
            n |= n >>> 1;
            n |= n >>> 2;
            n |= n >>> 4;
            n |= n >>> 8;
            n |= n >>> 16;
            return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
        }

          不得不说写源码的都是追求完美的大神,下面是jdk1.6的实现方式,就是简单的循环,可以看到采用位运算后效率明显提高了      

    int capacity = 1;
     while (capacity < initialCapacity)
                capacity <<= 1;

          这里可能还有一个疑问,明明给的是初始容量,为什么要计算门限,而不是容量呢?其实这也是jdk1.8的改变,它将table的初始化放入了resize()中,而且压根就没有capacity这个属性,所以这里只能重新计算threshold,而resize()后面就会根据threshold来重新计算capacity,来进行table数组的初始化,然后在重新按照装载因子计算threshold,有点绕,后面看resize()源码就清楚了。

    3.仅仅指定容量

    //下面这种方式更好,所以当知道所要构建的数据容量大小时,最好直接指定大小,可以减除不停扩容的过程,大幅提高效率
       public HashMap(int initialCapacity){
           this(initialCapacity, DEFAULT_LOAD_FACTOR);
       }

    4.将已有Map放入当前map中

    //这种方式是将已有Map中的元素放入当前HashMap中
       public HashMap(Map<? extends K, ? extends V> m) {
            this.loadFactor = DEFAULT_LOAD_FACTOR;
            putMapEntries(m, false);
        }

    //这里就是一个个取出m中的元素调用putVal,一个个放入table中的过程。
        final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) {
            int s = m.size();
            if (s > 0) {
                if (table == null) { // pre-size
                    float ft = ((float)s / loadFactor) + 1.0F;
                    int t = ((ft < (float)MAXIMUM_CAPACITY) ?
                             (int)ft : MAXIMUM_CAPACITY);
                    if (t > threshold)
                        threshold = tableSizeFor(t);
                }
                else if (s > threshold)
                    resize();
                for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) {
                    K key = e.getKey();
                    V value = e.getValue();
                    putVal(hash(key), key, value, false, evict);
                }
            }
        }

    五.重要的方法

    1.Node 内部类

         可以看到前面table就是Node数组,Node是什么?它是一个HashMap内部类(改名字了,jdk1.6就叫Entry),继承自 Map.Entry这个内部接口,它就是存储一对映射关系的最小单元,也就是说key,value实际存储在Node中。

    //可以看出虽然这里不叫Entry这个广泛应用的名字了,但是与jdk1.6比,还是没有什么大的变化
      //依然实现了Map.Entry这个内部接口,换汤没换药
    //其实就是最基本的链表实现方式
      static class Node<K,V> implements Map.Entry<K,V> {
           //可以发现,HashMap的每个键值对就是靠这里实现的,并没有很高大上
          //并且键应用了final修饰符,所以键是不可改变的!
            final int hash;//这里这个一般保存键的hash值
            final K key;
            V value;
            //next 应用于一个桶位中的链表结构,表示下一个节点键值对
            Node<K,V> next;
    
            Node(int hash, K key, V value, Node<K,V> next) {
                this.hash = hash;
                this.key = key;
                this.value = value;
                this.next = next;
            }
    
            public final K getKey()        { return key; }
            public final V getValue()      { return value; }
            public final String toString() { return key + "=" + value; }
            //键的hashcode与值的hashcode异或,得到hash值,并且这里应用的是最原始的hashCode计算方式,Objects
            public final int hashCode() {
                return Objects.hashCode(key) ^ Objects.hashCode(value);
            }
    
            public final V setValue(V newValue) {
                V oldValue = value;
                value = newValue;
                return oldValue;
            }
    
            public final boolean equals(Object o) {
                if (o == this)
                    return true;
                if (o instanceof Map.Entry) {
                    Map.Entry<?,?> e = (Map.Entry<?,?>)o;
                    //键和值都eauals,才行,而且是Objects.equals,只能是同一对象
                    if (Objects.equals(key, e.getKey()) &&
                        Objects.equals(value, e.getValue()))
                        return true;
                }
                return false;
            }

    2.put方法

    //可以看到是调用的putVal的方法,并且计算了key的hash值
       public V put(K key, V value) {
            return putVal(hash(key), key, value, false, true);
        }

    // Computes key.hashCode() and spreads (XORs) higher bits of hash
         /** to lower.  Because the table uses power-of-two masking, sets of
         * hashes that vary only in bits above the current mask will
         * always collide. (Among known examples are sets of Float keys
         * holding consecutive whole numbers in small tables.)  So we
         * apply a transform that spreads the impact of higher bits
         * downward. There is a tradeoff between speed, utility, and
         * quality of bit-spreading. Because many common sets of hashes
         * are already reasonably distributed (so don't benefit from
         * spreading), and because we use trees to handle large sets of
         * collisions in bins, we just XOR some shifted bits in the
         * cheapest possible way to reduce systematic lossage, as well as
         * to incorporate impact of the highest bits that would otherwise
         * never be used in index calculations because of table bounds.
         */
        static final int hash(Object key) {
            int h;
            //这里可以看到key是有可能是null的,并且会在0桶位位置
            return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
        }

          这里hashCode的计算也进行了改进,取得key的hashcode后,高16位与低16位异或运算重新计算hash值。

         下面重点看一下put方法实现的大拿,putVal方法

    /**
         * Implements Map.put and related methods
         *
         * @param hash hash for key
         * @param key the key
         * @param value the value to put
         * @param onlyIfAbsent if true, don't change existing value
         * @param evict if false, the table is in creation mode.
         * @return previous value, or null if none
         */
     final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                       boolean evict) {
            Node<K,V>[] tab; Node<K,V> p; int n, i;
            //table 没有初始化
            if ((tab = table) == null || (n = tab.length) == 0)
                //可以看到table的初始化放在了这里,是通过resize来做的,后面会分析resize()
                n = (tab = resize()).length;
    
            //这里就是HASH算法了,用来定位桶位的方式,可以看到是采用容量-1与键hash值进行与运算
            //n-1,的原因就是n一定是一个2的整数幂,而(n - 1) & hash其实质就是n%hash,但是取余运算的效率明显不如位运算与
            //并且(n - 1) & hash也能保证散列均匀,不会产生只有偶数位有值的现象
            if ((p = tab[i = (n - 1) & hash]) == null)
                //当这里是空桶位时,就直接构造新的Node节点,将其放入桶位中
                //newNode()方法,就是对new Node(,,,)的包装
        //同时也可以看到Node中的hash值就是重新计算的hash(key)
                tab[i] = newNode(hash, key, value, null);
            else {
                Node<K,V> e; K k;
                //键hash值相等,键相等时,这里就是发现该键已经存在于Map中
                if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                    e = p;
                //当该桶位是红黑树结构时,则应该按照红黑树方式插入
                else if (p instanceof TreeNode)
                    e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
    
                //当该桶位为链表结构时,进行链表的插入操作,但是当链表长度大于TREEIFY_THRESHOLD - 1,就要将链表转换成红黑树
                else {
                    //这里binCount记录链表的长度
                    for (int binCount = 0; ; ++binCount) {
                  //找到链表尾端
                        if ((e = p.next) == null) {
                            p.next = newNode(hash, key, value, null);
                            if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                                treeifyBin(tab, hash);
                            break;
                        }
                        if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                            break;
                        p = e;
                    }
                }
                //替换操作,onlyIfAbsent为false
                //所以onlyIfAbsent,这个参数主要决定是否执行替换,当该键已经存在时,
                  //而下面的方法则是一种不替换的put方法,因为onlyIfAbsent为true
                //这里其实只是为了给putIfAbsent方法提供支持,这也是jdk1.8新增的方法
                  // public V putIfAbsent(K key, V value) {
                //          return putVal(hash(key), key, value, true, true);
                //      }
               //    
                if (e != null) { // existing mapping for key
                    V oldValue = e.value;
                    if (!onlyIfAbsent || oldValue == null)
                        e.value = value;
                    afterNodeAccess(e);
                    return oldValue;
                }
            }
            //记录改变次数
            ++modCount;
            //当达到扩容上限时,进行扩容
            if (++size > threshold)
                resize();
            afterNodeInsertion(evict);
            return null;
        }

         下面在看一下扩容方法resize(),jdk1.8的resize相比以往又多了一份使命,table初始化部分,也会在这里完成。

    /**
         * Initializes or doubles table size.  If null, allocates in
         * accord with initial capacity target held in field threshold.
         * Otherwise, because we are using power-of-two expansion, the
         * elements from each bin must either stay at same index, or move
         * with a power of two offset in the new table.
         */
        
      final Node<K,V>[] resize() {
            Node<K,V>[] oldTab = table;
            int oldCap = (oldTab == null) ? 0 : oldTab.length;
            int oldThr = threshold;
            int newCap, newThr = 0;
            if (oldCap > 0) {
                if (oldCap >= MAXIMUM_CAPACITY) {
                    threshold = Integer.MAX_VALUE;
                    //这时已经无法扩容了
                    return oldTab;
                }
                //采用二倍扩容
                else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                         oldCap >= DEFAULT_INITIAL_CAPACITY)
                    //可以看到新的门限也是变为二倍
                    newThr = oldThr << 1; // double threshold
            }
            else if (oldThr > 0) // initial capacity was placed in threshold
                //这里就是构造器只是给了容量时的情况,将门限直接给成新容量
                newCap = oldThr;
            else {               // zero initial threshold signifies using defaults
                //这个是采用HashMap()这个方式构造容器时,可以看到就只是采用默认值就行初始化
                newCap = DEFAULT_INITIAL_CAPACITY;
              newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
            }
            if (newThr == 0) {
                //这里可以看出门限与容量的关系,永远满足loadFactor这个装载因子
                float ft = (float)newCap * loadFactor;
                newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                          (int)ft : Integer.MAX_VALUE);
            }
            //更新门限到threshold field
            threshold = newThr;
            @SuppressWarnings({"rawtypes","unchecked"})
            //好吧,找它一圈终于找到table的初始化了
                Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
            table = newTab;
            //这里就是当原始table不为空时,要有一个搬家的过程,所以这里是最浪费效率的
            if (oldTab != null) {
                for (int j = 0; j < oldCap; ++j) {
                    Node<K,V> e;
                    if ((e = oldTab[j]) != null) {
                        //先释放,解脱它,而不是等着JVM自己收集,因为有可能导致根本没有被收集,因为原始引用还在
                        oldTab[j] = null;
                        //当该桶位链表长度为1时,
                        if (e.next == null)
                        //重新计算桶位,然后插入
                            newTab[e.hash & (newCap - 1)] = e;
                        //当桶位为红黑树时
                        else if (e instanceof TreeNode)
                            ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                        //
                      else { // preserve order
                            Node<K,V> loHead = null, loTail = null;
                            Node<K,V> hiHead = null, hiTail = null;
                            Node<K,V> next;
                            //这里又是一个理解不太清楚的地方了
                               //(e.hash & oldCap) == 0,应该是表示原hash值小于oldcap,则其桶位不变,链表还 是在原位置
                            //若>0,则表示原hash值大于该oldCap,则桶位变为j + oldCap
                            //从结果来看等效于e.hash & (newCap - 1),只是不知道为何这样计算
                            //而且与jdk1.6比,这里链表并没有被倒置,而jdk1.6中,每次扩容链表都会被倒置
                            do {
                                next = e.next;
                                if ((e.hash & oldCap) == 0) {
                                    if (loTail == null)
                                        loHead = e;
                                    else
                                        loTail.next = e;
                                    loTail = e;
                                }
                                else {
                                    if (hiTail == null)
                                        hiHead = e;
                                    else
                                        hiTail.next = e;
                                    hiTail = e;
                                }
                            } while ((e = next) != null);
                            if (loTail != null) {
                                loTail.next = null;
                                newTab[j] = loHead;
                            }
                            if (hiTail != null) {
                                hiTail.next = null;
                                newTab[j + oldCap] = hiHead;
                            }
                        }
                    }
                }
            }
            return newTab;
        }

          其实HashMap put方法中最重要的就是putVal和resize()这两个方法了,搞懂他们,就基本搞懂HashMap的存储方式了,因为get方法就是一个反向的过程。

          putAll方法就easy了

    public void putAll(Map<? extends K, ? extends V> m) {
            putMapEntries(m, true);
        }

    3.get方法

          get方法同样也是最常用的方法(不可能光存不取啊),可以看到通过getNode方法获得节点后,直接取出Node的value属性即可。

    public V get(Object key) {
            Node<K,V> e;
            return (e = getNode(hash(key), key)) == null ? null : e.value;
        }
    final Node<K,V> getNode(int hash, Object key) {
            Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
            //这里就是hash算法查找的过程,可以看到与put方法是一致的
            if ((tab = table) != null && (n = tab.length) > 0 &&
                (first = tab[(n - 1) & hash]) != null) {
                if (first.hash == hash && // always check first node
                    ((k = first.key) == key || (key != null && key.equals(k))))
                    return first;
                //这里就是分成两种了一个是,红黑树查找
                //一个是链表查找
                if ((e = first.next) != null) {
                    if (first instanceof TreeNode)
                        return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                    do {
                        if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                            return e;
                    } while ((e = e.next) != null);
                }
            }
            //值得注意的是当查找不到的时候是返回null的
            return null;
        }

          相比于插入由于少了扩容的部分,get查找简化了很多,这里也能看到hash算法的精髓,快速定位查找功能,不需要遍历就能查找到。

    //containsKey,查询是否存在某个键,getNode()大法好
        public boolean containsKey(Object key) {
            return getNode(hash(key), key) != null;
        }

    4.remove方法

    //根据键,删除某一个节点,返回value值
     public V remove(Object key) {
            Node<K,V> e;
            return (e = removeNode(hash(key), key, null, false, true)) == null ?
                null : e.value;
        }

    /**
         * Implements Map.remove and related methods
         *
         * @param hash hash for key
         * @param key the key
         * @param value the value to match if matchValue, else ignored
         * @param matchValue if true only remove if value is equal
         * @param movable if false do not move other nodes while removing
         * @return the node, or null if none
         */
       final Node<K,V> removeNode(int hash, Object key, Object value,
                                   boolean matchValue, boolean movable) {
            Node<K,V>[] tab; Node<K,V> p; int n, index;
            if ((tab = table) != null && (n = tab.length) > 0 &&
                (p = tab[index = (n - 1) & hash]) != null) {
                Node<K,V> node = null, e; K k; V v;
                //这里的node就是 所查找到的节点
                if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                    node = p;
                else if ((e = p.next) != null) {
                    if (p instanceof TreeNode)
                        node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
                    else {
                        do {
                            if (e.hash == hash &&
                                ((k = e.key) == key ||
                                 (key != null && key.equals(k)))) {
                                node = e;
                                break;
                            }
                            //这里p保存的是父节点,因为这里涉及到链表删除的操作
                            p = e;
                        } while ((e = e.next) != null);
                    }
                }
                //这里可以看出matchValue这个参数的作用了
                //当matchValue为false时(即这里我们remove方法所用的),直接短路后面的运算,进行删除操作,而不用关注value值是否相等或者equals
                //而matchValue为true时,则只有在value值也符合时,才删除
                //而jdk1.8也是给了重载方法,应用于当key键与value值同时匹配时,才进行删除操作
                if (node != null && (!matchValue || (v = node.value) == value ||
                                     (value != null && value.equals(v)))) {
                    if (node instanceof TreeNode)
                        //movable这个参数竟然是应用在了树删除上,可以再看一看
                        ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
                    //表示该节点就是链表的头节点,则将子节点放进桶位
                    else if (node == p)
                        tab[index] = node.next;
                    //删除节点后节点,父节点的next重新连接
                    else
                        p.next = node.next;
                    //删除操作也是要记录进modCount的
                    ++modCount;
                    --size;
                    afterNodeRemoval(node);
                    return node;
                }
            }
            return null;
        }

          这里matchValue这个参数设置很巧妙,巧妙的解决了这个方法的重用问题,当然源码里还有很多很精巧的设计。

    //这是jdk1.8新增的方法,可以看到只有matchValue改变成了true
      //只有键和值都匹配才删除
         public boolean remove(Object key, Object value) {
            return removeNode(hash(key), key, value, true, true) != null;

    5.replace方法

          似乎是jdk1.8新增的方法,但是有了前面的理解,这个方法自己写也能做出来。
          可以有两种方案,一种是采用putVal的方法,因为很明显putVal是能够替换的,但是这里就涉及到了size,和modCount这两个field的变化了,也是要注意的。

          另一种是getNode得到节点,然后替换,所以采用了getNode这个方法。

    //分为两种,一种是死切摆列的非要key和 value都匹配上,才换
      //另一种就是键匹配就换
       public boolean replace(K key, V oldValue, V newValue) {
            Node<K,V> e; V v;
            if ((e = getNode(hash(key), key)) != null &&
                ((v = e.value) == oldValue || (v != null && v.equals(oldValue)))) {
                e.value = newValue;
                afterNodeAccess(e);
                return true;
            }
            return false;
        }

    public V replace(K key, V value) {
            Node<K,V> e;
            if ((e = getNode(hash(key), key)) != null) {
                V oldValue = e.value;
                e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
            return null;
        }

             可以看出jdk1.8考虑了更多的应用场景。

    5.其他方法

    /**
         * Removes all of the mappings from this map.
         * The map will be empty after this call returns.
         */
        public void clear() {
            Node<K,V>[] tab;
            modCount++;
            if ((tab = table) != null && size > 0) {
                size = 0;
                for (int i = 0; i < tab.length; ++i)
                    tab[i] = null;
            }
        }

    /**
         * Returns the number of key-value mappings in this map.
         *
         * @return the number of key-value mappings in this map
         */
        public int size() {
            return size;
        }

    /**
         * Returns <tt>true</tt> if this map contains no key-value mappings.
         *
         * @return <tt>true</tt> if this map contains no key-value mappings
         */
        public boolean isEmpty() {
            return size == 0;
        }

    六.总结

          通过分析HashMap源码,可以很好的领会Hash算法的实现原理,以及实现中的各种问题,同时对于链表的操作也是一个非常好的提高过程。

          这里也发现,其实这次学习笔记,只是记录了最基本的增删改查,而红黑树,以及entryset,迭代器等等都还没有进行介绍,这也是留在后面有时间要重点介绍的。同时自己的Hash算法基础也要过过关了。

          这是第一篇博客,是对自己学习过程的一个记录,也是一个督促。最后再感谢杭州.Mark的那篇博文,对自己分析HashMap有一个非常大的借鉴意义。

  • 相关阅读:
    jq获取img高度(动态生成的image高度为0原因)
    Idea集成使用SVN教程
    RPC框架pigeon源码分析
    java多线程面试题整理及答案
    深入理解JVM线程模型
    dubbo 2.8.4(dubbox)的jar包制作【添加到maven本地仓库】
    【学习】027 Dubbo
    【学习】026 Zookeeper
    【学习】025 RocketMQ
    【学习】024 springCloud
  • 原文地址:https://www.cnblogs.com/ToBeAProgrammer/p/4787761.html
Copyright © 2020-2023  润新知