• Map-HashMap


    一、HashMap数据结构

      JDK 1.7 采用数组 + 链表实现。

      JDK 1.8 采用数组 + 链表 + 红黑树实现。链表采用内部类Node节点实现。红黑树采用内部类TreeNode节点实现。

    二、重要参数

     // 1. 容量(capacity): 必须是2的幂 & <最大容量(2的30次方),默认是16
      static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; 

     // 最大容量 = 2的30次方(若传入的容量过大,将被最大值替换) static final int MAXIMUM_CAPACITY = 1 << 30;
    // 2. 加载因子(Load factor):HashMap在其容量自动增加前可达到多满的一种尺度
    // 加载因子过大则容器内可添加更多元素,空间效率高,但是容易导致哈希冲突。反之反之 final float loadFactor; // 实际加载因子 static final float DEFAULT_LOAD_FACTOR = 0.75f; // 默认加载因子 = 0.75 h // 3. 扩容阈值 = 容量 x 加载因子,哈希表的大小 ≥ 扩容阈值时,就会扩容哈希表 int threshold; // 4. 其他 transient Node<K,V>[] table; // 存储数据的Node类型 数组,长度 = 2的幂;数组的每个元素 = 1个单链表 transient int size;// HashMap的大小,即 HashMap中存储的键值对的数量 /** * 与红黑树相关的参数 */ // 1. 桶的树化阈值:即 链表转成红黑树的阈值,在存储数据时,当链表长度 > 该值时,则将链表转换成红黑树 static final int TREEIFY_THRESHOLD = 8; // 2. 桶的链表还原阈值:即 红黑树转为链表的阈值,当在扩容(resize())时(此时HashMap的数据存储位置会重新计算),在重新计算存储位置后,当原有的红黑树内数量 < 6时,则将 红黑树转换成链表 static final int UNTREEIFY_THRESHOLD = 6; // 3. 最小树形化容量阈值:即 当哈希表中的容量 > 该值时,才允许树形化链表 (即 将链表 转换成红黑树) // 否则,若桶内元素太多时,则直接扩容,而不是树形化 // 为了避免进行扩容、树形化选择的冲突,这个值不能小于 4 * TREEIFY_THRESHOLD static final int MIN_TREEIFY_CAPACITY = 64;

     1. hashmap容量为什么要是2的n次方?

      1.1 hashmap的key位置是通过hash对长度取余来计算的,(n - 1) & hash = hash%n,位运算更快。

      1.2 2的n次方减一的二进制所有位全是1,那么(n - 1) & hash更均匀,能够减少哈希碰撞。

    hash(n-1)& hash   n=16结果
    0 1111 & 0 0
    1 1111 & 1 1
    2 1111 & 10 2
    3 1111 & 11 3
    4 1111 & 100 4
    5 1111 & 101 5
    …… …… ……
    16 1111 & 10000 0
    17 1111 & 10001 1
    18 1111 & 10010 2
     
    hash(n-1)& hash   n=15结果
    0 1110 & 0 0
    1 1110 & 1 0
    2 1110 & 10 2
    3 1110 & 11 2
    4 1110 & 100 4
    5 1110 & 101 4
    …… …… ……
    16 1110 & 10000 0
    17 1110 & 10001 0
    18 1110 & 10010 2

    2. 加载因子为什么0.75?加载因子表示hash表元素的填满程度。

      2.1 提高空间利用率:加载因子过高,例如为1,虽然减少了空间开销,提高了空间利用率,但同时也增加了查询时间成本;

      2.2 减少查询成本的折中:元素越少则冲突越少,查询成本就变小。

      2.3 泊松分布 0.75碰撞最小。

    3. 链表为什么要转化为红黑树,转换阈值为什么是8? 

    0:    0.60653066
    1:    0.30326533
    2:    0.07581633
    3:    0.01263606
    4:    0.00157952
    5:    0.00015795
    6:    0.00001316
    7:    0.00000094
    8:    0.00000006

      红黑树插入为O(lgn),查询为O(lgn),链表插入为O(1),查询为O(n)。个数少时,插入删除成本高,用链表;个数多时,查询成本高,用红黑树。此时就需要一个阈值,根据泊松分布,在负载因子为0.75情况下,单个hash槽内元素个数为8的概率小于百万分之一。因此将7作为分水岭,大于7转成红黑树,小于7转链表。

    4. 链表和红黑树之间的转化为什么设置两个阈值8和6?

      防止在7边缘疯狂试探,链表-红黑树转换消耗大。

    5. 为什么是红黑树而不是AVL树?

      5.1红黑树相对平衡,从而保证了红黑树的查找、插入、删除的时间复杂度最坏为O(log n)。加快检索速率。

      5.2红黑树相比avl树,在检索的时候效率其实差不多,都是通过平衡来二分查找。但对于插入删除等操作效率提高很多。

    三、构造函数

      只是用于接受初始容量大小和加载因子,并没有真正初始化哈希表。真正初始化哈希表是在第一次增加键值对时。

    /**
         * @param  initialCapacity  指定容量大小
         * @param  loadFactor      指定负载因子
         */
    public HashMap(int initialCapacity, float loadFactor) {
            if (initialCapacity < 0)
                throw new IllegalArgumentException("Illegal initial capacity: " +
                                                   initialCapacity);
            if (initialCapacity > MAXIMUM_CAPACITY)
                initialCapacity = MAXIMUM_CAPACITY;
            if (loadFactor <= 0 || Float.isNaN(loadFactor))
                throw new IllegalArgumentException("Illegal load factor: " +
                                                   loadFactor);
            this.loadFactor = loadFactor;
            //扩容阈值
            this.threshold = tableSizeFor(initialCapacity);
        }
    //将传入的容量大小转化为:大于传入容量大小的最小的2的幂
    static final int tableSizeFor(int cap) {
            int n = cap - 1;
            n |= n >>> 1;
            n |= n >>> 2;
            n |= n >>> 4;
            n |= n >>> 8;
            n |= n >>> 16;
            return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
        }

    四、 hash()

    static final int hash(Object key) {
        int h;
        //扰动处理 将Object中的哈希值高16位和低16位异或处理,这样使得得到的哈希值更加随机,减少哈希冲突
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

    五、putVal()

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                       boolean evict) {
            Node<K,V>[] tab; Node<K,V> p; int n, i;
            //1.如果哈希表的数组为null,那么通过resize创建。所以第一次初始化哈希表的时机就是第一个调用put方法的时刻。
            if ((tab = table) == null || (n = tab.length) == 0)
                n = (tab = resize()).length;
            //2. 整个数组不为空,但是数组hash值处未添加过元素,那么就新建一个节点
            if ((p = tab[i = (n - 1) & hash]) == null)
                tab[i] = newNode(hash, key, value, null);
            //3.发生哈希冲突,数组该位置已经存在节点
            else {
                Node<K,V> e; K k;
                //3.1 如果key相同,则覆盖旧值
                if (p.hash == hash &&
                    ((k = p.key) == key || (key != null && key.equals(k))))
                    e = p;
                //3.2 如果是红黑树节点,那么直接添加树
                else if (p instanceof TreeNode)
                    e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
                //3.3 链表
                else {
                    for (int binCount = 0; ; ++binCount) {
                        if ((e = p.next) == null) {
                            p.next = newNode(hash, key, value, null);
                            // 插入节点后,若链表节点>数阈值,则将链表转换为红黑树
                            if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                                treeifyBin(tab, hash);
                            break;
                        }
                        if (e.hash == hash &&
                            ((k = e.key) == key || (key != null && key.equals(k))))
                            break;
                        p = e;
                    }
                }
                if (e != null) { // existing mapping for key
                    V oldValue = e.value;
                    if (!onlyIfAbsent || oldValue == null)
                        e.value = value;
                    afterNodeAccess(e);
                    return oldValue;
                }
            }
            ++modCount;
            //判断是否需要扩容
            if (++size > threshold)
                resize();
            afterNodeInsertion(evict);
            return null;
        }            

    总结:

      1.判断数组table是否初始化过,如果没初始化就要进行初始化,调用resize方法。

      2.根据key的哈希值找到table中的位置:

        2.1 如果table[hash(key)&(n-1)]没有元素,直接插入节点。

        2.2 如果table[hash(key)&(n-1)]有元素,代表发生哈希冲突,此时需要判断该位置节点类型:

          2.2.1 如果当前位置节点是红黑树节点,则调用红黑树增加节点方法。

          2.2.2 如果当前节点是链表节点,在链表中增加或者更新数据。之后判断是否需要执行树化操作或者扩容操作。

      3.结束。

    六、 resize()

    //该函数在初始化哈希表或者需要扩容时调用
    final Node<K,V>[] resize() {
            Node<K,V>[] oldTab = table;//扩容前的数组,即当前数组
            int oldCap = (oldTab == null) ? 0 : oldTab.length;//当前数组长度
            int oldThr = threshold;//扩容前数组扩容阈值
            int newCap, newThr = 0;
            //扩容
            if (oldCap > 0) {
                //要是当前数组长度大于最大值,那么不在扩充  
                if (oldCap >= MAXIMUM_CAPACITY) {
                    threshold = Integer.MAX_VALUE;
                    return oldTab;
                }
                //否则扩大成原来的两倍
                else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                         oldCap >= DEFAULT_INITIAL_CAPACITY)
                    newThr = oldThr << 1; // double threshold
            }
            //初始化
            else if (oldThr > 0) // initial capacity was placed in threshold
                newCap = oldThr;
            else {               // zero initial threshold signifies using defaults
                newCap = DEFAULT_INITIAL_CAPACITY;
                newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
            }
            //计算新的resize上限,扩容阈值
            if (newThr == 0) {
                float ft = (float)newCap * loadFactor;
                newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                          (int)ft : Integer.MAX_VALUE);
            }
            threshold = newThr;
            @SuppressWarnings({"rawtypes","unchecked"})
                Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
            table = newTab;
            if (oldTab != null) {
                for (int j = 0; j < oldCap; ++j) {
                    Node<K,V> e;
                    if ((e = oldTab[j]) != null) {
                        oldTab[j] = null;
                        if (e.next == null)
                            newTab[e.hash & (newCap - 1)] = e;
                        else if (e instanceof TreeNode)
                            ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                        else { // preserve order
                            Node<K,V> loHead = null, loTail = null;
                            Node<K,V> hiHead = null, hiTail = null;
                            Node<K,V> next;
                            do {
                                next = e.next;
    //原索引
    if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; }
    //原索引+ oldCap
    else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null);
    //原索引处元素放进bucket里
    if (loTail != null) { loTail.next = null; newTab[j] = loHead; }
    //原索引+ oldCap放进bucket里
    if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }

    1. 判断原数组长度是否大于0,如果大于0则进行扩容,小于等于零则进行初始化。

    2.扩容:如果大于最大值则设置为最大值,否则扩大一倍。

    3.初始化

    4. 移动元素到新数组。新位置=原始位置+旧容量

    总结:

      1. 如果需要初始化 或者 当前容量已经大于等于最大值,则不需要扩容。

      反之,扩容。

      2. 容量*2,新建数组,并保存旧的数组。并将旧的数据转移到新的数组上,需要重新计算每个数据的位置。

    重点:新位置的计算方式 = 原位置 / 原位置+ 旧容量

     图解:情况一、情况二是在原数组同一位置的两个节点,因为当数组长度为16时,两个情况虽然hash值不同,但是低4位相同,这就导致了哈希冲突,处在相同位置。当长度扩容到32时,两个情况的左数第五位不相同,所以导致新数组的位置不同。

    七、与JDK 1.7 区别

     

     

      八、 经典问题

    1.如何解决Hash冲突

       1. hash扰动处理,高16位低16位异或处理

      2.  扩容

      3. 数据结构

      4. 链地址法+尾插法

     2. 为何线程不安全

    1. 没有同步锁保护

    2. 存储位置随时间变化,存在扩容操作

    3.jdk1.7 头插法死循环

    4. jdk1.8 put判断头节点是否为 null,多线程容易数据覆盖。

    HashMap & Hashtable

    相同点:都是存储key-value键值对的

    不同点:

    • HashMap允许Key-value为null,hashTable不允许;
    • hashMap没有考虑同步,是线程不安全的。hashTable是线程安全的,给api套上了一层synchronized修饰;
    • 迭代器(Iterator)。HashMap的迭代器(Iterator)是fail-fast迭代器,而Hashtable的enumerator迭代器不是fail-fast的。所以当有其它线程改变了HashMap的结构(增加或者移除元素),将会抛出ConcurrentModificationException。
    • 容量的初始值和增加方式都不一样:HashMap默认的容量大小是16;增加容量时,每次将容量变为"原始容量x2"。Hashtable默认的容量大小是11;增加容量时,每次将容量变为"原始容量x2 + 1";
    • 添加key-value时的hash值算法不同:HashMap添加元素时,是使用自定义的哈希算法。Hashtable没有自定义哈希算法,而直接采用的key的hashCode()。
  • 相关阅读:
    1.2变量声明的意义
    1.1两个char类型数据相加后,转化为int类型
    欢迎使用CSDN-markdown编辑器
    python-布尔表达式
    程序基本机构
    Python math库和random库
    Python中类型的概念(一)
    Python turtle库的应用——蛇
    Python语法元素分析
    程序设计基本方法
  • 原文地址:https://www.cnblogs.com/qmillet/p/12498827.html
Copyright © 2020-2023  润新知