• HashMap 底层实现原理是什么?


     前言

    数组特点

    存储区间是连续,且占用内存严重,空间复杂也很大,时间复杂为O(1)。

    优点:是随机读取效率很高,原因数组是连续(随机访问性强,查找速度快)。

    缺点:插入和删除数据效率低,因插入数据,这个位置后面的数据在内存中要往后移的,且大小固定不易动态扩展。

    链表特点

    区间离散,占用内存宽松,空间复杂度小,时间复杂度O(N)。

    优点:插入删除速度快,内存利用率高,没有大小固定,扩展灵活。

    缺点:不能随机查找,每次都是从第一个开始遍历(查询效率低)。

     

    哈希表特点

    以上数组和链表,大家都知道各自优缺点。那么我们能不能把以上两种结合一起使用,从而实现查询效率高和插入删除效率也高的数据结构呢?答案是可以滴,那就是哈希表可以满足,接下来我们一起复习HashMap中的put()和get()方法实现原理。

    HashMap的put()和get()的实现

    1、map.put(k,v)实现原理

    第一步首先将k,v封装到Node对象当中(节点)。

    第二步它的底层会调用K的hashCode()方法得出hash值。

    第三步通过哈希表函数/哈希算法,将hash值转换成数组的下标,下标位置上如果没有任何元素,就把Node添加到这个位置上。如果说下标对应的位置上有链表。此时,就会拿着k和链表上每个节点的k进行equal。如果所有的equals方法返回都是false,那么这个新的节点将被添加到链表的末尾。如其中有一个equals返回了true,那么这个节点的value将会被覆盖。

     

    2、map.get(k)实现原理

    第一步:先调用k的hashCode()方法得出哈希值,并通过哈希算法转换成数组的下标。

    第二步:通过上一步哈希算法转换成数组的下标之后,在通过数组下标快速定位到某个位置上。

    重点理解如果这个位置上什么都没有,则返回null。如果这个位置上有单向链表,那么它就会拿着参数K和单向链表上的每一个节点的K进行equals,如果所有equals方法都返回false,则get方法返回null。如果其中一个节点的K和参数K进行equals返回true,那么此时该节点的value就是我们要找的value了,get方法最终返回这个要找的value。

    在 JDK 1.7 中 HashMap 是以数组加链表的形式组成的,JDK 1.8 之后新增了红黑树的组成结构,当链表大于 8 并且哈希桶的容量大于 64 时,链表结构会转换成红黑树结构,它的组成结构如下图所示:


    数组中的元素我们称之为哈希桶

    每个哈希桶中包含了四个字段:hash、key、value、next,其中 next 表示链表的下一个节点。
    JDK 1.8 之所以添加红黑树是因为一旦链表过长,会严重影响 HashMap 的性能,而红黑树具有快速增删改查的特点,这样就可以有效的解决链表过长时操作比较慢的问题。

    HashMap 源码中三个重要方法:查询、新增和数据扩容

    为何随机增删、查询效率都很高的原因是?

    原因:增删是在链表上完成的,而查询只需扫描部分,则效率高。

    为什么放在hashMap集合key部分的元素需要重写equals方法?

    因为equals默认比较是两个对象内存地址

    HashMap集合的key特点:

    HashMap集合的key,会先后调用两个方法,hashCode and equals方法,这两个方法都需要重写。

    当哈希冲突时我们需要通过判断 key 值是否相等,才能确认此元素是不是我们想要的元素。

    如果O1和O2的hash值相同,就会存放到同一个单向链表上,

    如果不同,但由于哈希算法执行结束之后转换的数组下标可能相同,此时会发上“哈希碰撞”。

    JDK 1.8 在扩容时并没有像 JDK 1.7 那样,重新计算每个元素的哈希值,而是通过高位运算(e.hash & oldCap)来确定元素是否需要移动

    什么是加载因子?

    加载因子也叫扩容因子或负载因子,用来判断什么时候进行扩容的,假如加载因子是 0.5,HashMap 的初始化容量是 16,那么当 HashMap 中有 16*0.5=8 个元素时,HashMap 就会进行扩容。

    加载因子为什么是 0.75 而不是 0.5 或者 1.0 呢?
    这其实是出于容量和性能之间平衡的结果:

    • 当加载因子设置比较大的时候,扩容的门槛就被提高了,扩容发生的频率比较低,占用的空间会比较小,但此时发生 Hash 冲突的几率就会提升,因此需要更复杂的数据结构来存储元素,这样对元素的操作时间就会增加,运行效率也会因此降低;
    • 而当加载因子值比较小的时候,扩容的门槛会比较低,因此会占用更多的空间,此时元素的存储就比较稀疏,发生哈希冲突的可能性就比较小,因此操作性能会比较高;
    • 为了提升扩容效率,HashMap的容量(capacity)有一个固定的要求,那就是一定是2的幂【可以用位运算实现取模运算,位运算采用内存操作,且能解决负数问题】;所以,如果负载因子是3/4的话,那么和capacity的乘积结果就可以是一个整数。

    所以综合了以上情况就取了一个 0.5 到 1.0 的平均数 0.75 作为加载因子。

    注意JDK8之后

    JDK8之后,如果哈希表单向链表中元素超过8个,那么单向链表这种数据结构会变成红黑树数据结构当红黑树上的节点数量小于6个,会重新把红黑树变成单向链表数据结构。

    HashMap总结

    无序,不可重复为什么是无序的?因为不一定挂到哪一个单向链表上的,因此加入顺序和取出也不一样。

    怎么保持不可重复?使用equals方法来保证HashMap集合key不可重复,如key重复来,value就会覆盖。

    存放在HashMap集合key部分的元素,其实就是存放在HashSet集合中,则HashSet集合也需要重写equals和hashCode方法

    hashmap集合的默认初始化容量为16,默认加载因子为0.75,也就是说这个默认加载因子是当hashMap集合底层数组的容量达到75%时,数组就开始扩容。hashmap集合初始化容量是2的陪数,为了达到散列均匀,提高hashmap集合的存取效率,

  • 相关阅读:
    Spring MVC系列-(5) AOP
    Spring MVC系列-(4) Bean的生命周期
    Spring MVC系列-(3) Bean的装配
    Spring MVC系列-(2) Bean的装配
    Spring MVC系列-(1) Spring概述
    JVM性能优化系列-(7) 深入了解性能优化
    JVM性能优化系列-(6) 晚期编译优化
    pycharm下载较快地址
    编程学习记录14:Oracle数据库序列,触发器
    编程学习记录13:Oracle数据库,表的查询
  • 原文地址:https://www.cnblogs.com/longmo666/p/14375511.html
Copyright © 2020-2023  润新知