一、HashMap数据结构
JDK 1.7 采用数组 + 链表实现。
JDK 1.8 采用数组 + 链表 + 红黑树实现。链表采用内部类Node节点实现。红黑树采用内部类TreeNode节点实现。
二、重要参数
// 1. 容量(capacity): 必须是2的幂 & <最大容量(2的30次方),默认是16 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4;
// 最大容量 = 2的30次方(若传入的容量过大,将被最大值替换) static final int MAXIMUM_CAPACITY = 1 << 30;
// 2. 加载因子(Load factor):HashMap在其容量自动增加前可达到多满的一种尺度
// 加载因子过大则容器内可添加更多元素,空间效率高,但是容易导致哈希冲突。反之反之 final float loadFactor; // 实际加载因子 static final float DEFAULT_LOAD_FACTOR = 0.75f; // 默认加载因子 = 0.75 h // 3. 扩容阈值 = 容量 x 加载因子,哈希表的大小 ≥ 扩容阈值时,就会扩容哈希表 int threshold; // 4. 其他 transient Node<K,V>[] table; // 存储数据的Node类型 数组,长度 = 2的幂;数组的每个元素 = 1个单链表 transient int size;// HashMap的大小,即 HashMap中存储的键值对的数量 /** * 与红黑树相关的参数 */ // 1. 桶的树化阈值:即 链表转成红黑树的阈值,在存储数据时,当链表长度 > 该值时,则将链表转换成红黑树 static final int TREEIFY_THRESHOLD = 8; // 2. 桶的链表还原阈值:即 红黑树转为链表的阈值,当在扩容(resize())时(此时HashMap的数据存储位置会重新计算),在重新计算存储位置后,当原有的红黑树内数量 < 6时,则将 红黑树转换成链表 static final int UNTREEIFY_THRESHOLD = 6; // 3. 最小树形化容量阈值:即 当哈希表中的容量 > 该值时,才允许树形化链表 (即 将链表 转换成红黑树) // 否则,若桶内元素太多时,则直接扩容,而不是树形化 // 为了避免进行扩容、树形化选择的冲突,这个值不能小于 4 * TREEIFY_THRESHOLD static final int MIN_TREEIFY_CAPACITY = 64;
1. hashmap容量为什么要是2的n次方?
1.1 hashmap的key位置是通过hash对长度取余来计算的,(n - 1) & hash = hash%n,位运算更快。
1.2 2的n次方减一的二进制所有位全是1,那么(n - 1) & hash更均匀,能够减少哈希碰撞。
hash | (n-1)& hash n=16 | 结果 |
---|---|---|
0 | 1111 & 0 | 0 |
1 | 1111 & 1 | 1 |
2 | 1111 & 10 | 2 |
3 | 1111 & 11 | 3 |
4 | 1111 & 100 | 4 |
5 | 1111 & 101 | 5 |
…… | …… | …… |
16 | 1111 & 10000 | 0 |
17 | 1111 & 10001 | 1 |
18 | 1111 & 10010 | 2 |
hash | (n-1)& hash n=15 | 结果 |
---|---|---|
0 | 1110 & 0 | 0 |
1 | 1110 & 1 | 0 |
2 | 1110 & 10 | 2 |
3 | 1110 & 11 | 2 |
4 | 1110 & 100 | 4 |
5 | 1110 & 101 | 4 |
…… | …… | …… |
16 | 1110 & 10000 | 0 |
17 | 1110 & 10001 | 0 |
18 | 1110 & 10010 | 2 |
2. 加载因子为什么0.75?加载因子表示hash表元素的填满程度。
2.1 提高空间利用率:加载因子过高,例如为1,虽然减少了空间开销,提高了空间利用率,但同时也增加了查询时间成本;
2.2 减少查询成本的折中:元素越少则冲突越少,查询成本就变小。
2.3 泊松分布 0.75碰撞最小。
3. 链表为什么要转化为红黑树,转换阈值为什么是8?
0: 0.60653066 1: 0.30326533 2: 0.07581633 3: 0.01263606 4: 0.00157952 5: 0.00015795 6: 0.00001316 7: 0.00000094 8: 0.00000006
红黑树插入为O(lgn),查询为O(lgn),链表插入为O(1),查询为O(n)。个数少时,插入删除成本高,用链表;个数多时,查询成本高,用红黑树。此时就需要一个阈值,根据泊松分布,在负载因子为0.75情况下,单个hash槽内元素个数为8的概率小于百万分之一。因此将7作为分水岭,大于7转成红黑树,小于7转链表。
4. 链表和红黑树之间的转化为什么设置两个阈值8和6?
防止在7边缘疯狂试探,链表-红黑树转换消耗大。
5. 为什么是红黑树而不是AVL树?
5.1红黑树相对平衡,从而保证了红黑树的查找、插入、删除的时间复杂度最坏为O(log n)。加快检索速率。
5.2红黑树相比avl树,在检索的时候效率其实差不多,都是通过平衡来二分查找。但对于插入删除等操作效率提高很多。
三、构造函数
只是用于接受初始容量大小和加载因子,并没有真正初始化哈希表。真正初始化哈希表是在第一次增加键值对时。
/** * @param initialCapacity 指定容量大小 * @param loadFactor 指定负载因子 */ public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; //扩容阈值 this.threshold = tableSizeFor(initialCapacity); } //将传入的容量大小转化为:大于传入容量大小的最小的2的幂 static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
四、 hash()
static final int hash(Object key) { int h; //扰动处理 将Object中的哈希值高16位和低16位异或处理,这样使得得到的哈希值更加随机,减少哈希冲突 return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
五、putVal()
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //1.如果哈希表的数组为null,那么通过resize创建。所以第一次初始化哈希表的时机就是第一个调用put方法的时刻。 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //2. 整个数组不为空,但是数组hash值处未添加过元素,那么就新建一个节点 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); //3.发生哈希冲突,数组该位置已经存在节点 else { Node<K,V> e; K k; //3.1 如果key相同,则覆盖旧值 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //3.2 如果是红黑树节点,那么直接添加树 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); //3.3 链表 else { for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); // 插入节点后,若链表节点>数阈值,则将链表转换为红黑树 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; //判断是否需要扩容 if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
总结:
1.判断数组table是否初始化过,如果没初始化就要进行初始化,调用resize方法。
2.根据key的哈希值找到table中的位置:
2.1 如果table[hash(key)&(n-1)]没有元素,直接插入节点。
2.2 如果table[hash(key)&(n-1)]有元素,代表发生哈希冲突,此时需要判断该位置节点类型:
2.2.1 如果当前位置节点是红黑树节点,则调用红黑树增加节点方法。
2.2.2 如果当前节点是链表节点,在链表中增加或者更新数据。之后判断是否需要执行树化操作或者扩容操作。
3.结束。
六、 resize()
//该函数在初始化哈希表或者需要扩容时调用 final Node<K,V>[] resize() { Node<K,V>[] oldTab = table;//扩容前的数组,即当前数组 int oldCap = (oldTab == null) ? 0 : oldTab.length;//当前数组长度 int oldThr = threshold;//扩容前数组扩容阈值 int newCap, newThr = 0; //扩容 if (oldCap > 0) { //要是当前数组长度大于最大值,那么不在扩充 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } //否则扩大成原来的两倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } //初始化 else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } //计算新的resize上限,扩容阈值 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { next = e.next;
//原索引 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; }
//原索引+ oldCap else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null);
//原索引处元素放进bucket里 if (loTail != null) { loTail.next = null; newTab[j] = loHead; }
//原索引+ oldCap放进bucket里 if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }
1. 判断原数组长度是否大于0,如果大于0则进行扩容,小于等于零则进行初始化。
2.扩容:如果大于最大值则设置为最大值,否则扩大一倍。
3.初始化
4. 移动元素到新数组。新位置=原始位置+旧容量
总结:
1. 如果需要初始化 或者 当前容量已经大于等于最大值,则不需要扩容。
反之,扩容。
2. 容量*2,新建数组,并保存旧的数组。并将旧的数据转移到新的数组上,需要重新计算每个数据的位置。
重点:新位置的计算方式 = 原位置 / 原位置+ 旧容量
图解:情况一、情况二是在原数组同一位置的两个节点,因为当数组长度为16时,两个情况虽然hash值不同,但是低4位相同,这就导致了哈希冲突,处在相同位置。当长度扩容到32时,两个情况的左数第五位不相同,所以导致新数组的位置不同。
七、与JDK 1.7 区别
八、 经典问题
1.如何解决Hash冲突
1. hash扰动处理,高16位低16位异或处理
2. 扩容
3. 数据结构
4. 链地址法+尾插法
2. 为何线程不安全
1. 没有同步锁保护
2. 存储位置随时间变化,存在扩容操作
3.jdk1.7 头插法死循环
4. jdk1.8 put判断头节点是否为 null,多线程容易数据覆盖。
HashMap & Hashtable
相同点:都是存储key-value键值对的
不同点:
-
HashMap允许Key-value为null,hashTable不允许;
-
hashMap没有考虑同步,是线程不安全的。hashTable是线程安全的,给api套上了一层synchronized修饰;
-
迭代器(Iterator)。HashMap的迭代器(Iterator)是fail-fast迭代器,而Hashtable的enumerator迭代器不是fail-fast的。所以当有其它线程改变了HashMap的结构(增加或者移除元素),将会抛出ConcurrentModificationException。
-
容量的初始值和增加方式都不一样:HashMap默认的容量大小是16;增加容量时,每次将容量变为"原始容量x2"。Hashtable默认的容量大小是11;增加容量时,每次将容量变为"原始容量x2 + 1";
-
添加key-value时的hash值算法不同:HashMap添加元素时,是使用自定义的哈希算法。Hashtable没有自定义哈希算法,而直接采用的key的hashCode()。