深入理解HashMap的扩容机制 | 您所在的位置:网站首页 › javalist扩容因子 › 深入理解HashMap的扩容机制 |
深入理解HashMap的扩容机制
——原创:转载请注明出处 http://www.cnblogs.com/yanzige/p/8392142.html 注:本文分两部分讲解,第一部分讲解Java7,第二部分讲解Java8
Java 7 中Hashmap扩容机制
一、什么时候扩容: 网上总结的会有很多,但大多都总结的不够完整或者不够准确。大多数可能只说了满足我下面条件一的情况。 扩容必须满足两个条件: 1、 存放新值的时候当前已有元素的个数必须大于等于阈值 2、 存放新值的时候当前存放数据发生hash碰撞(当前key计算的hash值换算出来的数组下标位置已经存在值)
二、下面我们看源码,如下: 首先是put()方法 public V put(K key, V value) { //判断当前Hashmap(底层是Entry数组)是否存值(是否为空数组) if (table == EMPTY_TABLE) { inflateTable(threshold);//如果为空,则初始化 } //判断key是否为空 if (key == null) return putForNullKey(value);//hashmap允许key为空 //计算当前key的哈希值 int hash = hash(key); //通过哈希值和当前数据长度,算出当前key值对应在数组中的存放位置 int i = indexFor(hash, table.length); for (Entry e = table[i]; e != null; e = e.next) { Object k; //如果计算的哈希位置有值(及hash冲突),且key值一样,则覆盖原值value,并返回原值value if (e.hash == hash && ((k = e.key) == key || key.equals(k))) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; //存放值的具体方法 addEntry(hash, key, value, i); return null; }
在put()方法中有调用addEntry()方法,这个方法里面是具体的存值,在存值之前还要判断是否需要扩容 void addEntry(int hash, K key, V value, int bucketIndex) { //1、判断当前个数是否大于等于阈值 //2、当前存放是否发生哈希碰撞 //如果上面两个条件否发生,那么就扩容 if ((size >= threshold) && (null != table[bucketIndex])) { //扩容,并且把原来数组中的元素重新放到新数组中 resize(2 * table.length); hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } createEntry(hash, key, value, bucketIndex); }贴上Entry类的源码 static class Entry implements Map.Entry { final K key; V value; Entry next;// 通过next构成一个单向链表 int hash; /** * Creates new entry. */ Entry(int h, K k, V v, Entry n) { value = v; next = n; key = k; hash = h; } }
如果需要扩容,调用扩容的方法resize() void resize(int newCapacity) { Entry[] oldTable = table; int oldCapacity = oldTable.length; //判断是否有超出扩容的最大值,如果达到最大值则不进行扩容操作 if (oldCapacity == MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return; } Entry[] newTable = new Entry[newCapacity]; // transfer()方法把原数组中的值放到新数组中 transfer(newTable, initHashSeedAsNeeded(newCapacity)); //设置hashmap扩容后为新的数组引用 table = newTable; //设置hashmap扩容新的阈值 threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1); }
transfer()在实际扩容时候把原来数组中的元素放入新的数组中 void transfer(Entry[] newTable, boolean rehash) { int newCapacity = newTable.length; for (Entry e : table) { while(null != e) { Entry next = e.next; if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } //通过key值的hash值和新数组的大小算出在当前数组中的存放位置 int i = indexFor(e.hash, newCapacity); e.next = newTable[i]; newTable[i] = e; e = next; } } }
JDK7版本及以前使用是:头插法(对比JDK8使用的是尾插法) 注:使用头插法在多线程扩容的时候可能会导致循环指向,从而在获取数据get()的时候陷入死循环,导致线程执行无法结束。 头插法: 后来的(新插入的)节点会被插入到头部,并将head节点指向当前新节点,再将当前新节点的next指针指向之前的头部节点,这样整个链表越早插入的就逐渐到了链表的尾部,越晚插入的就存放在了链表的头部。 在扩容的时候,先取头部节点,然后把头部节点放到新对应数组下标的链表处,由于头插法,最早取出的节点会被最先放进,并逐步变成链表的最尾部,如果多线程执行扩容,将数组下标3位置处链表存入的A->B->C,扩容时存入到新的数组(假设扩容后A/B/C还在同一个链表上),线程1取第一个节点A被挂起,挂起的A节点的next指向B节点,而线程2扩容将头部B节点(原头部A节点已经被取走,B节点成为原链表的头结点)放入新的链表时,A节点被先放但没有完成,线程2在放入B节点后,B节点的next指向之前放入的A节点,当线程1执行的时候本身A的next指向B,这样就行程了循环引用,最后存入C节点,并将C节点的next指向B,最终就变成C->B->= threshold) && (null != table[bucketIndex])) { resize(2 * table.length); hash = (null != key) ? hash(key) : 0; bucketIndex = indexFor(hash, table.length); } createEntry(hash, key, value, bucketIndex); } void createEntry(int hash, K key, V value, int bucketIndex) { Entry e = table[bucketIndex]; // bucketIndex 为数组下标,第一个元素进来时table[下标位置]=null,所以对应代码 put(1,1) 上图node第一个节点的 next 就为空 table[bucketIndex] = new Entry(hash, key, value, e);// e表示上一个节点,将上一个节点放到新节点的next处——》并且将新new Entry对象给到当前table[数组下标位置] size++; } 所以这个过程下来,新节点就在链表的头部位置,最早被加入的Entry节点在最尾的位置。
三、总结: Hashmap的扩容需要满足两个条件:当前数据存储的数量(即size())大小必须大于等于阈值;当前加入的数据是否发生了hash冲突。
因为上面这两个条件,所以存在下面这些情况 (1)、就是hashmap在存值的时候(默认大小为16,负载因子0.75,阈值12),可能达到最后存满16个值的时候,再存入第17个值才会发生扩容现象,因为前16个值,每个值在底层数组中分别占据一个位置,并没有发生hash碰撞。 (2)、当然也有可能存储更多值(超多16个值,最多可以存27个值)都还没有扩容。原理:前11个值全部hash碰撞,存到数组的同一个位置(虽然hash冲突,但是这时元素个数小于阈值12,并没有同时满足扩容的两个条件。所以不会扩容),[在存入第12个元素的时候,还是存入前面11个元素所在的下标位置,因为存入之前此时比较当前元素个数 11= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash);//该方法判断是扩容还是需要将该链表转红黑树 break; } // 如果存入链表的下一个位置有值,且该key和存入对象“一样”,直接break,将给key相同的node节点赋值给e(在上一步if中已经赋值了),在外面做统一处理 if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; // 每遍历一次在第一个if((e=p.next) == null)中从头到尾将每一个Node()节点复制给e,然后再将e赋值给p,使得链表完成从头到尾的遍历过程 p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; // 如果不是替换数据存入,而是新增位置存入后,则将map的size进行加1,然后判断容量是否超过阈值,超过则扩容 if (++size > threshold) resize(); afterNodeInsertion(evict); return null; } treeifyBin()方法判断是扩容还是将当前链表转红黑树 /** * Replaces all linked nodes in bin at index for given hash unless * table is too small, in which case resizes instead. * 从指定hash位置处的链表nodes头部开始,全部替换成红黑树结构。 * 除非整个数组对象(Map集合)数据量很小(数组长度小于64),该情况下则通过resize()对这个Map进行扩容,而代替将链表转红黑树的操作。 */ final void treeifyBin(HashMap.Node[] tab, int hash) { int n, index; HashMap.Node e; // 如果Map(数组)为空或者当前存入数据数组长度小于64便进行扩容 if (tab == null || (n = tab.length) =7,从0开始,及第8个开始判断是否转化成红黑树),如果数组的长度还小于64的时候,则会扩容数组。如果数组的长度大于等于64的话,才会将该节点的链表转换成树。在扩容完成之后,如果某个节点是树结构,同时现在该节点的node个数小于等于6,则会将该树转为链表。
|
CopyRight 2018-2019 实验室设备网 版权所有 |