咱们在上一个章节《HashMap原理(一) 概念和底层架构》中讲解了HashMap的存储数据结构以及经常使用的概念及变量,包括capacity容量,threshold变量和loadFactor变量等。本章主要讲解HashMap的扩容机制及存取原理。html
先回顾一下基本概念:java
table变量:HashMap的底层数据结构,是Node类的实体数组,用于保存key-value对;node
capacity:并非一个成员变量,但倒是一个必需要知道的概念,表示容量;算法
size变量:表示已存储的HashMap的key-value对的数量;数组
loadFactor变量:装载因子,用于衡量满的程度;数据结构
threshold变量:临界值,当超出该值时,表示table表示该扩容了;架构
HashMap使用哈希算法获得数组中保存的位置,而后调用put方法将key-value对保存到table变量中。咱们经过图来演示一下存储的过程。app
简单解释一下:this
1)经过hash(Object key)算法获得hash值;code
2)判断table是否为null或者长度为0,若是是执行resize()进行扩容;
3)经过hash值以及table数组长度获得插入的数组索引i,判断数组table[i]是否为空或为null;
4)若是table[i] == null,直接新建节点添加,转向 8),若是table[i]不为空,转向 5);
5)判断table[i]的首个元素是否和key同样,若是相同直接覆盖value,这里的相同指的是hashCode以及equals,不然转向 6);
6)判断table[i] 是否为treeNode,即table[i] 是不是红黑树,若是是红黑树,则直接在树中插入键值对,不然转7);
7)遍历table[i],判断链表长度是否大于8,大于8的话把链表转换为红黑树,在红黑树中执行插入操做,不然进行链表的插入操做;遍历过程当中若发现key已经存在直接覆盖value便可;
8)插入成功后,判断实际存在的键值对数量size是否超多了最大容量threshold,若是超过,进行扩容。
咱们关注一下这里面最重要的三个方法,hash(),putVal(),resize().
咱们经过hash方法计算索引,获得数组中保存的位置,看一下源码
static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
咱们能够看到HashMap中的hash算法是经过key的hashcode值与其hashcode右移16位后获得的值进行异或运算获得的,那么为何不直接使用key.hashCode(),而要进行异或操做?咱们知道hash的目的是为了获得进行索引,而hash是有可能冲突的,也就是不一样的key获得了一样的hash值,这样就很容易产业碰撞,如何减小这种状况的发生呢,就经过上述的hash(Object key)算法将hashcode 与 hashcode的低16位作异或运算,混合了高位和低位得出的最终hash值,冲突的几率就小多了。举个例子:
有个蒸笼,第一层是猪肉包、牛肉包、鸡肉包,第二层是白菜包,第三层是豆沙包,第四层是香菇包。这时你来买早餐,你指着第一层说除了猪肉包,随便给我一个包子,由于外表没法分辨,这时拿到猪肉包的几率就有1/3,若是将二层、三层、四层与一层混合在一块儿了,那么拿到猪肉包的几率就小多了。
咱们的hash(Object key)算法一个道理,最终的hash值混合了高位和低位的信息,掺杂的元素多了,那么最终hash值的随机性越大,而HashMap的table下标依赖于最终hash值与table.length()-1的&运算,这里的&运算相似于挑包子的过程,天然冲突就小得多了。计算过程以下:
最开始的hashCode: 1111 1111 1111 1111 0100 1100 0000 1010
右移16位的hashCode:0000 0000 0000 0000 1111 1111 1111 1111
异或运算后的hash值: 1111 1111 1111 1111 1011 0011 1111 0101
经过putVal方法将传递的key-value对添加到数组table中。
/** * Implements Map.put and related methods * * @param hash hash for key * @param key the key * @param value the value to put * @param onlyIfAbsent if true, don't change existing value * @param evict if false, the table is in creation mode. * @return previous value, or null if none */ final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; /** * 若是当前HashMap的table数组还未定义或者还未初始化其长度,则先经过resize()进行扩容, * 返回扩容后的数组长度n */ if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //经过数组长度与hash值作按位与&运算获得对应数组下标,若该位置没有元素,则new Node直接将新元素插入 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); //不然该位置已经有元素了,咱们就须要进行一些其余操做 else { Node<K,V> e; K k; //若是插入的key和原来的key相同,则替换一下就完事了 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; /** * 不然key不一样的状况下,判断当前Node是不是TreeNode,若是是则执行putTreeVal将新的元素插入 * 到红黑树上。 */ else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); //若是不是TreeNode,则进行链表遍历 else { for (int binCount = 0; ; ++binCount) { /** * 在链表最后一个节点以后并无找到相同的元素,则进行下面的操做,直接new Node插入, * 但条件判断有可能转化为红黑树 */ if ((e = p.next) == null) { //直接new了一个Node p.next = newNode(hash, key, value, null); /** * TREEIFY_THRESHOLD=8,由于binCount从0开始,也便是链表长度超过8(包含)时, * 转为红黑树。 */ if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } /** * 若是在链表的最后一个节点以前找到key值相同的(和上面的判断不冲突,上面是直接经过数组 * 下标判断key值是否相同),则替换 */ if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; //onlyIfAbsent为true时:当某个位置已经存在元素时不去覆盖 if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; //最后判断临界值,是否扩容。 if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
HashMap经过resize()方法进行扩容,容量规则为2的幂次
/** * Initializes or doubles table size. If null, allocates in * accord with initial capacity target held in field threshold. * Otherwise, because we are using power-of-two expansion, the * elements from each bin must either stay at same index, or move * with a power of two offset in the new table. * * @return the table */ final Node<K,V>[] resize() { Node<K,V>[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; //之前的容量大于0,也就是hashMap中已经有元素了,或者new对象的时候设置了初始容量 if (oldCap > 0) { //若是之前的容量大于限制的最大容量1<<30,则设置临界值为int的最大值2^31-1 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } /** * 若是之前容量的2倍小于限制的最大容量,同时大于或等于默认的容量16,则设置临界值为之前临界值的2 * 倍,由于threshold = loadFactor*capacity,capacity扩大了2倍,loadFactor不变, * threshold天然也扩大2倍。 */ else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } /** * 在HashMap构造器Hash(int initialCapacity, float loadFactor)中有一句代码,this.threshold * = tableSizeFor(initialCapacity), 表示在调用构造器时,默认是将初始容量暂时赋值给了 * threshold临界值,所以此处至关于将上一次的初始容量赋值给了新的容量。什么状况下会执行到这句?当调用 * 了HashMap(int initialCapacity)构造器,尚未添加元素时 */ else if (oldThr > 0) newCap = oldThr; /** * 调用了默认构造器,初始容量没有设置,所以使用默认容量DEFAULT_INITIAL_CAPACITY(16),临界值 * 就是16*0.75 */ else { newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } //对临界值作判断,确保其不为0,由于在上面第二种状况(oldThr > 0),并无计算newThr if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) /**构造新表,初始化表中数据*/ Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; //将刚建立的新表赋值给table table = newTab; if (oldTab != null) { //遍历将原来table中的数据放到扩容后的新表中来 for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; //没有链表Node节点,直接放到新的table中下标为【e.hash & (newCap - 1)】位置便可 if (e.next == null) newTab[e.hash & (newCap - 1)] = e; //若是是treeNode节点,则树上的节点放到newTab中 else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); //若是e后面还有链表节点,则遍历e所在的链表, else { // 保证顺序 Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; do { //记录下一个节点 next = e.next; /** * newTab的容量是之前旧表容量的两倍,由于数组table下标并非根据循环逐步递增 * 的,而是经过(table.length-1)& hash计算获得,所以扩容后,存放的位置就 * 可能发生变化,那么到底发生怎样的变化呢,就是由下面的算法获得. * * 经过e.hash & oldCap来判断节点位置经过再次hash算法后,是否会发生改变,如 * 果为0表示不会发生改变,若是为1表示会发生改变。到底怎么理解呢,举个例子: * e.hash = 13 二进制:0000 1101 * oldCap = 32 二进制:0001 0000 * &运算: 0 二进制:0000 0000 * 结论:元素位置在扩容后不会发生改变 */ if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } /** * e.hash = 18 二进制:0001 0010 * oldCap = 32 二进制:0001 0000 * &运算: 32 二进制:0001 0000 * 结论:元素位置在扩容后会发生改变,那么如何改变呢? * newCap = 64 二进制:0010 0000 * 经过(newCap-1)&hash * 即0001 1111 & 0001 0010 得0001 0010,32+2 = 34 */ else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; /** * 若(e.hash & oldCap) == 0,下标不变,将原表某个下标的元素放到扩容表一样 * 下标的位置上 */ newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; /** * 若(e.hash & oldCap) != 0,将原表某个下标的元素放到扩容表中 * [下标+增长的扩容量]的位置上 */ newTab[j + oldCap] = hiHead; } } } } } return newTab; }
咱们先简单说一下get(Object key)流程,经过传入的key经过hash()算法获得hash值,在经过(n - 1) & hash找到数组下标,若是数组下标所对应的node值正好key同样就返回,不然找到node.next找到下一个节点,看是不是treenNode,若是是,遍历红黑树找到对应node,若是不是遍历链表找到node。咱们看一下源码
public V get(Object key) { Node<K,V> e; //先经过hash(key)找到hash值,而后调用getNode(hash,key)找到节点 return (e = getNode(hash(key), key)) == null ? null : e.value; } /** * Implements Map.get and related methods * * @param hash hash for key * @param key the key * @return the node, or null if none */ final Node<K,V> getNode(int hash, Object key) { Node<K,V>[] tab; Node<K,V> first, e; int n; K k; //经过(n - 1) & hash找到数组对应位置上的第一个node if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { //若是这个node恰好key值相同,直接返回 if (first.hash == hash && ((k = first.key) == key || (key != null && key.equals(k)))) return first; //若是不相同就再往下找 if ((e = first.next) != null) { //若是是treeNode,就遍历红黑树找到对应node if (first instanceof TreeNode) return ((TreeNode<K,V>)first).getTreeNode(hash, key); //若是是链表,遍历链表找到对应node do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null; }
这几个方法是核心,虽然HashMap还有不少经常使用方法,不过大致和这几个方法有关,或者实现逻辑类似,这里就再也不多说了。
本文在上一章基本概念和底层结构的基础上,从源码的角度讲解了扩容机制以及存取原理,主要分析了put方法和get方法,put方法的核心为hash(),putVal(),resize(),get方法的核心为getNode(),如有不对之处,请批评指正,望共同进步,谢谢!