让咱们先从构造函数提及,HashMap有四个构造方法,别慌php
// 1.无参构造方法、 // 构造一个空的HashMap,初始容量为16,负载因子为0.75 public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted }
无参构造方法就没什么好说的了。java
// 2.构造一个初始容量为initialCapacity,负载因子为0.75的空的HashMap, public HashMap(int initialCapacity) { this(initialCapacity, DEFAULT_LOAD_FACTOR); }
HashMap(int initialCapacity)
这个构造方法调用了1.3中的构造方法。node
// 3.构造一个空的初始容量为initialCapacity,负载因子为loadFactor的HashMap public HashMap(int initialCapacity, float loadFactor) { if (initialCapacity < 0) throw new IllegalArgumentException("Illegal initial capacity: " + initialCapacity); if (initialCapacity > MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); this.loadFactor = loadFactor; this.threshold = tableSizeFor(initialCapacity); } //最大容量 //static final int MAXIMUM_CAPACITY = 1 << 30;
当指定的初始容量< 0时抛出IllegalArgumentException异常,当指定的初始容量> MAXIMUM_CAPACITY时,就让初始容量 = MAXIMUM_CAPACITY。算法
当负载因子小于0或者不是数字时,抛出IllegalArgumentException异常。bootstrap
设定threshold。 这个threshold = capacity * load factor 。当HashMap的size到了threshold时,就要进行resize,也就是扩容。数组
tableSizeFor()的主要功能是返回一个比给定整数大且最接近的2的幂次方整数,如给定10,返回2的4次方16.安全
咱们进入tableSizeFor(int cap)的源码中看看:数据结构
// Returns a power of two size for the given target capacity. static final int tableSizeFor(int cap) { int n = cap - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
note: HashMap要求容量必须是2的幂。多线程
首先,int n = cap -1是为了防止cap已是2的幂时,执行完后面的几条无符号右移操做以后,返回的capacity是这个cap的2倍,由于cap已是2的幂了,就已经知足条件了。 若是不懂能够往下看完几个无符号移位后再回来看。(建议本身在纸上画一下)并发
若是n这时为0了(通过了cap-1以后),则通过后面的几回无符号右移依然是0,最后返回的capacity是1(最后有个n+1的操做)。这里只讨论n不等于0的状况
以16位为例,假设开始时 n 为 0000 1xxx xxxx xxxx (x表明不关心0仍是1)
第一次右移 n |= n >>> 1
因为n不等于0,则n的二进制表示中总会有一bit为1,这时考虑最高位的1。经过无符号右移1位,则将最高位的1右移了1位,再作或操做,使得n的二进制表示中与最高位的1紧邻的右边一位也为1,如0000 11xx xxxx xxxx 。
第二次右移 n |= n >>> 2
注意,这个n已经通过了n |= n >>> 1; 操做。此时n为0000 11xx xxxx xxxx ,则n无符号右移两位,会将最高位两个连续的1右移两位,而后再与原来的n作或操做,这样n的二进制表示的高位中会有4个连续的1。如0000 1111 xxxx xxxx 。
第三次右移 n |= n >>> 4
此次把已经有的高位中的连续的4个1,右移4位,再作或操做,这样n的二进制表示的高位中会有8个连续的1。如0000 1111 1111 xxxx 。
第。。。,你还忍心让我继续推么?相信聪明的你已经想出来了,容量最大也就是32位的正数,因此最后一次 n |= n >>> 16; 能够保证最高位后面的所有置为1。固然若是是32个1的话,此时超出了MAXIMUM_CAPACITY ,因此取值到 MAXIMUM_CAPACITY 。
tableSizeFor示例图
注意,获得的这个capacity却被赋值给了threshold。 这里我和这篇博客的博主开始的想法同样,认为应该这么写:
this.threshold = tableSizeFor(initialCapacity) * this.loadFactor;
由于这样子才符合threshold的定义:
threshold = capacity * load factor;
可是,请注意,在构造方法中,并无对table这个成员变量进行初始化,table的初始化被推迟到了put方法中,在put方法中会对threshold从新计算 。
我说一下我在理解这个tableSizeFor函数中间遇到的坑吧,我在想若是n=-1时的状况,由于初始容量能够传进来0。我将n= -1 和下面几条运算一块儿新写了个测试程序,发现输出都是 -1。
这是由于计算机中数字是由补码存储的,-1的补码是 0xffffffff。因此无符号右移以后再进行或运算以后仍是 -1。
那我想若是就无符号右移呢? 好比-1>>>10。听我娓娓道来,32个1无符号右移10位后,高10位为0,低22位为1,此时这个数变成了正数,因为正数的补码和原码相同,因此就变成了0x3FFFFF即10进制的4194303。真刺激。
好开森,这个构造方法咱们算是拿下了。怎么样,我猜你如今必定很激动,Hey,old Fe,这才刚开始。接下来看最后一个构造方法。
// 4. 构造一个和指定Map有相同mappings的HashMap,初始容量能充足的容下指定的Map,负载因子为0.75 public HashMap(Map<? extends K, ? extends V> m) { this.loadFactor = DEFAULT_LOAD_FACTOR; putMapEntries(m, false); }
套路,直接看 putMapEntries(m,false) 。源码以下:
/** * 将m的全部元素存入本HashMap实例中 */ final void putMapEntries(Map<? extends K, ? extends V> m, boolean evict) { // 获得 m 中元素的个数 int s = m.size(); // 当 m 中有元素时,则需将map中元素放入本HashMap实例。 if (s > 0) { // 判断table是否已经初始化,若是未初始化,则先初始化一些变量。(table初始化是在put时) if (table == null) { // pre-size // 根据待插入的map 的 size 计算要建立的 HashMap 的容量。 float ft = ((float) s / loadFactor) + 1.0F; int t = ((ft < (float) MAXIMUM_CAPACITY) ? (int) ft : MAXIMUM_CAPACITY); // 把要建立的 HashMap 的容量存在 threshold 中 if (t > threshold) threshold = tableSizeFor(t); } // 若是table初始化过,由于别的函数也会调用它,因此有可能HashMap已经被初始化过了。 // 判断待插入的 map 的 size,若 size 大于 threshold,则先进行 resize(),进行扩容 else if (s > threshold) resize(); // 而后就开始遍历 带插入的 map ,将每个 <Key ,Value> 插入到本HashMap实例。 for (Map.Entry<? extends K, ? extends V> e : m.entrySet()) { K key = e.getKey(); V value = e.getValue(); // put(K,V)也是调用 putVal 函数进行元素的插入 putVal(hash(key), key, value, false, evict); } } }
介绍putVal方法前,说一下HashMap的几个重要的成员变量:
/** * The table, initialized on first use, and resized as necessary. When * allocated, length is always a power of two. (We also tolerate length zero in * some operations to allow bootstrapping mechanics that are currently not * needed.) */ // 实际存储key,value的数组,只不过key,value被封装成Node了 transient Node<K, V>[] table; /** * The number of key-value mappings contained in this map. */ transient int size; /** * The number of times this HashMap has been structurally modified Structural * modifications are those that change the number of mappings in the HashMap or * otherwise modify its internal structure (e.g., rehash). This field is used to * make iterators on Collection-views of the HashMap fail-fast. (See * ConcurrentModificationException). */ transient int modCount; /** * The next size value at which to resize (capacity * load factor). * * @serial */ // (The javadoc description is true upon serialization. // Additionally, if the table array has not been allocated, this // field holds the initial array capacity, or zero signifying // DEFAULT_INITIAL_CAPACITY.) // 由于 tableSizeFor(int) 返回值给了threshold int threshold; /** * The load factor for the hash table. * * @serial */ final float loadFactor;
其实就是哈希表。HashMap使用链表法避免哈希冲突(相同hash值),当链表长度大于TREEIFY_THRESHOLD(默认为8)时,将链表转换为红黑树,固然小于UNTREEIFY_THRESHOLD(默认为6)时,又会转回链表以达到性能均衡。 咱们看一张HashMap的数据结构(数组+链表+红黑树 )就更能理解table了:
HashMap的数据结构
回到putMapEntries函数中,若是table为null,那么这时就设置合适的threshold,若是不为空而且指定的map的size>threshold,那么就resize()。而后把指定的map的全部Key,Value,经过putVal添加到咱们建立的新的map中。
putVal中传入了个hash(key),那咱们就先来看看hash(key):
/** * key 的 hash值的计算是经过hashCode()的高16位异或低16位实现的:(h = k.hashCode()) ^ (h >>> 16) * 主要是从速度、功效、质量来考虑的,这么作能够在数组table的length比较小的时候 * 也能保证考虑到高低Bit都参与到Hash的计算中,同时不会有太大的开销 */ static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); }
异或运算:
(h = key.hashCode()) ^ (h >>> 16)
原 来 的 hashCode :
1111 1111 1111 1111 0100 1100 0000 1010
移位后的hashCode:
0000 0000 0000 0000 1111 1111 1111 1111
进行异或运算 结果:
1111 1111 1111 1111 1011 0011 1111 0101
这样作的好处是,能够将hashcode高位和低位的值进行混合作异或运算,并且混合后,低位的信息中加入了高位的信息,这样高位的信息被变相的保留了下来。掺杂的元素多了,那么生成的hash值的随机性会增大。
刚才咱们漏掉了resize()和putVal() 两个函数,如今咱们按顺序分析一波:
首先resize() ,先看一下哪些函数调用了resize(),从而在总体上有个概念:
调用了resize的函数.png
接下来上源码:
final Node<K,V>[] resize() { // 保存当前table Node<K,V>[] oldTab = table; // 保存当前table的容量 int oldCap = (oldTab == null) ? 0 : oldTab.length; // 保存当前阈值 int oldThr = threshold; // 初始化新的table容量和阈值 int newCap, newThr = 0; /* 1. resize()函数在size > threshold时被调用。oldCap大于 0 表明原来的 table 表非空, oldCap 为原表的大小,oldThr(threshold) 为 oldCap × load_factor */ if (oldCap > 0) { // 若旧table容量已超过最大容量,更新阈值为Integer.MAX_VALUE(最大整形值),这样之后就不会自动扩容了。 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } // 容量翻倍,使用左移,效率更高 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) // 阈值翻倍 newThr = oldThr << 1; // double threshold } /* 2. resize()函数在table为空被调用。oldCap 小于等于 0 且 oldThr 大于0,表明用户建立了一个 HashMap,可是使用的构造函数为 HashMap(int initialCapacity, float loadFactor) 或 HashMap(int initialCapacity) 或 HashMap(Map<? extends K, ? extends V> m),致使 oldTab 为 null,oldCap 为0, oldThr 为用户指定的 HashMap的初始容量。 */ else if (oldThr > 0) // initial capacity was placed in threshold //当table没初始化时,threshold持有初始容量。还记得threshold = tableSizeFor(t)么; newCap = oldThr; /* 3. resize()函数在table为空被调用。oldCap 小于等于 0 且 oldThr 等于0,用户调用 HashMap()构造函数建立的 HashMap,全部值均采用默认值,oldTab(Table)表为空,oldCap为0,oldThr等于0, */ else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } // 新阈值为0 if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) // 初始化table Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap]; table = newTab; if (oldTab != null) { // 把 oldTab 中的节点 reHash 到 newTab 中去 for (int j = 0; j < oldCap; ++j) { Node<K,V> e; if ((e = oldTab[j]) != null) { oldTab[j] = null; // 若节点是单个节点,直接在 newTab 中进行重定位 if (e.next == null) newTab[e.hash & (newCap - 1)] = e; // 若节点是 TreeNode 节点,要进行 红黑树的 rehash 操做 else if (e instanceof TreeNode) ((TreeNode<K,V>)e).split(this, newTab, j, oldCap); // 如果链表,进行链表的 rehash 操做 else { // preserve order Node<K,V> loHead = null, loTail = null; Node<K,V> hiHead = null, hiTail = null; Node<K,V> next; // 将同一桶中的元素根据(e.hash & oldCap)是否为0进行分割(代码后有图解,能够回过头再来看),分红两个不一样的链表,完成rehash do { next = e.next; // 根据算法 e.hash & oldCap 判断节点位置rehash 后是否发生改变 //最高位==0,这是索引不变的链表。 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } //最高位==1 (这是索引起生改变的链表) else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { // 原bucket位置的尾指针不为空(即还有node) loTail.next = null; // 链表最后得有个null newTab[j] = loHead; // 链表头指针放在新桶的相同下标(j)处 } if (hiTail != null) { hiTail.next = null; // rehash 后节点新的位置必定为原来基础上加上 oldCap,具体解释看下图 newTab[j + oldCap] = hiHead; } } } } } return newTab; } }
引自美团点评技术博客。咱们使用的是2次幂的扩展(指长度扩为原来2倍),因此,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。看下图能够明白这句话的意思,n为table的长度,图(a)表示扩容前的key1和key2两种key肯定索引位置的示例,图(b)表示扩容后key1和key2两种key肯定索引位置的示例,其中hash1是key1对应的哈希与高位运算结果。
hashMap 1.8 哈希算法例图1.png
元素在从新计算hash以后,由于n变为2倍,那么n-1的mask范围在高位多1bit(红色),所以新的index就会发生这样的变化:
hashMap 1.8 哈希算法例图2.png
所以,咱们在扩充HashMap的时候,只须要看看原来的hash值新增的那个bit是1仍是0就行了,是0的话索引没变,是1的话索引变成“原索引+oldCap”,能够看看下图为16扩充为32的resize示意图 :
jdk1.8 hashMap扩容例图.png
何时扩容:经过HashMap源码能够看到是在put操做时,即向容器中添加元素时,判断当前容器中元素的个数是否达到阈值(当前数组长度乘以加载因子的值)的时候,就要自动扩容了。
扩容(resize):其实就是从新计算容量;而这个扩容是计算出所需容器的大小以后从新定义一个新的容器,将原来容器中的元素放入其中。
resize()告一段落,接下来看 putVal() 。
上源码:
//实现put和相关方法。 final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; //若是table为空或者长度为0,则resize() if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //肯定插入table的位置,算法是(n - 1) & hash,在n为2的幂时,至关于取摸操做。 ////找到key值对应的槽而且是第一个,直接加入 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); //在table的i位置发生碰撞,有两种状况,一、key值是同样的,替换value值, //二、key值不同的有两种处理方式:2.一、存储在i位置的链表;2.二、存储在红黑树中 else { Node<K,V> e; K k; //第一个node的hash值即为要加入元素的hash if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //2.2 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); //2.1 else { //不是TreeNode,即为链表,遍历链表 for (int binCount = 0; ; ++binCount) { ///链表的尾端也没有找到key值相同的节点,则生成一个新的Node, //而且判断链表的节点个数是否是到达转换成红黑树的上界达到,则转换成红黑树。 if ((e = p.next) == null) { // 建立链表节点并插入尾部 p.next = newNode(hash, key, value, null); ////超过了链表的设置长度8就转换成红黑树 if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } //若是e不为空就替换旧的oldValue值 if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }
注:hash 冲突发生的几种状况:
1.两节点key 值相同(hash值必定相同),致使冲突;
2.两节点key 值不一样,因为 hash 函数的局限性致使hash 值相同,冲突;
3.两节点key 值不一样,hash 值不一样,但 hash 值对数组长度取模后相同,冲突;
相比put方法,get方法就比较简单,这里就不说了。
一、JDK1.7用的是头插法,而JDK1.8及以后使用的都是尾插法,那么为何要这样作呢?由于JDK1.7是用单链表进行的纵向延伸,当采用头插法就是可以提升插入的效率,可是也会容易出现逆序且环形链表死循环问题。可是在JDK1.8以后是由于加入了红黑树使用尾插法,可以避免出现逆序且链表死循环的问题。
二、扩容后数据存储位置的计算方式也不同:
在JDK1.7的时候是直接用hash值和须要扩容的二进制数进行&(这里就是为何扩容的时候为啥必定必须是2的多少次幂的缘由所在,由于若是只有2的n次幂的状况时最后一位二进制数才必定是1,这样能最大程度减小hash碰撞)(hash值 & length-1) 。
而在JDK1.8的时候直接用了JDK1.7的时候计算的规律,也就是扩容前的原始位置+扩容的大小值=JDK1.8的计算方式,而再也不是JDK1.7的那种异或的方法。可是这种方式就至关于只须要判断Hash值的新增参与运算的位是0仍是1就直接迅速计算出了扩容后的储存方式。
三、JDK1.7的时候使用的是数组+ 单链表的数据结构。可是在JDK1.8及以后时,使用的是数组+链表+红黑树的数据结构(当链表的深度达到8的时候,也就是默认阈值,就会自动扩容把链表转成红黑树的数据结构来把时间复杂度从O(N)变成O(logN)提升了效率)。
HashMap 在并发时可能出现的问题主要是两方面:
put的时候致使的多线程数据不一致
好比有两个线程A和B,首先A但愿插入一个key-value对到HashMap中,首先计算记录所要落到的 hash桶的索引坐标,而后获取到该桶里面的链表头结点,此时线程A的时间片用完了,而此时线程B被调度得以执行,和线程A同样执行,只不过线程B成功将记录插到了桶里面,假设线程A插入的记录计算出来的 hash桶索引和线程B要插入的记录计算出来的 hash桶索引是同样的,
那么当线程B成功插入以后,线程A再次被调度运行时,它依然持有过时的链表头可是它对此一无所知,以致于它认为它应该这样作,如此一来就覆盖了线程B插入的记录,这样线程B插入的记录就凭空消失了,形成了数据不一致的行为。
resize而引发死循环
这种状况发生在HashMap自动扩容时,当2个线程同时检测到元素个数超过 数组大小 × 负载因子。
此时2个线程会在put()方法中调用了resize(),两个线程同时修改一个链表结构会产生一个循环链表(JDK1.7中,会出现resize先后元素顺序倒置的状况)。接下来再想经过get()获取某一个元素,就会出现死循环。
HashMap和Hashtable都实现了Map接口,但决定用哪个以前先要弄清楚它们之间的分别。主要的区别有:线程安全性,同步(synchronization),以及速度。
HashMap几乎能够等价于Hashtable,除了HashMap是非synchronized的,并能够接受null(HashMap能够接受为null的键值(key)和值(value),而Hashtable则不行)。
HashMap是非synchronized,而Hashtable是synchronized,这意味着Hashtable是线程安全的,多个线程能够共享一个Hashtable;而若是没有正确的同步的话,多个线程是不能共享HashMap的。Java 5提供了ConcurrentHashMap,它是HashTable的替代,比HashTable的扩展性更好。
另外一个区别是HashMap的迭代器(Iterator)是fail-fast迭代器,而Hashtable的enumerator迭代器不是fail-fast的。因此当有其它线程改变了HashMap的结构(增长或者移除元素),将会抛出ConcurrentModificationException,但迭代器自己的remove()方法移除元素则不会抛出ConcurrentModificationException异常。但这并非一个必定发生的行为,要看JVM。这条一样也是Enumeration和Iterator的区别。
因为Hashtable是线程安全的也是synchronized,因此在单线程环境下它比HashMap要慢。若是你不须要同步,只须要单一线程,那么使用HashMap性能要好过Hashtable。
HashMap不能保证随着时间的推移Map中的元素次序是不变的。
须要注意的重要术语:
sychronized意味着在一次仅有一个线程可以更改Hashtable。就是说任何线程要更新Hashtable时要首先得到同步锁,其它线程要等到同步锁被释放以后才能再次得到同步锁更新Hashtable。
Fail-safe和iterator迭代器相关。若是某个集合对象建立了Iterator或者ListIterator,而后其它的线程试图“结构上”更改集合对象,将会抛出ConcurrentModificationException异常。但其它线程能够经过set()方法更改集合对象是容许的,由于这并无从“结构上”更改集合。可是假如已经从结构上进行了更改,再调用set()方法,将会抛出IllegalArgumentException异常。
结构上的更改指的是删除或者插入一个元素,这样会影响到map的结构。
HashMap能够经过下面的语句进行同步:
Map m = Collections.synchronizeMap(hashMap);