这一篇开始,咱们进入集合中map的学习。咱们首先从HashMap开始。java
同样的套路,同样的开始,咱们从HashMap源码中介绍开始,值得一说的是,笔者使用的是8版本的jdk,因此一下是jdb1.8中HashMap的介绍。数组
基于哈希表的map接口实现,这个实现停工了map的全部可选操做,而且容许null的value以及null的key。HashMap类大体至关于Hashtable除了他不是同步的以及容许null。这个类对他其中存储的元素的顺序没有保证,特别的是,他不保证顺序随着时间的推移保持不变。数据结构
假定散列函在桶之间正确的分散元素则HashMap能提供恒定时间性能表现对于基础操做:get、put。对此集合进行迭代操做所须要的时间与这个HashMap实例的容量加上这个HashMap的键值对数量成正比,因此若是迭代性能很重要的状况下,不要讲初始容量设置的过高或者将负载因子设置的过低。并发
两个参数影响HashMap的性能,初始容量以及负载因子,容量是指哈希表的桶的容量,在下面中咱们会讲解什么是桶。初始容量就简单的值哈希表建立的时候的容量。负载因子则是一个度量表明哈希表多满的时候进行扩容。当哈希表中entries的数量即键值对的数量大于当前容量与负载因子的乘积时,哈希表进行rehashed,即重建内部数据结构,扩容后的桶数量时扩容前的两倍。app
默认的增加因子的数值为0.75。这个数值在时间与空间上作了一个很好的权衡,更高的值会增长空间利用率,可是会下降查询性能。函数
若是须要存储不少数量的键值对,那么建立一个初始容量大的哈希表所表现出来的性能要比让其自动扩容到须要的大小的哈希表的性能好。固然,使用不少hashcode同样的key一样也会下降HashMap的性能。性能
HashMap不是同步的,当有多个线程并发读取而且至少有一个线程对其进行告终构更改,那么必需要作额外的加锁操做。可使用如下方法进行加锁: Map m = Collections.synchronizedMap(new HashMap(...));学习
这个类中返回的全部迭代器(Iterator)都是快速失败机制的。若是在迭代器建立后,这个map结构发生改变,则调用iterator的next与hasNext方法会尽最大努力抛出ConcurrentModificationException。所以在面对并发修改时,迭代器干净而快速的失败。this
值得一说的是,在这个版本中HashMap中加入了红黑树,当一个桶中键值对的数量大于8时,会进行树化操做。咱们会在下面的章节中讲解。spa
HashMap在未树化前的存储结构以下图:
由图能够看出,存储结构是数组+链表的形式。
HashMap树化后的存储结构以下图:
能够看出,数组中存储的是每棵树的root。
如今咱们来看一下两种不一样的存储结构的节点源码:
这个是未树化前的节点结构
这个是树化后的节点结构
如今我们来探讨一下,为何java8要引入红黑树,咱们仔细观察未树化前的HashMap的存储结构,当咱们有许多hashCode相同的key要插入到HashMap中时会发生什么状况呢? 咱们知道,HashMap在存储的时候会根据hashcode去计算出数组中的索引,而后将这个键值对插入到数组这个索引的链表里。咱们再来想一下HashMap的查询顺序,咱们须要先计算出hashcode定位到数组的某一个桶即某一个索引。以后咱们迭代查询对比key,以后返回结果。因此,当有大量hashcode相同的key插入到红黑树中时,这个链表就会变得特别长,长到HashMap的查找操做几乎变成线性的,以下图:
这种状况下,查询的速度将堆大大下降,因此在此引入了树的概念,那么为何是红黑树呢?由于直接使用二叉搜索树的话也会出现极端状况,以下:
这样致使的结果依然改善hashcode碰撞概率大状况下,HashMap的查询性能。而使用红黑树则能够改善这种状况,由于红黑树有良好的自平衡性质,不会出现如上图所示的状况,而且能将查询速度控制在log(n)上。
咱们根据put方法去查看HashMap的存储机制:
其中的这个putVal就是关键了,咱们看看他的源码:
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
Node<K,V>[] tab; Node<K,V> p; int n, i;
if ((tab = table) == null || (n = tab.length) == 0)
n = (tab = resize()).length;
if ((p = tab[i = (n - 1) & hash]) == null)
tab[i] = newNode(hash, key, value, null);
else {
Node<K,V> e; K k;
if (p.hash == hash &&
((k = p.key) == key || (key != null && key.equals(k))))
e = p;
else if (p instanceof TreeNode)
e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
else {
for (int binCount = 0; ; ++binCount) {
if ((e = p.next) == null) {
p.next = newNode(hash, key, value, null);
if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
treeifyBin(tab, hash);
break;
}
if (e.hash == hash &&
((k = e.key) == key || (key != null && key.equals(k))))
break;
p = e;
}
}
if (e != null) { // existing mapping for key
V oldValue = e.value;
if (!onlyIfAbsent || oldValue == null)
e.value = value;
afterNodeAccess(e);
return oldValue;
}
}
++modCount;
if (++size > threshold)
resize();
afterNodeInsertion(evict);
return null;
}
复制代码
其中咱们能够很清晰的看到HashMap计算hash值的代码以下:
他经过这个计算出改key应该处于哈希表中的哪个桶中即哪个索引上。 以后又根据判断投链表中是否已有这个Key或者这个链表的头结点是否是树类型的节点,来进行后面的操做。判断的代码以下:
若是已存在根据onlyIfAbsent来决定是否更新,若是不存在,则判断是否是树类型的节点来进行操做,是的话,调用putTreeVal方法,不是的话,则迭代链表进行查询是否已有此key,而且根据binCount来记录链表中元素个数,当binCount超过TREEIFY_THRESHOLD(默认为8)时将此链表进行树化。
咱们先从构造函数提及:
咱们能够看到,在构造函数中,咱们并无直接使用initialCapacity,而是使用了tableSizeFor来进行了一次计算并设置了threshold的值即下一次扩容时的阈值。咱们来看一下tableSizeFor这个方法:
看注释是返回给定目标容量的最接近的2的幂数,这句话翻译不如直接看结果,咱们把代码沾出来跑一下:
运行结果以下:
能够看出这个函数是根据初始容量来说下一个扩容的阈值调整为2`n。那么这么调整有什么用呢?为何扩容阈值必须是2的幂呢?这个咱们后面就会讲到。
如今咱们正式开始探讨HashMap的扩容机制,咱们在上一节中粘了putVal的代码,而且注意到,当table即HashMap数组的大小为0或者,增长元素后,size的大小大于threshold的大小时会进行扩容,其实无论设置初始容量为多大,在进行第一次插入的时候都会进行一次扩容。这个能够在源码中体现出来。咱们如今看看肉resize()这个方法:
final Node<K,V>[] resize() {
Node<K,V>[] oldTab = table;
int oldCap = (oldTab == null) ? 0 : oldTab.length;
int oldThr = threshold;
int newCap, newThr = 0;
if (oldCap > 0) {
if (oldCap >= MAXIMUM_CAPACITY) {
threshold = Integer.MAX_VALUE;
return oldTab;
}
else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
oldCap >= DEFAULT_INITIAL_CAPACITY)
newThr = oldThr << 1; // double threshold
}
else if (oldThr > 0) // initial capacity was placed in threshold
newCap = oldThr;
else { // zero initial threshold signifies using defaults
newCap = DEFAULT_INITIAL_CAPACITY;
newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
}
if (newThr == 0) {
float ft = (float)newCap * loadFactor;
newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
(int)ft : Integer.MAX_VALUE);
}
threshold = newThr;
@SuppressWarnings({"rawtypes","unchecked"})
Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
table = newTab;
if (oldTab != null) {
for (int j = 0; j < oldCap; ++j) {
Node<K,V> e;
if ((e = oldTab[j]) != null) {
oldTab[j] = null;
if (e.next == null)
newTab[e.hash & (newCap - 1)] = e;
else if (e instanceof TreeNode)
((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
else { // preserve order
Node<K,V> loHead = null, loTail = null;
Node<K,V> hiHead = null, hiTail = null;
Node<K,V> next;
do {
next = e.next;
if ((e.hash & oldCap) == 0) {
if (loTail == null)
loHead = e;
else
loTail.next = e;
loTail = e;
}
else {
if (hiTail == null)
hiHead = e;
else
hiTail.next = e;
hiTail = e;
}
} while ((e = next) != null);
if (loTail != null) {
loTail.next = null;
newTab[j] = loHead;
}
if (hiTail != null) {
hiTail.next = null;
newTab[j + oldCap] = hiHead;
}
}
}
}
}
return newTab;
}
复制代码
在这个方法的注释上,是这么解释的,初始化或者将table的size加倍。若是table为null,则根据threshold中的值进行分配,不然,由于咱们正在使用二次幂扩展,因此每一个bin中的元素必须保持相同的索引,或者在新表中以两个偏移的幂移动。那么这句话是啥意思呢,别急,快讲到了。
先看看这个resize()干了点啥,首先resize方法先根据旧的数组的大小计算出新的数组的大小,而后根据新的容量以及负载因子计算出新的阈值。 咱们知道数组不能动态调整大小,因此只能是从新生成一个数组,并对新数组进行操做,resize方法计算完新的容量与新的阈值后就开始了这一步骤。
在进行旧数组对新数组的复制时,因为容量是double增加,因此,原来在一个bucket中也就是一个索引中的一个链表将拆分红两个分别分配到新的数组中不一样的索引也就是不一样的bucket中。若是这个链表的长度为1也就是只有一个节点则根据新的容量直接计算新的索引,并将此节点直接放到计算出的索引位置。
若是此链表是红黑树的话则进行相应的分裂函数,并将一棵树分裂成两颗分配到对应的两个索引位置。
那旧的索引里的应该分配到哪两个索引位置呢?其实在注解中都说了,应该分配到旧的索引位置,以及旧的索引位置+旧的容量的索引位置处。以下图:
扩容后:
能够发现原来在某个索引index上的节点被分到 index与index+oldCap的2索引上。
那在HashMap中这种分配是怎么实现的呢?咱们继续研究:
在这里的代码中,咱们发现HashMap经过元素的hash值&oldCap是否等于0来将进行分割。
回到前面的问题,容量为何是2的n次方呢?当咱们利用一个hash码去求一个数组的索引,通常都是hash%length,也就是取余数的方式,而当这个length为2的n次方时 hash&(length-1) = hash % length,而且按位运算比较快,因此这就是为何容量是2的n次方的缘由。
HashMap底层存储结构是数组+链表 当链表的长度超过8则会进行树化,转换成数组+红黑树的存储形式,当链表长短少于6时会有红黑树转回链表。
HashMap扩容后,容量为原来的二倍,旧的索引位置上的链表会被分红两份存放在新数组的这个索引位置以及这个索引加上旧的容量的索引位置处。
HashMap的特色就是高性能,查询与存取性能都是高效的。缺点是元素无序。不是同步的。
存入某键值对时的顺序是根据hashCode得到索引位置,以后调用equals方法进行比较。