众所周知HashMap(无序,key不能够重复)的底层是数组+链表实现的。可是在jdk1.7和jdk1.8中稍有不一样。java
Base 1.7数组
其中有两个重要的参数:安全
容量的默认大小是 16,负载因子是 0.75,当 HashMap
的 size > 16*0.75
时就会发生扩容(容量和负载因子均可以自由调整)。而扩容这个过程涉及到 rehash、复制数据等操做,因此很是消耗性能。所以一般建议能提早预估 HashMap 的大小最好,尽可能的减小扩容带来的性能损耗。并发
首先会将传入的 Key 作
hash
运算计算出 hashcode,而后根据数组长度取模计算出在数组中的 index 下标。性能因为在计算中位运算比取模运算效率高的多,因此 HashMap 规定数组的长度为
2^n
。这样用2^n - 1
作位运算与取模效果一致,而且效率还要高出许多。优化因为数组的长度有限,因此不免会出现不一样的 Key 经过运算获得的 index 相同,这种状况能够利用链表来解决,HashMap 会在
table[index]
处造成链表,采用头插法将数据插入到链表中。spa
get 和 put 相似,也是将传入的 Key 计算出 index ,若是该位置上是一个链表就须要遍历整个链表,经过
key.equals(k)
来找到对应的元素。由于每次根据key
的hashcode
映射到Entry
数组上,因此hashmap是无序的。线程
Iterator<Map.Entry<String, Integer>> entryIterator = map.entrySet().iterator(); while (entryIterator.hasNext()) { Map.Entry<String, Integer> next = entryIterator.next(); System.out.println("key=" + next.getKey() + " value=" + next.getValue()); }
Iterator<String> iterator = map.keySet().iterator(); while (iterator.hasNext()){ String key = iterator.next(); System.out.println("key=" + key + " value=" + map.get(key)); }
map.forEach((key,value)->{ System.out.println("key=" + key + " value=" + value); });
强烈建议使用第一种 EntrySet 进行遍历。code
第一种能够把 key value 同时取出,第二种还得须要经过 key 取一次 value,效率较低, 第三种须要 JDK1.8
以上,经过外层遍历 table,内层遍历链表或红黑树。get
Base 1.8
在
JDK1.8
中对HashMap
进行了优化: 当hash
碰撞以后写入链表的长度超过了阈值(默认为8)而且table
的长度不小于64(不然扩容一次)时,链表将会转换为红黑树。假设
hash
冲突很是严重,一个数组后面接了很长的链表,此时从新的时间复杂度就是O(n)
。若是是红黑树,时间复杂度就是
O(logn)
。大大提升了查询效率。
简单总结下 HashMap:不管是 1.7 仍是 1.8 其实都能看出 JDK 没有对它作任何的同步操做,因此并发会出问题(既线程不安全的),并发操做容易在一个桶上造成环形链表;这样当获取一个不存在的 key 时,计算出的 index 正好是环形链表的下标就会出现死循环。
所以 JDK 推出了专项专用的 ConcurrentHashMap ,该类位于 java.util.concurrent
包下,专门用于解决并发问题。
想要深刻了解的小伙伴能够自行参考:HashMap? ConcurrentHashMap? 相信看完这篇没人能难住你!
扩展
HashSet
是一个不容许存储重复元素的集合,它的实现比较简单,只要理解了HashMap
,HashSet
就水到渠成了。HashSet全部原理基本都是基于HashMap实现的
LinkedHashMap是有序的。
它对HashMap
进行了拓展,使用了双向链表来保证了顺序性。