HashMap底层分析

众所周知HashMap(无序,key不能够重复)的底层是数组+链表实现的。可是在jdk1.7和jdk1.8中稍有不一样。java

Base 1.7数组

其中有两个重要的参数:安全

  • 容量
  • 负载因子

容量的默认大小是 16,负载因子是 0.75,当 HashMap 的 size > 16*0.75 时就会发生扩容(容量和负载因子均可以自由调整)。而扩容这个过程涉及到 rehash、复制数据等操做,因此很是消耗性能。所以一般建议能提早预估 HashMap 的大小最好,尽可能的减小扩容带来的性能损耗并发

put 方法

首先会将传入的 Key 作 hash 运算计算出 hashcode,而后根据数组长度取模计算出在数组中的 index 下标。性能

因为在计算中位运算比取模运算效率高的多,因此 HashMap 规定数组的长度为 2^n 。这样用 2^n - 1 作位运算与取模效果一致,而且效率还要高出许多。优化

因为数组的长度有限,因此不免会出现不一样的 Key 经过运算获得的 index 相同,这种状况能够利用链表来解决,HashMap 会在 table[index]处造成链表,采用头插法将数据插入到链表中。spa

get 方法

get 和 put 相似,也是将传入的 Key 计算出 index ,若是该位置上是一个链表就须要遍历整个链表,经过 key.equals(k) 来找到对应的元素。由于每次根据 key 的 hashcode 映射到 Entry 数组上,因此hashmap是无序的。线程

遍历方式

Iterator<Map.Entry<String, Integer>> entryIterator = map.entrySet().iterator();
        while (entryIterator.hasNext()) {
            Map.Entry<String, Integer> next = entryIterator.next();
            System.out.println("key=" + next.getKey() + " value=" + next.getValue());
        }
Iterator<String> iterator = map.keySet().iterator();
        while (iterator.hasNext()){
            String key = iterator.next();
            System.out.println("key=" + key + " value=" + map.get(key));

        }
map.forEach((key,value)->{
    System.out.println("key=" + key + " value=" + value);
});

强烈建议使用第一种 EntrySet 进行遍历。code

第一种能够把 key value 同时取出,第二种还得须要经过 key 取一次 value,效率较低, 第三种须要 JDK1.8 以上,经过外层遍历 table,内层遍历链表或红黑树。get

Base 1.8

在 JDK1.8 中对 HashMap 进行了优化: 当 hash 碰撞以后写入链表的长度超过了阈值(默认为8)而且 table 的长度不小于64(不然扩容一次)时,链表将会转换为红黑树

假设 hash 冲突很是严重,一个数组后面接了很长的链表,此时从新的时间复杂度就是 O(n) 。

若是是红黑树,时间复杂度就是 O(logn) 。

大大提升了查询效率。

简单总结下 HashMap:不管是 1.7 仍是 1.8 其实都能看出 JDK 没有对它作任何的同步操做,因此并发会出问题(既线程不安全的),并发操做容易在一个桶上造成环形链表;这样当获取一个不存在的 key 时,计算出的 index 正好是环形链表的下标就会出现死循环

所以 JDK 推出了专项专用的 ConcurrentHashMap ,该类位于 java.util.concurrent 包下,专门用于解决并发问题。

想要深刻了解的小伙伴能够自行参考:HashMap? ConcurrentHashMap? 相信看完这篇没人能难住你!

 

扩展

HashSet是一个不容许存储重复元素的集合,它的实现比较简单,只要理解了HashMapHashSet就水到渠成了。HashSet全部原理基本都是基于HashMap实现的

LinkedHashMap是有序的。它对HashMap进行了拓展,使用了双向链表来保证了顺序性。

相关文章
相关标签/搜索