关注“Java后端技术全栈”回复“000”获取大量电子书java
在面试中,HashMap基本必问,只是问法各有不一样而已。曾经我也和不少面试官聊过关于HashMap的话题,使用HashMap就能考察面试者的不少知识点。不幸的是,很大部分人都拜倒在HashMap的石榴裙底下。面试
HashMap为何如此受面试官青睐?算法
我以为其中有4个缘由:编程
HashMap在咱们工做中使用频率至关高。后端
Java基础(能够经过此Java集合)数组
线程安全问题(能够经过这个问题引入多线程并发编程的相关问题)缓存
大厂都在问,岂能不问?(不问的话,显得面试官没有水平)安全
下面就是我给你们准备的HashMap连环炮,这个连环炮就至关于高考真题演练同样,可能没有彻底同样的,只是问法不一样罢了,这个主要得益于我们汉语博大精深。微信
下面是HashMap的25连环炮:markdown
1:说说HashMap 底层数据结构是怎样的?
2:谈一下HashMap的特性?
3:使用HashMap时,当两个对象的 hashCode 相同怎么办?
4:HashMap 的哈希函数怎么设计的吗?
5:HashMap遍历方法有几种?
6:为何采用 hashcode 的高 16 位和低 16 位异或能下降 hash 碰撞?hash 函数能不能直接用 key 的 hashcode?
7:解决hash冲突的有几种方法?
8:为何要用异或运算符?
9.:HashMap 的 table 的容量如何肯定?
10:请解释一下HashMap的参数loadFactor,它的做用是什么
11:说说HashMap中put方法的过程
12:当链表长度 >= 8时,为何要将链表转换成红黑树?
13:new HashMap(18);此时HashMap初始容量为多少?
14:说说resize扩容的过程
15:说说hashMap中get是如何实现的?
16:拉链法致使的链表过深问题为何不用二叉查找树代替,而选择红黑树?为何不一直使用红黑树?
17:说说你对红黑树的了解
18:JDK8中对HashMap作了哪些改变?
19:HashMap 中的 key 咱们可使用任何类做为 key 吗?
20:HashMap 的长度为何是 2 的 N 次方呢?
21:HashMap,LinkedHashMap,TreeMap 有什么区别?
22:说说什么是 fail-fast?
23:HashMap 和 HashTable 有什么区别?
24:HashMap 是线程安全的吗?
25:如何规避 HashMap 的线程不安全?
26:HashMap 和 ConcurrentHashMap 的区别?
27:为何 ConcurrentHashMap 比 HashTable 效率要高?
28:说说 ConcurrentHashMap中 锁机制
29:在 JDK 1.8 中,ConcurrentHashMap 为何要使用内置锁 synchronized 来代替重入锁 ReentrantLock?
30:能对ConcurrentHashMap 作个简单介绍吗?
31:熟悉ConcurrentHashMap 的并发度吗?
....
(须要思惟导图的,请加我微信tj20120622,免费赠予)
下面咱们正式开始连环炮
HashMap 底层是 hash 数组和单向链表实现,jdk8后采用数组+链表+红黑树的数据结构。
若是第一题没问,直接问原理,那就必须把HashMap的数据结构说清楚。
HashMap 底层是 hash 数组和单向链表实现,JDK8后采用数组+链表+红黑树的数据结构。
咱们经过put和get存储和获取对象。当咱们给put()方法传递键和值时,先对键作一个hashCode()的计算来获得它在bucket数组中的位置来存储Entry对象。当获取对象时,经过get获取到bucket的位置,再经过键对象的equals()方法找到正确的键值对,而后在返回值对象。
由于HashCode 相同,不必定就是相等的(equals方法比较),因此两个对象所在数组的下标相同,"碰撞"就此发生。又由于 HashMap 使用链表存储对象,这个 Node 会存储到链表中。
hash 函数是先拿到经过 key 的 hashCode ,是 32 位的 int 值,而后让 hashCode 的高 16 位和低 16 位进行异或操做。两个好处:
必定要尽量下降 hash 碰撞,越分散越好;
算法必定要尽量高效,由于这是高频操做, 所以采用位运算;
Iterator 迭代器
最多见的使用方式,可同时获得 key、value 值
使用 foreach 方式(JDK1.8 才有)
经过 key 的 set 集合遍历
由于 key.hashCode()函数调用的是 key 键值类型自带的哈希函数,返回 int 型散列值。int 值范围为**-2147483648~2147483647**,先后加起来大概 40 亿的映射空间。只要哈希函数映射得比较均匀松散,通常应用是很难出现碰撞的。但问题是一个 40 亿长度的数组,内存是放不下的。
设想,若是 HashMap 数组的初始大小才 16,用以前须要对数组的长度取模运算,获得的余数才能用来访问数组下标。
一、再哈希法:若是hash出的index已经有值,就再hash,不行继续hash,直至找到空的index位置,要相信瞎猫总能碰上死耗子。这个办法最容易想到。但有2个缺点:
比较浪费空间,消耗效率。根本缘由仍是数组的长度是固定不变的,不断hash找出空的index,可能越界,这时就要建立新数组,而老数组的数据也须要迁移。随着数组愈来愈大,消耗不可小觑。
get不到,或者说get算法复杂。进是进去了,想出来就没那么容易了。
二、开放地址方法:若是hash出的index已经有值,经过算法在它前面或后面的若干位置寻找空位,这个和再hash算法差异不大。
三、创建公共溢出区: 把冲突的hash值放到另一块溢出区。
四、链式地址法: 把产生hash冲突的hash值以链表形式存储在index位置上。HashMap用的就是该方法。优势是不须要另外开辟新空间,也不会丢失数据,寻址也比较简单。可是随着hash链愈来愈长,寻址也是更加耗时。好的hash算法就是要让链尽可能短,最好一个index上只有一个值。也就是尽量地保证散列地址分布均匀,同时要计算简单。
保证了对象的 hashCode 的 32 位值只要有一位发生改变,整个 hash() 返回值就会改变。尽量的减小碰撞。
①、table 数组大小是由 capacity 这个参数肯定的,默认是16,也能够构造时传入,最大限制是1<<30;
②、loadFactor 是装载因子,主要目的是用来确认table 数组是否须要动态扩展,默认值是0.75,好比table 数组大小为 16,装载因子为 0.75 时,threshold 就是12,当 table 的实际大小超过 12 时,table就须要动态扩容;
③、扩容时,调用 resize() 方法,将 table 长度变为原来的两倍(注意是 table 长度,而不是 threshold);
④、若是数据很大的状况下,扩展时将会带来性能的损失,在性能要求很高的地方,这种损失极可能很致命。
loadFactor表示HashMap的拥挤程度,影响hash操做到同一个数组位置的几率。
默认loadFactor等于0.75,当HashMap里面容纳的元素已经达到HashMap数组长度的75%时,表示HashMap太挤了,须要扩容,在HashMap的构造器中能够定制loadFactor。
因为JDK版本中HashMap设计上存在差别,这里说说JDK7和JDK8中的区别:
具体put流程,请参照下图进行回答:
由于红黑树的平均查找长度是log(n),长度为8的时候,平均查找长度为3,若是继续使用链表,平均查找长度为8/2=4,因此,当链表长度 >= 8时 ,有必要将链表转换成红黑树。
容量为32。
在HashMap中有个静态方法tableSizeFor ,tableSizeFor方法保证函数返回值是大于等于给定参数initialCapacity最小的2的幂次方的数值 。
static final int tableSizeFor(int cap) {
int n = cap - 1;
n |= n >>> 1;
n |= n >>> 2;
n |= n >>> 4;
n |= n >>> 8;
n |= n >>> 16;
return (n = MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
}
复制代码
建立一个新的数组,其容量为旧数组的两倍,并从新计算旧数组中结点的存储位置。结点在新数组中的位置只有两种,原下标位置或原下标+旧数组的大小。
对key的hashCode进行hash值计算,与运算计算下标获取bucket位置,若是在桶的首位上就能够找到就直接返回,不然在树中找或者链表中遍历找,若是有hash冲突,则利用equals方法去遍历链表查找节点。
之因此选择红黑树是为了解决二叉查找树的缺陷,二叉查找树在特殊状况下会变成一条线性结构(这就跟原来使用链表结构同样了,形成很深的问题),遍历查找会很是慢。而红黑树在插入新数据后可能须要经过左旋,右旋、变色这些操做来保持平衡,引入红黑树就是为了查找数据快,解决链表查询深度的问题,咱们知道红黑树属于平衡二叉树,可是为了保持“平衡”是须要付出代价的,可是该代价所损耗的资源要比遍历线性链表要少,因此当长度大于8的时候,会使用红黑树,若是链表长度很短的话,根本不须要引入红黑树,引入反而会慢。
红黑树是一种自平衡的二叉查找树,是一种高效的查找树。
红黑树经过以下的性质定义实现自平衡:
节点是红色或黑色。
根是黑色。
全部叶子都是黑色(叶子是NIL节点)。
每一个红色节点必须有两个黑色的子节点。(从每一个叶子到根的全部路径上不能有两个连续的红色节点。)
从任一节点到其每一个叶子的全部简单路径都包含相同数目的黑色节点(简称黑高)。
1.在java 1.8中,若是链表的长度超过了8,那么链表将转换为红黑树。(桶的数量必须大于64,小于64的时候只会扩容)
2.发生hash碰撞时,java 1.7 会在链表的头部插入,而java 1.8会在链表的尾部插入
3.在java 1.8中,Entry被Node替代(换了一个马甲)。
平时可能你们使用的最多的就是使用 String 做为 HashMap 的 key,可是如今咱们想使用某个自定 义类做为 HashMap 的 key,那就须要注意如下几点:
若是类重写了 equals 方法,它也应该重写 hashCode 方法。
类的全部实例须要遵循与 equals 和 hashCode 相关的规则。
若是一个类没有使用 equals,你不该该在 hashCode 中使用它。
我们自定义 key 类的最佳实践是使之为不可变的,这样,hashCode 值能够被缓存起来,拥有
更好的性能。不可变的类也能够确保 hashCode 和 equals 在将来不会改变,这样就会解决与可变相关的问题了。
为了能让 HashMap 存数据和取数据的效率高,尽量地减小 hash 值的碰撞,也就是说尽可能把数 据能均匀的分配,每一个链表或者红黑树长度尽可能相等。咱们首先可能会想到 % 取模的操做来实现。下面是回答的重点哟:
取余(%)操做中若是除数是 2 的幂次,则等价于与其除数减一的与(&)操做(也就是说 hash % length == hash &(length - 1) 的前提是 length 是 2 的 n 次方)。而且,采用二进 制位操做 & ,相对于 % 可以提升运算效率。
这就是为何 HashMap 的长度须要 2 的 N 次方了。
LinkedHashMap是继承于HashMap,是基于HashMap和双向链表来实现的。
HashMap无序;LinkedHashMap有序,可分为插入顺序和访问顺序两种。若是是访问顺序,那put和get操做已存在的Entry时,都会把Entry移动到双向链表的表尾(实际上是先删除再插入)。
LinkedHashMap存取数据,仍是跟HashMap同样使用的Entry[]的方式,双向链表只是为了保证顺序。
LinkedHashMap是线程不安全的。
fail-fast 机制是 Java 集合(Collection)中的一种错误机制。当多个线程对同一个集合的内容进行 操做时,就可能会产生 fail-fast 事件。
例如:当某一个线程 A 经过 iterator 去遍历某集合的过程当中,若该集合的内容被其余线程所改变 了,那么线程 A 访问集合时,就会抛出 ConcurrentModificationException 异常,产生 fail-fast 事 件。这里的操做主要是指 add、remove 和 clear,对集合元素个数进行修改。
解决办法
建议使用“java.util.concurrent 包下的类”去取代“java.util 包下的类”。能够这么理解:在遍历以前,把 modCount 记下来 expectModCount,后面 expectModCount 去 和 modCount 进行比较,若是不相等了,证实已并发了,被修改了,因而抛出 ConcurrentModificationException 异常。
①、HashMap 是线程不安全的,HashTable 是线程安全的;
②、因为线程安全,因此 HashTable 的效率比不上 HashMap;
③、HashMap最多只容许一条记录的键为null,容许多条记录的值为null,而 HashTable不容许;
④、HashMap 默认初始化数组的大小为16,HashTable 为 11,前者扩容时,扩大两倍,后者扩大两倍+1;
⑤、HashMap 须要从新计算 hash 值,而 HashTable 直接使用对象的 hashCode;
不是,在多线程环境下,1.7 会产生死循环、数据丢失、数据覆盖的问题,1.8 中会有数据覆盖的问题,以 1.8 为例,当 A 线程判断 index 位置为空后正好挂起,B 线程开始往 index 位置的写入节点数据,这时 A 线程恢复现场,执行赋值操做,就把 A 线程的数据给覆盖了;还有++size 这个地方也会形成多线程同时扩容等问题。
单线程条件下,为避免出现ConcurrentModificationException,须要保证只经过HashMap自己或者只经过Iterator去修改数据,不能在Iterator使用结束以前使用HashMap自己的方法修改数据。由于经过Iterator删除数据时,HashMap的modCount和Iterator的expectedModCount都会自增,不影响两者的相等性。若是是增长数据,只能经过HashMap自己的方法完成,此时若是要继续遍历数据,须要从新调用iterator()方法从而从新构造出一个新的Iterator,使得新Iterator的expectedModCount与更新后的HashMap的modCount相等。
多线程条件下,可以使用两种方式:
Collections.synchronizedMap方法构造出一个同步Map
直接使用线程安全的ConcurrentHashMap。
都是 key-value 形式的存储数据;
HashMap 是线程不安全的,ConcurrentHashMap 是 JUC 下的线程安全的;
HashMap 底层数据结构是数组 + 链表(JDK 1.8 以前)。JDK 1.8 以后是数组 + 链表 + 红黑 树。当链表中元素个数达到 8 的时候,链表的查询速度不如红黑树快,链表会转为红黑树,红 黑树查询速度快;
HashMap 初始数组大小为 16(默认),当出现扩容的时候,以 0.75 * 数组大小的方式进行扩 容;
ConcurrentHashMap 在 JDK 1.8 以前是采用分段锁来现实的 Segment + HashEntry, Segment 数组大小默认是 16,2 的 n 次方;JDK 1.8 以后,采用 Node + CAS + Synchronized 来保证并发安全进行实现。
HashTable:使用一把锁(锁住整个链表结构)处理并发问题,多个线程竞争一把锁,容易阻塞;
ConcurrentHashMap:
JDK 1.7 中使用分段锁(ReentrantLock + Segment + HashEntry
),至关于把一个 HashMap 分红多个段,每段分配一把锁,这样支持多线程访问。锁粒度:基于 Segment,包含多个 HashEntry。
JDK 1.8 中使用CAS + synchronized + Node + 红黑树
。锁粒度:Node(首结点)(实现 Map.Entry<K,V>)。锁粒度下降了。
JDK 1.7 中,采用分段锁的机制,实现并发的更新操做,底层采用数组+链表的存储结构,包括两个核心静态内部类 Segment 和 HashEntry。
①、Segment 继承 ReentrantLock(重入锁) 用来充当锁的角色,每一个 Segment 对象守护每一个散列映射表的若干个桶;
②、HashEntry 用来封装映射表的键-值对;
③、每一个桶是由若干个 HashEntry 对象连接起来的链表
JDK 1.8 中,采用Node + CAS + Synchronized来保证并发安全。取消类 Segment,直接用 table 数组存储键值对;当 HashEntry 对象组成的链表长度超过 TREEIFY_THRESHOLD 时,链表转换为红黑树,提高性能。底层变动为数组 + 链表 + 红黑树。
①、粒度下降了;
②、JVM 开发团队没有放弃 synchronized,并且基于 JVM 的 synchronized 优化空间更大,更加天然。
③、在大量的数据操做下,对于 JVM 的内存压力,基于 API 的 ReentrantLock 会开销更多的内存。
①、重要的常量:
private transient volatile int sizeCtl;
当为负数时,-1 表示正在初始化,-N 表示 N - 1 个线程正在进行扩容;
当为 0 时,表示 table 尚未初始化;
当为其余正数时,表示初始化或者下一次进行扩容的大小。
②、数据结构:
Node 是存储结构的基本单元,继承 HashMap 中的 Entry,用于存储数据;
TreeNode 继承 Node,可是数据结构换成了二叉树结构,是红黑树的存储结构,用于红黑树中存储数据;
TreeBin 是封装 TreeNode 的容器,提供转换红黑树的一些条件和锁的控制。
③、存储对象时(put() 方法):
若是没有初始化,就调用 initTable() 方法来进行初始化;
若是没有 hash 冲突就直接 CAS 无锁插入;
若是须要扩容,就先进行扩容;
若是存在 hash 冲突,就加锁来保证线程安全,两种状况:一种是链表形式就直接遍历到尾端插入,一种是红黑树就按照红黑树结构插入;
若是该链表的数量大于阀值 8,就要先转换成红黑树的结构,break 再一次进入循环
若是添加成功就调用 addCount() 方法统计 size,而且检查是否须要扩容。
④、扩容方法 transfer():默认容量为 16,扩容时,容量变为原来的两倍。 helpTransfer():调用多个工做线程一块儿帮助进行扩容,这样的效率就会更高。
⑤、获取对象时(get()方法):
计算 hash 值,定位到该 table 索引位置,若是是首结点符合就返回;
若是遇到扩容时,会调用标记正在扩容结点 ForwardingNode.find()方法,查找该结点,匹配就返回;
以上都不符合的话,就往下遍历结点,匹配就返回,不然最后就返回 null。
程序运行时可以同时更新 ConccurentHashMap 且不产生锁竞争的最大线程数。默认为 16,且能够在构造函数中设置。当用户设置并发度时,ConcurrentHashMap 会使用大于等于该值的最小2幂指数做为实际并发度(假如用户设置并发度为17,实际并发度则为32)。
好了,就写这么多了,文章中不少已经不是HashMap知识点了,但,面试颇有可能会问这些知识点,多准备点也算是有备无患。
所谓天才,只不过是把别人喝咖啡的功夫都用在工做上了。
——鲁迅
推荐阅读
期待你的转发、点赞,在看,谢啦
本文使用 文章同步助手 同步