Java LinkedHashMap和HashMap有什么区别和联系?为何LinkedHashMap会有着更快的迭代速度?LinkedHashSet跟LinkedHashMap有着怎样的内在联系?本文从数据结构和算法层面,结合生动图解为读者一一解答。html
本文github地址java
若是你已看过前面关于HashSet和HashMap,以及TreeSet和TreeMap的讲解,必定可以想到本文将要讲解的LinkedHashSet和LinkedHashMap其实也是一回事。LinkedHashSet和LinkedHashMap在Java里也有着相同的实现,前者仅仅是对后者作了一层包装,也就是说LinkedHashSet里面有一个LinkedHashMap(适配器模式)。所以本文将重点分析LinkedHashMap。git
LinkedHashMap实现了Map接口,即容许放入key
为null
的元素,也容许插入value
为null
的元素。从名字上能够看出该容器是linked list和HashMap的混合体,也就是说它同时知足HashMap和linked list的某些特性。可将LinkedHashMap看做采用linked list加强的HashMap。程序员
事实上LinkedHashMap是HashMap的直接子类,两者惟一的区别是LinkedHashMap在HashMap的基础上,采用双向链表(doubly-linked list)的形式将全部entry
链接起来,这样是为保证元素的迭代顺序跟插入顺序相同。上图给出了LinkedHashMap的结构图,主体部分跟HashMap彻底同样,多了header
指向双向链表的头部(是一个哑元),该双向链表的迭代顺序就是entry
的插入顺序。github
除了能够保迭代历顺序,这种结构还有一个好处:迭代LinkedHashMap时不须要像HashMap那样遍历整个table
,而只须要直接遍历header
指向的双向链表便可,也就是说LinkedHashMap的迭代时间就只跟entry
的个数相关,而跟table
的大小无关。算法
有两个参数能够影响LinkedHashMap的性能:初始容量(inital capacity)和负载系数(load factor)。初始容量指定了初始table
的大小,负载系数用来指定自动扩容的临界值。当entry
的数量超过capacity*load_factor
时,容器将自动扩容并从新哈希。对于插入元素较多的场景,将初始容量设大能够减小从新哈希的次数。markdown
将对象放入到LinkedHashMap或LinkedHashSet中时,有两个方法须要特别关心:hashCode()
和equals()
。hashCode()
方法决定了对象会被放到哪一个bucket
里,当多个对象的哈希值冲突时,equals()
方法决定了这些对象是不是“同一个对象”。因此,若是要将自定义的对象放入到LinkedHashMap
或LinkedHashSet
中,须要@OverridehashCode()
和equals()
方法。数据结构
经过以下方式能够获得一个跟源Map 迭代顺序同样的LinkedHashMap:多线程
void foo(Map m) { Map copy = new LinkedHashMap(m); ... }
出于性能缘由,LinkedHashMap是非同步的(not synchronized),若是须要在多线程环境使用,须要程序员手动同步;或者经过以下方式将LinkedHashMap包装成(wrapped)同步的:app
Map m = Collections.synchronizedMap(new LinkedHashMap(...));
get(Object key)
方法根据指定的key
值返回对应的value
。该方法跟HashMap.get()
方法的流程几乎彻底同样,读者可自行参考前文,这里再也不赘述。
put(K key, V value)
方法是将指定的key, value
对添加到map
里。该方法首先会对map
作一次查找,看是否包含该元组,若是已经包含则直接返回,查找过程相似于get()
方法;若是没有找到,则会经过addEntry(int hash, K key, V value, int bucketIndex)
方法插入新的entry
。
注意,这里的插入有两重含义:
- 从
table
的角度看,新的entry
须要插入到对应的bucket
里,当有哈希冲突时,采用头插法将新的entry
插入到冲突链表的头部。- 从
header
的角度看,新的entry
须要插入到双向链表的尾部。
addEntry()
代码以下:
// LinkedHashMap.addEntry() void addEntry(int hash, K key, V value, int bucketIndex) { if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length);// 自动扩容,并从新哈希 hash = (null != key) ? hash(key) : 0; bucketIndex = hash & (table.length-1);// hash%table.length } // 1.在冲突链表头部插入新的entry HashMap.Entry<K,V> old = table[bucketIndex]; Entry<K,V> e = new Entry<>(hash, key, value, old); table[bucketIndex] = e; // 2.在双向链表的尾部插入新的entry e.addBefore(header); size++; }
上述代码中用到了addBefore()
方法将新entry e
插入到双向链表头引用header
的前面,这样e
就成为双向链表中的最后一个元素。addBefore()
的代码以下:
// LinkedHashMap.Entry.addBefor(),将this插入到existingEntry的前面 private void addBefore(Entry<K,V> existingEntry) { after = existingEntry; before = existingEntry.before; before.after = this; after.before = this; }
上述代码只是简单修改相关entry
的引用而已。
remove(Object key)
的做用是删除key
值对应的entry
,该方法的具体逻辑是在removeEntryForKey(Object key)
里实现的。removeEntryForKey()
方法会首先找到key
值对应的entry
,而后删除该entry
(修改链表的相应引用)。查找过程跟get()
方法相似。
注意,这里的删除也有两重含义:
- 从
table
的角度看,须要将该entry
从对应的bucket
里删除,若是对应的冲突链表不空,须要修改冲突链表的相应引用。- 从
header
的角度来看,须要将该entry
从双向链表中删除,同时修改链表中前面以及后面元素的相应引用。
removeEntryForKey()
对应的代码以下:
// LinkedHashMap.removeEntryForKey(),删除key值对应的entry final Entry<K,V> removeEntryForKey(Object key) { ...... int hash = (key == null) ? 0 : hash(key); int i = indexFor(hash, table.length);// hash&(table.length-1) Entry<K,V> prev = table[i];// 获得冲突链表 Entry<K,V> e = prev; while (e != null) {// 遍历冲突链表 Entry<K,V> next = e.next; Object k; if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) {// 找到要删除的entry modCount++; size--; // 1. 将e从对应bucket的冲突链表中删除 if (prev == e) table[i] = next; else prev.next = next; // 2. 将e从双向链表中删除 e.before.after = e.after; e.after.before = e.before; return e; } prev = e; e = next; } return e; }
前面已经说过LinkedHashSet是对LinkedHashMap的简单包装,对LinkedHashSet的函数调用都会转换成合适的LinkedHashMap方法,所以LinkedHashSet的实现很是简单,这里再也不赘述。
public class LinkedHashSet<E> extends HashSet<E> implements Set<E>, Cloneable, java.io.Serializable { ...... // LinkedHashSet里面有一个LinkedHashMap public LinkedHashSet(int initialCapacity, float loadFactor) { map = new LinkedHashMap<>(initialCapacity, loadFactor); } ...... public boolean add(E e) {//简单的方法转换 return map.put(e, PRESENT)==null; } ...... }