HashMap和HashTable有什么不一样?在面试和被面试的过程当中,我问过也被问过这个问题,也见过了很多回答,今天决定写一写本身心目中的理想答案。java
JDK每一版本都在改进。本文讨论的HashMap和HashTable基于JDK 1.7.0_67。源码见这里git
HashTable产生于JDK 1.1,而HashMap产生于JDK 1.2。从时间的维度上来看,HashMap要比HashTable出现得晚一些。github
如下是HashTable的做者:面试
如下代码及注释来自java.util.HashTable * @author Arthur van Hoff * @author Josh Bloch * @author Neal Gafter
如下是HashMap的做者:算法
如下代码及注释来自java.util.HashMap * @author Doug Lea * @author Josh Bloch * @author Arthur van Hoff * @author Neal Gafter
能够看到HashMap的做者多了大神Doug Lea。不了解Doug Lea的,能够看这里。api
HashMap和HashTable都是基于哈希表来实现键值映射的工具类。讨论他们的不一样,咱们首先来看一下他们暴露在外的API有什么不一样。数组
下面两张图,我画出了HashMap和HashTable的类继承体系,并列出了这两个类的可供外部调用的公开方法。安全
从图中能够看出,两个类的继承体系有些不一样。虽然都实现了Map、Cloneable、Serializable三个接口。可是HashMap继承自抽象类AbstractMap,而HashTable继承自抽象类Dictionary。其中Dictionary类是一个已经被废弃的类,这一点咱们能够从它代码的注释中看到:数据结构
如下代码及注释来自java.util.Dictionary * <strong>NOTE: This class is obsolete. New implementations should * implement the Map interface, rather than extending this class.</strong>
同时咱们看到HashTable比HashMap多了两个公开方法。一个是elements,这来自于抽象类Dictionary,鉴于该类已经废弃,因此这个方法也就没什么用处了。另外一个多出来的方法是contains,这个多出来的方法也没什么用,由于它跟containsValue方法功能是同样的。代码为证:多线程
如下代码及注释来自java.util.HashTable public synchronized boolean contains(Object value) { if (value == null) { throw new NullPointerException(); } Entry tab[] = table; for (int i = tab.length ; i-- > 0 ;) { for (Entry<K,V> e = tab[i] ; e != null ; e = e.next) { if (e.value.equals(value)) { return true; } } } return false; } public boolean containsValue(Object value) { return contains(value); }
因此从公开的方法上来看,这两个类提供的,是同样的功能。都提供键值映射的服务,能够增、删、查、改键值对,能够对建、值、键值对提供遍历视图。支持浅拷贝,支持序列化。
HashMap是支持null键和null值的,而HashTable在遇到null时,会抛出NullPointerException异常。这并非由于HashTable有什么特殊的实现层面的缘由致使不能支持null键和null值,这仅仅是由于HashMap在实现时对null作了特殊处理,将null的hashCode值定为了0,从而将其存放在哈希表的第0个bucket中。咱们一put方法为例,看一看代码的细节:
如下代码及注释来自java.util.HashTable public synchronized V put(K key, V value) { // 若是value为null,抛出NullPointerException if (value == null) { throw new NullPointerException(); } // 若是key为null,在调用key.hashCode()时抛出NullPointerException // ... } 如下代码及注释来自java.util.HasMap public V put(K key, V value) { if (table == EMPTY_TABLE) { inflateTable(threshold); } // 当key为null时,调用putForNullKey特殊处理 if (key == null) return putForNullKey(value); // ... } private V putForNullKey(V value) { // key为null时,放到table[0]也就是第0个bucket中 for (Entry<K,V> e = table[0]; e != null; e = e.next) { if (e.key == null) { V oldValue = e.value; e.value = value; e.recordAccess(this); return oldValue; } } modCount++; addEntry(0, null, value, 0); return null; }
本节讨论HashMap和HashTable在数据结构和算法层面,有什么不一样。
HashMap和HashTable都使用哈希表来存储键值对。在数据结构上是基本相同的,都建立了一个继承自Map.Entry的私有的内部类Entry,每个Entry对象表示存储在哈希表中的一个键值对。
Entry对象惟一表示一个键值对,有四个属性:
-K key 键对象
-V value 值对象
-int hash 键对象的hash值
-Entry<K, V> entry 指向链表中下一个Entry对象,可为null,表示当前Entry对象在链表尾部
能够说,有多少个键值对,就有多少个Entry对象,那么在HashMap和HashTable中是怎么存储这些Entry对象,以方便咱们快速查找和修改的呢?请看下图。
上图画出的是一个桶数量为8,存有5个键值对的HashMap/HashTable的内存布局状况。能够看到HashMap/HashTable内部建立有一个Entry类型的引用数组,用来表示哈希表,数组的长度,便是哈希桶的数量。而数组的每个元素都是一个Entry引用,从Entry对象的属性里,也能够看出其是链表的节点,每个Entry对象内部又含有另外一个Entry对象的引用。
这样就能够得出结论,HashMap/HashTable内部用Entry数组实现哈希表,而对于映射到同一个哈希桶(数组的同一个位置)的键值对,使用Entry链表来存储(解决hash冲突)。
如下代码及注释来自java.util.HashTable /** * The hash table data. */ private transient Entry<K,V>[] table; 如下代码及注释来自java.util.HashMap /** * The table, resized as necessary. Length MUST Always be a power of two. */ transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;
从代码能够看到,对于哈希桶的内部表示,两个类的实现是一致的。
上一小节已经说了用来表示哈希表的内部数据结构。HashMap/HashTable还须要有算法来将给定的键key,映射到肯定的hash桶(数组位置)。须要有算法在哈希桶内的键值对多到必定程度时,扩充哈希表的大小(数组的大小)。本小节比较这两个类在算法层面有哪些不一样。
初始容量大小和每次扩充容量大小的不一样。先看代码:
如下代码及注释来自java.util.HashTable // 哈希表默认初始大小为11 public Hashtable() { this(11, 0.75f); } protected void rehash() { int oldCapacity = table.length; Entry<K,V>[] oldMap = table; // 每次扩容为原来的2n+1 int newCapacity = (oldCapacity << 1) + 1; // ... } 如下代码及注释来自java.util.HashMap // 哈希表默认初始大小为2^4=16 static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16 void addEntry(int hash, K key, V value, int bucketIndex) { // 每次扩充为原来的2n if ((size >= threshold) && (null != table[bucketIndex])) { resize(2 * table.length); }
能够看到HashTable默认的初始大小为11,以后每次扩充为原来的2n+1。HashMap默认的初始化大小为16,以后每次扩充为原来的2倍。还有我没列出代码的一点,就是若是在建立时给定了初始化大小,那么HashTable会直接使用你给定的大小,而HashMap会将其扩充为2的幂次方大小。
也就是说HashTable会尽可能使用素数、奇数。而HashMap则老是使用2的幂做为哈希表的大小。咱们知道当哈希表的大小为素数时,简单的取模哈希的结果会更加均匀(具体证实,见这篇文章),因此单从这一点上看,HashTable的哈希表大小选择,彷佛更高明些。但另外一方面咱们又知道,在取模计算时,若是模数是2的幂,那么咱们能够直接使用位运算来获得结果,效率要大大高于作除法。因此从hash计算的效率上,又是HashMap更胜一筹。
因此,事实就是HashMap为了加快hash的速度,将哈希表的大小固定为了2的幂。固然这引入了哈希分布不均匀的问题,因此HashMap为解决这问题,又对hash算法作了一些改动。具体咱们来看看,在获取了key对象的hashCode以后,HashTable和HashMap分别是怎样将他们hash到肯定的哈希桶(Entry数组位置)中的。
如下代码及注释来自java.util.HashTable // hash 不能超过Integer.MAX_VALUE 因此要取其最小的31个bit int hash = hash(key); int index = (hash & 0x7FFFFFFF) % tab.length; // 直接计算key.hashCode() private int hash(Object k) { // hashSeed will be zero if alternative hashing is disabled. return hashSeed ^ k.hashCode(); } 如下代码及注释来自java.util.HashMap int hash = hash(key); int i = indexFor(hash, table.length); // 在计算了key.hashCode()以后,作了一些位运算来减小哈希冲突 final int hash(Object k) { int h = hashSeed; if (0 != h && k instanceof String) { return sun.misc.Hashing.stringHash32((String) k); } h ^= k.hashCode(); // This function ensures that hashCodes that differ only by // constant multiples at each bit position have a bounded // number of collisions (approximately 8 at default load factor). h ^= (h >>> 20) ^ (h >>> 12); return h ^ (h >>> 7) ^ (h >>> 4); } // 取模再也不须要作除法 static int indexFor(int h, int length) { // assert Integer.bitCount(length) == 1 : "length must be a non-zero power of 2"; return h & (length-1); }
正如咱们所言,HashMap因为使用了2的幂次方,因此在取模运算时不须要作除法,只须要位的与运算就能够了。可是因为引入的hash冲突加重问题,HashMap在调用了对象的hashCode方法以后,又作了一些位运算在打散数据。关于这些位计算为何能够打散数据的问题,本文再也不展开了。感兴趣的能够看这里。
若是你有细心读代码,还能够发现一点,就是HashMap和HashTable在计算hash时都用到了一个叫hashSeed的变量。这是由于映射到同一个hash桶内的Entry对象,是以链表的形式存在的,而链表的查询效率比较低,因此HashMap/HashTable的效率对哈希冲突很是敏感,因此能够额外开启一个可选hash(hashSeed),从而减小哈希冲突。由于这是两个类相同的一点,因此本文再也不展开了,感兴趣的看这里。事实上,这个优化在JDK 1.8中已经去掉了,由于JDK 1.8中,映射到同一个哈希桶(数组位置)的Entry对象,使用了红黑树来存储,从而大大加速了其查找效率。
咱们说HashTable是同步的,HashMap不是,也就是说HashTable在多线程使用的状况下,不须要作额外的同步,而HashMap则不行。那么HashTable是怎么作到的呢?
如下代码及注释来自java.util.HashTable public synchronized V get(Object key) { Entry tab[] = table; int hash = hash(key); int index = (hash & 0x7FFFFFFF) % tab.length; for (Entry<K,V> e = tab[index] ; e != null ; e = e.next) { if ((e.hash == hash) && e.key.equals(key)) { return e.value; } } return null; } public Set<K> keySet() { if (keySet == null) keySet = Collections.synchronizedSet(new KeySet(), this); return keySet; }
能够看到,也比较简单,就是公开的方法好比get都使用了synchronized描述符。而遍历视图好比keySet都使用了Collections.synchronizedXXX进行了同步包装。
从个人品位来看,HashMap的代码要比HashTable整洁不少。下面这段HashTable的代码,我就觉着有点混乱,不太能接受这种代码复用的方式。
如下代码及注释来自java.util.HashTable /** * A hashtable enumerator class. This class implements both the * Enumeration and Iterator interfaces, but individual instances * can be created with the Iterator methods disabled. This is necessary * to avoid unintentionally increasing the capabilities granted a user * by passing an Enumeration. */ private class Enumerator<T> implements Enumeration<T>, Iterator<T> { Entry[] table = Hashtable.this.table; int index = table.length; Entry<K,V> entry = null; Entry<K,V> lastReturned = null; int type; /** * Indicates whether this Enumerator is serving as an Iterator * or an Enumeration. (true -> Iterator). */ boolean iterator; /** * The modCount value that the iterator believes that the backing * Hashtable should have. If this expectation is violated, the iterator * has detected concurrent modification. */ protected int expectedModCount = modCount; Enumerator(int type, boolean iterator) { this.type = type; this.iterator = iterator; } //... }
如下描述来自于HashTable的类注释:
If a thread-safe implementation is not needed, it is recommended to use HashMap in place of Hashtable. If a thread-safe highly-concurrent implementation is desired, then it is recommended to use java.util.concurrent.ConcurrentHashMap in place of Hashtable.
简单来讲就是,若是你不须要线程安全,那么使用HashMap,若是须要线程安全,那么使用ConcurrentHashMap。HashTable已经被淘汰了,不要在新的代码中再使用它。
虽然HashMap和HashTable的公开接口应该不会改变,或者说改变不频繁。但每一版本的JDK,都会对HashMap和HashTable的内部实现作优化,好比上文曾提到的JDK 1.8的红黑树优化。因此,尽量的使用新版本的JDK吧,除了那些炫酷的新功能,普通的API也会有性能上有提高。
为何HashTable已经淘汰了,还要优化它?由于有老的代码还在使用它,因此优化了它以后,这些老的代码也能得到性能提高。