java 的HashMap底层数据结构

 HashMap也是咱们使用很是多的Collection,它是基于哈希表的 Map 接口的实现,以key-value的形式存在。在HashMap中,key-value老是会当作一个总体来处理,系统会根据hash算法来来计算key-value的存储位置,咱们老是能够经过key快速地存、取value。下面就来分析HashMap的存取。算法

1、定义

      HashMap实现了Map接口,继承AbstractMap。其中Map接口定义了键映射到值的规则,而AbstractMap类提供 Map 接口的骨干实现,以最大限度地减小实现此接口所需的工做,其实AbstractMap类已经实现了Map,这里标注Map LZ以为应该是更加清晰吧!数组

public class HashMap<K,V>
    extends AbstractMap<K,V>
    implements Map<K,V>, Cloneable, Serializable
{

    /**
     * The default initial capacity - MUST be a power of two.
     */
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16

    /**
     * The maximum capacity, used if a higher value is implicitly specified
     * by either of the constructors with arguments.
     * MUST be a power of two <= 1<<30.
     */
    static final int MAXIMUM_CAPACITY = 1 << 30;

    /**
     * The load factor used when none specified in constructor.
     */
    static final float DEFAULT_LOAD_FACTOR = 0.75f;

    /**
     * An empty table instance to share when the table is not inflated.
     */
    static final Entry<?,?>[] EMPTY_TABLE = {};

    /**
     * The table, resized as necessary. Length MUST Always be a power of two.
     */
    transient Entry<K,V>[] table = (Entry<K,V>[]) EMPTY_TABLE;

    /**
     * The number of key-value mappings contained in this map.
     */
    transient int size;

    /**
     * The next size value at which to resize (capacity * load factor).
     * @serial
     */
    // If table == EMPTY_TABLE then this is the initial capacity at which the
    // table will be created when inflated.
    int threshold;

    /**
     * The load factor for the hash table.
     *
     * @serial
     */
    final float loadFactor;

    /**
     * The number of times this HashMap has been structurally modified
     * Structural modifications are those that change the number of mappings in
     * the HashMap or otherwise modify its internal structure (e.g.,
     * rehash).  This field is used to make iterators on Collection-views of
     * the HashMap fail-fast.  (See ConcurrentModificationException).
     */
    transient int modCount;

    /**
     * The default threshold of map capacity above which alternative hashing is
     * used for String keys. Alternative hashing reduces the incidence of
     * collisions due to weak hash code calculation for String keys.
     * <p/>
     * This value may be overridden by defining the system property
     * {@code jdk.map.althashing.threshold}. A property value of {@code 1}
     * forces alternative hashing to be used at all times whereas
     * {@code -1} value ensures that alternative hashing is never used.
     */
    static final int ALTERNATIVE_HASHING_THRESHOLD_DEFAULT = Integer.MAX_VALUE;
}

 

2、构造函数

      HashMap提供了三个构造函数:数据结构

      HashMap():构造一个具备默认初始容量 (16) 和默认加载因子 (0.75) 的空 HashMap。app

      HashMap(int initialCapacity):构造一个带指定初始容量和默认加载因子 (0.75) 的空 HashMap。ide

      HashMap(int initialCapacity, float loadFactor):构造一个带指定初始容量和加载因子的空 HashMap。函数

      在这里提到了两个参数:初始容量,加载因子。这两个参数是影响HashMap性能的重要参数,其中容量表示哈希表中桶的数量,初始容量是建立哈希表时的容量,加载因子是哈希表在其容量自动增长以前能够达到多满的一种尺度,它衡量的是一个散列表的空间的使用程度,负载因子越大表示散列表的装填程度越高,反之愈小。对于使用链表法的散列表来讲,查找一个元素的平均时间是O(1+a),所以若是负载因子越大,对空间的利用更充分,然然后果是查找效率的下降;若是负载因子过小,那么散列表的数据将过于稀疏,对空间形成严重浪费。系统默认负载因子为0.75,通常状况下咱们是无需修改的。性能

      HashMap是一种支持快速存取的数据结构,要了解它的性能必需要了解它的数据结构。优化

3、数据结构

      咱们知道在Java中最经常使用的两种结构是数组和模拟指针(引用),几乎全部的数据结构均可以利用这两种来组合实现,HashMap也是如此。实际上HashMap是一个“链表散列”,以下是它数据结构:this

HashMap数据结构图_thumb[13]

      从上图咱们能够看出HashMap底层实现仍是数组,只是数组的每一项都是一条链。其中参数initialCapacity就表明了该数组的长度。下面为HashMap构造函数的源码:spa

 public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);

        this.loadFactor = loadFactor;
        threshold = initialCapacity;
        init();
    }

 

 从源码中能够看出,每次新建一个HashMap时,都会初始化一个table数组。table数组的元素为Entry节点。

static class Entry<K,V> implements Map.Entry<K,V> {
        final K key;
        V value;
        Entry<K,V> next;
        int hash;
}

 其中Entry为HashMap的内部类,它包含了键key、值value、下一个节点next,以及hash值,这是很是重要的,正是因为Entry才构成了table数组的项为链表。

      上面简单分析了HashMap的数据结构,下面将探讨HashMap是如何实现快速存取的。

4、存储实现:put(key,vlaue)

      首先咱们先看源码

 
 
public V put(K key, V value) {
        //当key为null,调用putForNullKey方法,保存null与table第一个位置中,这是HashMap容许为null的缘由
        if (key == null)
            return putForNullKey(value);
        //计算key的hash值
        int hash = hash(key.hashCode());                  ------(1)
        //计算key hash 值在 table 数组中的位置
        int i = indexFor(hash, table.length);             ------(2)
        //从i出开始迭代 e,找到 key 保存的位置
        for (Entry<K, V> e = table[i]; e != null; e = e.next) {
            Object k;
            //判断该条链上是否有hash值相同的(key相同)
            //若存在相同,则直接覆盖value,返回旧value
            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                V oldValue = e.value;    //旧值 = 新值
                e.value = value;
                e.recordAccess(this);
                return oldValue;     //返回旧值
            }
        }
        //修改次数增长1
        modCount++;
        //将key、value添加至i位置处
        addEntry(hash, key, value, i);
        return null;
    }
 

 

经过源码咱们能够清晰看到HashMap保存数据的过程为:首先判断key是否为null,若为null,则直接调用putForNullKey方法。若不为空则先计算key的hash值,而后根据hash值搜索在table数组中的索引位置,若是table数组在该位置处有元素,则经过比较是否存在相同的key,若存在则覆盖原来key的value,不然将该元素保存在链头(最早保存的元素放在链尾)。若table在该处没有元素,则直接保存。这个过程看似比较简单,其实深有内幕。有以下几点:

      一、 先看迭代处。此处迭代缘由就是为了防止存在相同的key值,若发现两个hash值(key)相同时,HashMap的处理方式是用新value替换旧value,这里并无处理key,这就解释了HashMap中没有两个相同的key。

      二、 在看(1)、(2)处。这里是HashMap的精华所在。首先是hash方法,该方法为一个纯粹的数学计算,就是计算h的hash值。

final int hash(Object k) {
        int h = hashSeed;
        if (0 != h && k instanceof String) {
            return sun.misc.Hashing.stringHash32((String) k);
        }

        h ^= k.hashCode();

        // This function ensures that hashCodes that differ only by
        // constant multiples at each bit position have a bounded
        // number of collisions (approximately 8 at default load factor).
        h ^= (h >>> 20) ^ (h >>> 12);
        return h ^ (h >>> 7) ^ (h >>> 4);
    }

HashMap的底层数组长度老是2的n次方,在构造函数中存在:capacity <<= 1;这样作老是可以保证HashMap的底层数组长度为2的n次方。当length为2的n次方时,h&(length - 1)就至关于对length取模,并且速度比直接取模快得多,这是HashMap在速度上的一个优化。至于为何是2的n次方下面解释。

      咱们回到indexFor方法,该方法仅有一条语句:h&(length - 1),这句话除了上面的取模运算外还有一个很是重要的责任:均匀分布table数据和充分利用空间。

      这里咱们假设length为16(2^n)和15,h为五、六、7。

table1_thumb[3]

      当n=15时,6和7的结果同样,这样表示他们在table存储的位置是相同的,也就是产生了碰撞,六、7就会在一个位置造成链表,这样就会致使查询速度下降。诚然这里只分析三个数字不是不少,那么咱们就看0-15。

table2_thumb[16]

      从上面的图表中咱们看到总共发生了8此碰撞,同时发现浪费的空间很是大,有一、三、五、七、九、十一、1三、15处没有记录,也就是没有存放数据。这是由于他们在与14进行&运算时,获得的结果最后一位永远都是0,即000一、00十一、010一、01十一、100一、10十一、110一、1111位置处是不可能存储数据的,空间减小,进一步增长碰撞概率,这样就会致使查询速度慢。而当length = 16时,length – 1 = 15 即1111,那么进行低位&运算时,值老是与原来hash值相同,而进行高位运算时,其值等于其低位值。因此说当length = 2^n时,不一样的hash值发生碰撞的几率比较小,这样就会使得数据在table数组中分布较均匀,查询速度也较快。

      这里咱们再来复习put的流程:当咱们想一个HashMap中添加一对key-value时,系统首先会计算key的hash值,而后根据hash值确认在table中存储的位置。若该位置没有元素,则直接插入。不然迭代该处元素链表并依此比较其key的hash值。若是两个hash值相等且key值相等(e.hash == hash && ((k = e.key) == key || key.equals(k))),则用新的Entry的value覆盖原来节点的value。若是两个hash值相等但key值不等 ,则将该节点插入该链表的链头。具体的实现过程见addEntry方法,以下:

 void addEntry(int hash, K key, V value, int bucketIndex) {
        if ((size >= threshold) && (null != table[bucketIndex])) {
            resize(2 * table.length);
            hash = (null != key) ? hash(key) : 0;
            bucketIndex = indexFor(hash, table.length);
        }

        createEntry(hash, key, value, bucketIndex);
    }

这个方法中有两点须要注意:

      一是链的产生。这是一个很是优雅的设计。系统老是将新的Entry对象添加到bucketIndex处。若是bucketIndex处已经有了对象,那么新添加的Entry对象将指向原有的Entry对象,造成一条Entry链,可是若bucketIndex处没有Entry对象,也就是e==null,那么新添加的Entry对象指向null,也就不会产生Entry链了。

      2、扩容问题。

      随着HashMap中元素的数量愈来愈多,发生碰撞的几率就愈来愈大,所产生的链表长度就会愈来愈长,这样势必会影响HashMap的速度,为了保证HashMap的效率,系统必需要在某个临界点进行扩容处理。该临界点在当HashMap中元素的数量等于table数组长度*加载因子。可是扩容是一个很是耗时的过程,由于它须要从新计算这些数据在新table数组中的位置并进行复制处理。因此若是咱们已经预知HashMap中元素的个数,那么预设元素的个数可以有效的提升HashMap的性能。

5、读取实现:get(key)

      相对于HashMap的存而言,取就显得比较简单了。经过key的hash值找到在table数组中的索引处的Entry,而后返回该key对应的value便可。

 

public V get(Object key) {
        if (key == null)
            return getForNullKey();
        Entry<K,V> entry = getEntry(key);

        return null == entry ? null : entry.getValue();
    }

final Entry<K,V> getEntry(Object key) {

 
 

        if (size == 0) {

 
 

            return null;

 
 

        }

 
 

 

 
 

        int hash = (key == null) ? 0 : hash(key);

 
 

        for (Entry<K,V> e = table[indexFor(hash, table.length)];

 
 

             e != null;

 
 

             e = e.next) {

 
 

            Object k;

 
 

            if (e.hash == hash &&

 
 

                ((k = e.key) == key || (key != null && key.equals(k))))

 
 

                return e;

 
 

        }

 
 

        return null;

 
 

    }

 

在这里可以根据key快速的取到value除了和HashMap的数据结构密不可分外,还和Entry有莫大的关系,在前面就提到过,HashMap在存储过程当中并无将key,value分开来存储,而是当作一个总体key-value来处理的,这个总体就是Entry对象。同时value也只至关于key的附属而已。在存储的过程当中,系统根据key的hashcode来决定Entry在table数组中的存储位置,在取的过程当中一样根据key的hashcode取出相对应的Entry对象。

相关文章
相关标签/搜索