java提高篇(二三)

  • 时间:
  • 浏览:0
  • 来源:5分时时彩官网_去哪玩5分时时彩_哪里可以玩5分时时彩

      HashMap也是亲戚亲戚大伙儿儿使用非常多的Collection,它是基于哈希表的 Map 接口的实现,以key-value的形式处于。在HashMap中,key-value老会 会当做太大太大整体来补救,系统会根据hash算法来来计算key-value的存储位置,亲戚亲戚大伙儿儿老会 才还可不可不可不还还可以通过key快速地存、取value。下面就来分析HashMap的存取。

一、定义

      HashMap实现了Map接口,继承AbstractMap。其中Map接口定义了键映射到值的规则,而AbstractMap类提供 Map 接口的骨干实现,以最大限度地减少实现此接口所需的工作,我觉得 AbstractMap类机会实现了Map,这里标注Map LZ我觉得 应该是更加清晰吧!

public class HashMap<K,V>
    extends AbstractMap<K,V>
    implements Map<K,V>, Cloneable, Serializable

二、构造函数

      HashMap提供了太大太大构造函数:

      HashMap():构造太大太大具有默认初始容量 (16) 和默认加载因子 (0.75) 的空 HashMap。

      HashMap(int initialCapacity):构造太大太大带指定初始容量和默认加载因子 (0.75) 的空 HashMap。

      HashMap(int initialCapacity, float loadFactor):构造太大太大带指定初始容量和加载因子的空 HashMap。

      在这里提到了太大太大参数:初始容量,加载因子。这太大太大参数是影响HashMap性能的重要参数,其中容量表示哈希表中桶的数量,初始容量是创建哈希表时的容量,加载因子是哈希表在其容量自动增加完后 才还可不可不可不还还可以达到多满的你这个 尺度,它衡量的是太大太大散列表的空间的使用程度,负载因子越大表示散列表的装填程度越高,反之愈小。对于使用链表法的散列表来说,查找太大太大元素的平均时间是O(1+a),但会 机会负载因子越大,对空间的利用更充分,然而后果是查找速率的降低;机会负载因子太小,不才能散列表的数据将过于稀疏,对空间造成严重浪费。系统默认负载因子为0.75,一般清况 下亲戚亲戚大伙儿儿是不必修改的。

      HashMap是你这个 支持快速存取的数据行态,要了解它的性能都要要了解它的数据行态。

三、数据行态

      亲戚亲戚大伙儿儿知道在Java中最常用的你这个 行态是数组和模拟指针(引用),几乎所有的数据行态都才还可不可不可不还还可以利用这你这个 来组合实现,HashMap也是不才能。实际上HashMap是太大太大“链表散列”,如下是它数据行态:

      从上图亲戚亲戚大伙儿儿才还可不可不可不还还可以看出HashMap底层实现还是数组,太大太大数组的每一项都有二根链。其中参数initialCapacity就代表了该数组的长度。下面为HashMap构造函数的源码:

public HashMap(int initialCapacity, float loadFactor) {
        //初始容量不才能<0
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: "
                    + initialCapacity);
        //初始容量不才能 > 最大容量值,HashMap的最大容量值为2^500
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        //负载因子不才能 < 0
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: "
                    + loadFactor);

        // 计算出大于 initialCapacity 的最小的 2 的 n 次方值。
        int capacity = 1;
        while (capacity < initialCapacity)
            capacity <<= 1;
        
        this.loadFactor = loadFactor;
        //设置HashMap的容量极限,当HashMap的容量达到该极限时就会进行扩容操作
        threshold = (int) (capacity * loadFactor);
        //初始化table数组
        table = new Entry[capacity];
        init();
    }

      从源码中才还可不可不可不还还可以看出,每次新建太大太大HashMap时,一定会初始化太大太大table数组。table数组的元素为Entry节点。

static class Entry<K,V> implements Map.Entry<K,V> {
        final K key;
        V value;
        Entry<K,V> next;
        final int hash;

        /**
         * Creates new entry.
         */
        Entry(int h, K k, V v, Entry<K,V> n) {
            value = v;
            next = n;
            key = k;
            hash = h;
        }
        .......
    }

      其中Entry为HashMap的外部类,它中含了键key、值value、下太大太大节点next,以及hash值,这是非常重要的,正是机会Entry才构成了table数组的项为链表。

      上边简单分析了HashMap的数据行态,下面将探讨HashMap是何如实现快速存取的。

四、存储实现:put(key,vlaue)

      首先亲戚亲戚大伙儿儿先看源码

public V put(K key, V value) {
        //当key为null,调用putForNullKey办法,保存null与table第太大太大位置中,这是HashMap允许为null的是因为着
        if (key == null)
            return putForNullKey(value);
        //计算key的hash值
        int hash = hash(key.hashCode());                  ------(1)
        //计算key hash 值在 table 数组中的位置
        int i = indexFor(hash, table.length);             ------(2)
        //从i出完后

刚开始迭代 e,找到 key 保存的位置
        for (Entry<K, V> e = table[i]; e != null; e = e.next) {
            Object k;
            //判断该条链上是否是有hash值相同的(key相同)
            //若处于相同,则直接覆盖value,返回旧value
            if (e.hash == hash && ((k = e.key) == key || key.equals(k))) {
                V oldValue = e.value;    //旧值 = 新值
                e.value = value;
                e.recordAccess(this);
                return oldValue;     //返回旧值
            }
        }
        //修改次数增加1
        modCount++;
        //将key、value再加至i位置处
        addEntry(hash, key, value, i);
        return null;
    }

      通过源码亲戚亲戚大伙儿儿才还可不可不可不还还可以清晰看多HashMap保存数据的过程为:首先判断key是否是为null,若为null,则直接调用putForNullKey办法。若不为空则先计算key的hash值,但会 根据hash值搜索在table数组中的索引位置,机会table数组在该位置处有元素,则通过比较是否是处于相同的key,若处于则覆盖太大太大key的value,但会 将该元素保处于链头(最先保存的元素倒进链尾)。若table在该处不才能元素,则直接保存。你这个 过程看似比较简单,我觉得 深有内幕。有如下几点:

      1、 先看迭代处。此处迭代是因为着太大太大为了补救处于相同的key值,若发现太大太大hash值(key)相一起去,HashMap的补救办法是用新value替换旧value,这里并不才能补救key,这就解释了HashMap中不才能太大太大相同的key。

      2、 在看(1)、(2)处。这里是HashMap的精华所在。首先是hash办法,该办法为太大太大纯粹的数学计算,太大太大计算h的hash值。

static int hash(int h) {
        h ^= (h >>> 20) ^ (h >>> 12);
        return h ^ (h >>> 7) ^ (h >>> 4);
    }

      亲戚亲戚大伙儿儿知道对于HashMap的table而言,数据分布都要均匀(最好次责都不才能太大太大元素,太大太大就才还可不可不可不还还可以直接找到),不才能太紧太大太大能太松,太紧会是因为着查询速率慢,太松则浪费空间。计算hash值后,为什么会么会才能保证table元素分布均与呢?亲戚亲戚大伙儿儿会想到取模,但会 机会取模的消耗较大,HashMap是太大太大补救的:调用indexFor办法。

static int indexFor(int h, int length) {
        return h & (length-1);
    }

      HashMap的底层数组长度老会 2的n次方,在构造函数中处于:capacity <<= 1;太大太大做老会 才能保证HashMap的底层数组长度为2的n次方。当length为2的n次方时,h&(length - 1)就要花费对length取模,但会 速率比直接取模快得多,这是HashMap在速率上的太大太大优化。至于为什么会么会是2的n次方下面解释。

      亲戚亲戚大伙儿儿回到indexFor办法,该办法仅有二根的话:h&(length - 1),这句话除了上边的取模运算外还有太大太大非常重要的责任:均匀分布table数据和充分利用空间。

      这里亲戚亲戚大伙儿儿假设length为16(2^n)和15,h为5、6、7。

      当n=15时,6和7的结果一样,太大太大表示亲戚亲戚大伙儿在table存储的位置是相同的,也太大太大产生了碰撞,6、7就会在太大太大位置形成链表,太大太大就会是因为着查询速率降低。诚然这里只分析太大太大数字都有太大太大,不才能亲戚亲戚大伙儿儿看多0-15。

      从上边的图表中亲戚亲戚大伙儿儿看多总共处于了8此碰撞,一起去发现浪费的空间非常大,有1、3、5、7、9、11、13、15处不才能记录,也太大太大不才能存放数据。这是机会亲戚亲戚大伙儿在与14进行&运算时,得到的结果最后一位永远都有0,即0001、0011、0101、0111、50001、1011、1101、1111位置处是不机会存储数据的,空间减少,进一步增加碰撞几率,太大太大就会是因为着查询速率慢。而当length = 16时,length – 1 = 15 即1111,不才能进行低位&运算时,值老会 与太大太大hash值相同,而进行高位运算时,其值等于其低位值。太大太大说当length = 2^n时,不同的hash值处于碰撞的概率比较小,太大太大就会使得数据在table数组中分布较均匀,查询速率也较快。

      这里亲戚亲戚大伙儿儿再来复习put的流程:当亲戚亲戚大伙儿儿想太大太大HashMap中再加一对key-value时,系统首先会计算key的hash值,但会 根据hash值确认在table中存储的位置。若该位置不才能元素,则直接插入。但会 迭代该处元素链表并依此比较其key的hash值。机会太大太大hash值相等且key值相等(e.hash == hash && ((k = e.key) == key || key.equals(k))),则用新的Entry的value覆盖太大太大节点的value。机会太大太大hash值相等但key值不等 ,则将该节点插入该链表的链头。具体的实现过程见addEntry办法,如下:

void addEntry(int hash, K key, V value, int bucketIndex) {
        //获取bucketIndex处的Entry
        Entry<K, V> e = table[bucketIndex];
        //将新创建的 Entry 倒进 bucketIndex 索引处,并让新的 Entry 指向太大太大的 Entry 
        table[bucketIndex] = new Entry<K, V>(hash, key, value, e);
        //若HashMap中元素的个数超过极限了,则容量扩大两倍
        if (size++ >= threshold)
            resize(2 * table.length);
    }

      你这个 办法中含两点都要注意:

      一是链的产生。这是太大太大非常优雅的设计。系统老会 将新的Entry对象再加到bucketIndex处。机会bucketIndex处机会有了对象,不才能新再加的Entry对象将指向原有的Entry对象,形成二根Entry链,但会 若bucketIndex处不才能Entry对象,也太大太大e==null,不才能新再加的Entry对象指向null,也就不必产生Entry链了。

      二、扩容难题。

      随着HashMap中元素的数量太大,处于碰撞的概率就不才能大,所产生的链表长度就会不才能长,太大太大势必会影响HashMap的速率,为了保证HashMap的速率,系统都要要在某个临界点进行扩容补救。该临界点在当HashMap中元素的数量等于table数组长度*加载因子。但会 扩容是太大太大非常耗时的过程,机会它都要重新计算什么数据在新table数组中的位置并进行克隆qq好友好友补救。太大太大机会亲戚亲戚大伙儿儿机会预知HashMap中元素的个数,不才能预设元素的个数才能有效的提高HashMap的性能。

五、读取实现:get(key)

      相对于HashMap的存而言,取就显得比较简单了。通过key的hash值找到在table数组中的索引处的Entry,但会 返回该key对应的value即可。

public V get(Object key) {
        // 若为null,调用getForNullKey办法返回相对应的value
        if (key == null)
            return getForNullKey();
        // 根据该 key 的 hashCode 值计算它的 hash 码  
        int hash = hash(key.hashCode());
        // 取出 table 数组中指定索引处的值
        for (Entry<K, V> e = table[indexFor(hash, table.length)]; e != null; e = e.next) {
            Object k;
            //若搜索的key与查找的key相同,则返回相对应的value
            if (e.hash == hash && ((k = e.key) == key || key.equals(k)))
                return e.value;
        }
        return null;
    }

      在这才能才能根据key快速的取到value除了和HashMap的数据行态密不可分外,还和Entry有莫大的关系,在前面就提到过,HashMap在存储过程中并不才能将key,value分开来存储,太大太大当做太大太大整体key-value来补救的,你这个 整体太大太大Entry对象。一起去value也我希望花费key的附属而已。在存储的过程中,系统根据key的hashcode来决定Entry在table数组中的存储位置,在取的过程中同样根据key的hashcode取出相对应的Entry对象。

    >>>>>>欢迎各位关注我的此人 站点http://cmsblogs.com/