博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
HashMap源码分析
阅读量:4150 次
发布时间:2019-05-25

本文共 9417 字,大约阅读时间需要 31 分钟。

首先,先对hashMap有个大概的认识,之前文章中,介绍了ArrayList 和LinkedList 他们的各自优缺点,HashMap是将二者进行了一个结合,其内部维护了一个数组,其中数组的元素是一个链表(单向链表),

Entry<k,v>[] table 

关于HashMap先了解其中比较重要的几个属性:

threshold: 数组长度大于设定的threshold值,进行扩容,

size:  HashMap中元素的数量

loadFactor:加载因子,使用加载因子和table数组的capacity 计算threshod, 来决定什么时候进行扩容

treeify_threshold 数组中链表所允许的最大长度,超过这个长度,将链表转为红黑树

untreeify_threshold 在移除数组中元素时,当红黑树的长度小于这个值时,需要把红黑树转为链表

这篇文章从下面几个方面介绍HashMap

  • 添加元素
  • 扩容
  • 并发情况下发生的死锁

先来看下数组中存放的对象

static class Entry
implements Map.Entry
{ final K key; V value; Entry
next; int hash;table数组中,key,value 就是我们添加进去的元素,hash,是通过Object类中的hash,以及HashMap中hash方法计算出来的,next 指向链表中的下一个元素。

通过无参数的方式创建一个hashMap时

/** * Constructs an empty HashMap with the default initial capacity * (16) and the default load factor (0.75). */public HashMap() {    this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR);}

会给出一个默认的数组长读和一个默认的加载因子,默认是的长度是16,加载因子0.75f, table的长度必须是2的幂次方,这个是因为在通过table的长度,&运算来快速地计算出key值在数组中存放的索引。

1、1先来看HashMap中关于根据key值,和key值对应的hash值,来计算在table数组中存放索引的方法。(jdk1.8)

static final int hash(Object key) {    int h;    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);}

key.hashCode(这个是object类当中的方法,当然如果是具体的对象,可以重写hashCode)会返回key值得hash码,key.hash 的高16和低16 进行异或计算,在table长度较小的情况下,也可以使数据相对来说分布的比较均匀。

接下来 (n-1)&hash 是相当于取模运算,table的长度设置成2的幂次方,所以这个操作从速度上会比直接 hash%n 效率更高。

1、2 关于put元素操作

public V put(K key, V value) {    return putVal(hash(key), key, value, false, true);}
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,               boolean evict) {    Node
[] tab; Node
p; int n, i; if ((tab = table) == null || (n = tab.length) == 0) //如果当前table 为空,执行resize方法 n = (tab = resize()).length; //① if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); //② else { Node
e; K k; if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) //这里就表明了为什么重写hashcode时,需要重写equals方法 e = p; //③ else if (p instanceof TreeNode) e = ((TreeNode
)p).putTreeVal(this, tab, hash, key, value); //④ else { for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); //⑤ break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; //⑥ } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; if (++size > threshold) resize(); afterNodeInsertion(evict); return null;}

<1>判断table是否为空,如果是,创建一个指定长度为16的Entry数组,

<2> 判断当前添加元素的hash值碰撞出来的索引上是否有元素,如果这个索引上没有元素,直接创建一个新的Entry,放置在当前位置上

<3> 如果当前hash值进行碰撞后,发现这个索引位置上是有元素的,并且这个索引所在的元素的key值和当前要添加的元素的key值相同(这里也说明了为什么在重写equals方法的同时也要重写hashCode方法),认为这个元素在数组中是存在的,那么将替换掉旧的value值,并且返回旧的value值

<4>如果说碰撞后,该索引上是有元素的,但是元素的值和我们要添加的key不相同,并且当前链表的类型是红黑树,那么我们就在红黑树下面添加一个元素。(关于红黑树这里不展开讨论)

<5>如果key不相同,并且当前链表的类型也不属于红黑树,就是一个单向链表,就按照链表的形式添加元素,在这里添加的时候会先判断,当前索引位置上链表的下一个元素是否为null, 如果是null直接创建一个新的节点,作为当前数组中链表中第一个元素的下个元素,判断当前链表的长度是否大于等于 treeify_threshold(默认是8),如果是,将链表转为红黑树

<6>如果数组中这个链表的下个元素的key和要添加的元素的key相同,会将当前value替换掉原来的value,并返回 oldValue.

以上就是HashMap在添加元素的操作。

  • HashMap的扩容

HashMap的扩容一般是当数组中的元素,大于threshold(capactity*loadFactor)值时,会进行扩容操作, 在进行扩容之后,会对原来的元素再进行一次索引计算,使之前的元素尽可能均匀的分布在数组当中,同时在扩容之后,每个链表中的元素也会发生变化。我们看下扩容的代码,当前扩容操作基于jdk1.7,每次扩容,新的容量都是旧容量的二倍。(capactity必须为2的幂次方)

void resize(int newCapacity) {    Entry[] oldTable = table;    int oldCapacity = oldTable.length;    if (oldCapacity == MAXIMUM_CAPACITY) {        threshold = Integer.MAX_VALUE;        return;    }    Entry[] newTable = new Entry[newCapacity];    transfer(newTable, initHashSeedAsNeeded(newCapacity)); //数据拷贝    table = newTable;    threshold = (int)Math.min(newCapacity * loadFactor, MAXIMUM_CAPACITY + 1);}
/** * Transfers all entries from current table to newTable. */void transfer(Entry[] newTable, boolean rehash) {    int newCapacity = newTable.length;    for (Entry
e : table) { while(null != e) { Entry
next = e.next; if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } int i = indexFor(e.hash, newCapacity); //仅在1.7 e.next = newTable[i]; newTable[i] = e; e = next; } }}

扩容操作是先基于新的容器大小创建出来一个新的数组,然后将旧数组中的元素进行散列后,复制到新的数组当中。我们用具体的数据看下,

假设原来数组的长度是2,有三个元素,hash值分别是key3,key7,key5 根据取模运算,key3,key7,key5 都存在与索引为1的数组上,且他们之间的顺序是 key3-->key7-->key5

如果进行扩容,扩容之后,数组的长度是4,对于原来key3,key7,key5这三个元素,取模后对应的就是3,3,1 也就是,会有key3,key7将会被放置在索引为3处,5 将会存放在索引为1处。

上面while循环中,是进行倒置操作,比如原来链表指向是key3-->key7-->key5, 会先拿到key3,计算后放在索引为3处,接下来,将其链表下一个元素设置为null, 接下来key7, 计算索引得到也是3,先把key7它后面的元素设置成之前放上去的key3, 然后再把key7 放在索引为3的起始位置。整个过程下来,就发现,原来链表当中key3 下一个元素是key7, 在扩容后,链表当中的顺序被修改了

在jdk8 当中用了一个更好地实现方式

final Node
[] resize() { Node
[] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) { if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0) { float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; @SuppressWarnings({"rawtypes","unchecked"}) Node
[] newTab = (Node
[])new Node[newCap]; table = newTab; if (oldTab != null) { for (int j = 0; j < oldCap; ++j) { Node
e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) ((TreeNode
)e).split(this, newTab, j, oldCap); else { // preserve order Node
loHead = null, loTail = null; Node
hiHead = null, hiTail = null; Node
next; do { next = e.next; if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); if (loTail != null) { loTail.next = null; newTab[j] = loHead; } if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab;}

经过观察发现,每次扩容都是原来长度的2倍,所以重新散列后计算出来的位置,要么是在原来的位置,要么是在原来的位置+oldCapacity, 只需要判断hash值和原来的长度进行&与操作,如果是0,表示扩容后索引不变,1的话,索引变为当前索引+oldCapacity

  • 关于高并发情况下,HashMap导致死循环问题
while(null != e) {    Entry
next = e.next; if (rehash) { e.hash = null == e.key ? 0 : hash(e.key); } int i = indexFor(e.hash, newCapacity); e.next = newTable[i]; newTable[i] = e; e = next;}

 

还是上面的例子,数组长度为2,load_factor是0.75,里面存放hash值分别是3,7,5的key3,key7,key5

 

当线程A 执行到e=key3, e.next= key7 时

假设线程B 也进入这个循环当中,并且进行扩容结束

table[3]=key3-->key7

table[1]=key5

此时线程继续进行while循环内部操作,会发现,key3-->key7,而key7-->key3,他们的next指向进入了循环依赖,当前while循环永远无法结束。(关于这部分内容,网上有给出很详细的分析过程,如果难以理解,把上面参数代入,进行代码走查,就可以完全理解这种死循环发生的原因)

  • get查询
public V get(Object key) {    Node
e; return (e = getNode(hash(key), key)) == null ? null : e.value;}
final Node
getNode(int hash, Object key) { Node
[] tab; Node
first, e; int n; K k; if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) { if (first.hash == hash && // always check first node ((k = first.key) == key || (key != null && key.equals(k)))) return first; if ((e = first.next) != null) { if (first instanceof TreeNode) return ((TreeNode
)first).getTreeNode(hash, key); do { if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) return e; } while ((e = e.next) != null); } } return null;}

关于查询操作,首先是计算出当前key的hash值,根据key和hash值,去数组当中查找,根据hash及数组长度与操作计算出索引位置,然后需要注意的是,对于一地个节点要单独进行匹配判断,原因是除了第一个节点,数组当中的对象有可能是红黑树,也有可能是单向链表,两者的查找方式不同。

总结:hashMap的查找方式相对于ArrayList循环整个数组,逐个比对,速度上要快很多。

  • 数组table 为什么是transizent 修饰,即不可以序列化的

可以看到HashMap对于key的操作是基于jdk中Object类当中hash方法,然后再进行hash值高16位和低16位异或运算,最后进行基于长度取模运算来得到存放的索引位置。Object类中hashCode是navative, 基于不同的虚拟机有不同的实现方式。如果每个平台上计算出来的索引值不同,那么在跨平台传输时,就会发生数据错乱。

为了解决这个问题,HashMap提供了writeObejct和readObject方法,这个不作为重点分析,有兴趣可以去看下。其实集合当中对于存储数据的大部分都是transient,因为集合当中数组拷贝也是基本虚拟机的

public native int hashCode();参考: 

 

 

你可能感兴趣的文章
【Python基础2】python字符串方法及格式设置
查看>>
【Python】random生成随机数
查看>>
【Python基础3】数字类型与常用运算
查看>>
Jenkins迁移jobs
查看>>
【Python基础4】for循环、while循环与if分支
查看>>
【Python基础5】列表和元组
查看>>
【Python基础6】格式化字符串
查看>>
【Python基础7】字典
查看>>
【Python基础8】函数参数
查看>>
【Python基础9】浅谈深浅拷贝及变量赋值
查看>>
Jenkins定制一个具有筛选功能的列表视图
查看>>
【Python基础10】探索模块
查看>>
【Python】将txt文件转换为html
查看>>
[Linux]Shell脚本实现按照模块信息拆分文件内容
查看>>
idea添加gradle模块报错The project is already registered
查看>>
在C++中如何实现模板函数的外部调用
查看>>
在C++中,关键字explicit有什么作用
查看>>
C++中异常的处理方法以及使用了哪些关键字
查看>>
如何定义和实现一个类的成员函数为回调函数
查看>>
内存分配的形式有哪些? C++
查看>>