前言
还是需要从头阅读下HashMap的源码。目标在于更好的理解HashMap的用法,学习更精炼的编码规范,以及应对面试。
它根据键的hashCode值存储数据,大多数情况下可以直接定位到它的值,因而具有很快的访问速度,但遍历顺序却是不确定的。 HashMap最多只允许一条记录的键为null,允许多条记录的值为null。HashMap非线程安全,即任一时刻可以有多个线程同时写HashMap,可能会导致数据的不一致。如果需要满足线程安全,可以用 Collections的synchronizedMap方法使HashMap具有线程安全的能力,或者使用ConcurrentHashMap。
面试官: 说说HashMap的原理
答: HashMap是通过哈希表的数组链表实现的。内部维护一个Node数组,
当put时,计算key hash后的值当做索引。如果数组中该位置为null,则放入value。然后判断是否需要扩容,返回null。
如果数组上已经有元素,判断hash和key是否相等,相等就表示找到node节点了,不相等则判断该元素是TreeNode还是普通Node。
如果是TreeNode,则按照TreeNode的put方法插入。
如果不是TreeNode, 遍历链表,对比hash和key,若都不相等,则插入队尾,如果链表长度大于等于8,将链表转换为TreeNode.
找到node之后,node不为null则赋值value。最后返回原来的value。
完毕。
面试官: 如何扩容
答:(直接说1.8的内容,想要装逼体验深度就对比1.7. 比如1.7扩容会导致链表重排倒置,1.8不会,1.8不用再次计算hash等。当然,这样回答要准备好继续入坑,为什么,如何做到)
要说扩容,首先要知道原来的容量以及什么时候扩容。HashMap初始化的时候可以指定initialCapacity
和loadfactor
。capacity
是2的指数倍,表示数组的长度。
loadfactor
表示达到容量的百分比后扩容。threshold=capacity*loadfactor
就是HashMap对象中可以容纳的最大K-V键值对数量。
所以,当size(当前K-V键值对数量)超过threshold
,则进行扩容。当然,如果capacity已经大于2^30,则直接将threshold=Integer.MAX_VALUE
, 就不扩容了,碰撞吧。
扩容的时候先计算容量,扩大为原来的2倍,对应threshold
也扩大为原来的2倍。
然后将原来数组上的元素复制到新的数组。对于冲突碰撞的结点,是TreeNode则按TreeNode插入,不是TreeNode则将链表的一半平分到其他新增的索引位置。
关于几个数字。loadfactor=0.75; DEFAULT_INITIAL_CAPACITY = 1 << 4; MAXIMUM_CAPACITY = 1 << 30; TREEIFY_THRESHOLD = 8
。也就是说,对于我们平时直接new 的HashMap对象,默认数组长度为16,最大容纳12个,超过12个则扩容;当发生碰撞的数量小于8个则维护链表,当数量大于8个则改造成TreeNode.
面试官: 说TreeNode是怎么put的
红黑树啊,红黑树我不会写。
面试官: 如何get
答: 既然知道HashMap的存储原理,那个get也就呼之欲出了。 首先,计算hash索引,如果头结点不为null,如果头结点hash以及key都相等,则取出。
如果头结点不相等,并且next不为nul,判断next是否是TreeNode, 如果是TreeNode则TreeNode get.
如果不是TreeNode, 遍历链表,找到hash和key相等的取出value。
在这里,非常感谢美团技术博客中的《Java 8系列之重新认识HashMap》, 深入,透彻,易懂。
面试官: HashMap是线程安全的吗
答:不是,高并发中不仅会不安全,还有可能造成死循环(扩容的时候)。想要在并发中使用,请使用ConcurrentHashMap.
初始化,构造函数
HashMapmap = new HashMap<>();
对应源码为:
/** * Constructs an empty HashMap with the default initial capacity * (16) and the default load factor (0.75). */public HashMap() { this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted}
构造一个空的HashMap,默认容量(capacity)为16,默认负载因子(load factor)是0.75.
Put
/** * Associates the specified value with the specified key in this map. * If the map previously contained a mapping for the key, the old * value is replaced. * * @param key key with which the specified value is to be associated * @param value value to be associated with the specified key * @return the previous value associated with key, or * null if there was no mapping for key. * (A null return can also indicate that the map * previously associated null with key.) */public V put(K key, V value) { return putVal(hash(key), key, value, false, true);}
- put的key需要计算hashcode
- put的value可以是任何对象
- 如果key存在则替换并返回前一个对象
/** * Computes key.hashCode() and spreads (XORs) higher bits of hash * to lower. Because the table uses power-of-two masking, sets of * hashes that vary only in bits above the current mask will * always collide. (Among known examples are sets of Float keys * holding consecutive whole numbers in small tables.) So we * apply a transform that spreads the impact of higher bits * downward. There is a tradeoff between speed, utility, and * quality of bit-spreading. Because many common sets of hashes * are already reasonably distributed (so don't benefit from * spreading), and because we use trees to handle large sets of * collisions in bins, we just XOR some shifted bits in the * cheapest possible way to reduce systematic lossage, as well as * to incorporate impact of the highest bits that would otherwise * never be used in index calculations because of table bounds. */static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);}
重新计算hash,但仍旧根据key的hashcode的方法。
/** * Implements Map.put and related methods * * @param hash hash for key * @param key the key * @param value the value to put * @param onlyIfAbsent if true, don't change existing value * @param evict if false, the table is in creation mode. * @return previous value, or null if none */final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { //....}
- 核心put方法,第一个参数是key的hash之后再hash. 这里,我开始有个疑问,就是发现所有调用putVal的地方的第一个参数的hash的计算方式都是一样的,觉得应该去掉第一个参数,直接在这个方法里
hash(Key)
就好了。事实上,确实可以这么做,但带来的问题是所有调用这个方法的地方都要用同样的hash方法。 - 第二个参数是key
- 第三个参数是value
- 第4个参数是区分
putIfAbsent(k,v)
的标志,true表示如果不存在则存储,已经存在则不存储;默认false,即覆盖。 - 第5个参数
evict
是逐出的意思,只在LinkedHashMap中有用,本处空调用。
存储原理概述
首先,需要准备背景知识,关于数字二进制表示,左移右移等。参阅 http://www.cnblogs.com/woshimrf/p/operation-bit.html 。
PutVal()
final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { //内部数组 Node[] tab; //指针 Node p; //数组长度,索引 int n, i; //初始化数组,对于新建的对象,没有put的时候是没有创建数组的 if ((tab = table) == null || (n = tab.length) == 0) n = (tab = resize()).length; //计算索引,若当前结点为null,则直接直插入,完毕到返回。 if ((p = tab[i = (n - 1) & hash]) == null) tab[i] = newNode(hash, key, value, null); else { Node e; K k; //e找到的结点, //如果当前结点hash相同,key相同,则找到结点 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; //如果是红黑树 else if (p instanceof TreeNode) e = ((TreeNode )p).putTreeVal(this, tab, hash, key, value); else { //遍历链表,p是指针,e为找到的结点 for (int binCount = 0; ; ++binCount) { //遍历到尾结点后直接插入尾部新结点,此时e==null, 不参与后面的value覆盖逻辑。 if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st, 当链表长度大于8后转换为红黑树 treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } //找到结点后决定是否覆盖value if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount;//统计数组上的结点数量 if (++size > threshold) //当前K-V数量超过threshold后扩容 resize(); afterNodeInsertion(evict); return null; //因为执行到此处的代码都是新插入的结点,所以返回空。}
resize()
final Node[] resize() { //保存旧的数组 Node [] oldTab = table; int oldCap = (oldTab == null) ? 0 : oldTab.length; int oldThr = threshold; int newCap, newThr = 0; if (oldCap > 0) { // 超过最大值就不再扩充了,就只好随你碰撞去吧 if (oldCap >= MAXIMUM_CAPACITY) { threshold = Integer.MAX_VALUE; return oldTab; } // 没超过最大值,就扩充为原来的2倍 else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY && oldCap >= DEFAULT_INITIAL_CAPACITY) newThr = oldThr << 1; // double threshold } else if (oldThr > 0) // initial capacity was placed in threshold newCap = oldThr; else { // zero initial threshold signifies using defaults newCap = DEFAULT_INITIAL_CAPACITY; newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY); } if (newThr == 0) { //出现了,threshold的计算公式 float ft = (float)newCap * loadFactor; newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ? (int)ft : Integer.MAX_VALUE); } threshold = newThr; //用新的capacity来创建数组 @SuppressWarnings({"rawtypes","unchecked"}) Node [] newTab = (Node [])new Node[newCap]; table = newTab; if (oldTab != null) { //开始迁移复制 for (int j = 0; j < oldCap; ++j) { Node e; if ((e = oldTab[j]) != null) { oldTab[j] = null; if (e.next == null) //数组结点直接复制 newTab[e.hash & (newCap - 1)] = e; else if (e instanceof TreeNode) //红黑树结点 ((TreeNode )e).split(this, newTab, j, oldCap); else { // preserve order 对于碰撞的链表,优化,取出一半的结点到新的数组结点 Node loHead = null, loTail = null; Node hiHead = null, hiTail = null; Node next; do { next = e.next; // 原索引 if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; } // 原索引+oldCap else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null); // 原索引放到bucket里 if (loTail != null) { loTail.next = null; newTab[j] = loHead; } // 原索引+oldCap放到bucket里 if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab;}
参考
https://tech.meituan.com/java-hashmap.html