HashMap#put方法走读-待完善

    技术2023-10-06  121

    HashMap#put()源码逐行解析:实际是代码走读,以后想看的时候就看一下,不用每次都花时间去翻译,记性不太好,头发没了可以再长,记性不好,也没救了。

    public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } static final int hash(Object key) { int h; return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16); } final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { // tab:数组缓冲区;n:数组长度;i:数组下表;p:与数据发生碰撞时赋值,否则为null Node<K,V>[] tab; Node<K,V> p; int n, i; // step1:table是hashMap中生命的一个node数组缓冲区,把table的值赋给tab,如果tab为null或长度为0的话;可以理解为这是一个新创建的数组. if ((tab = table) == null || (n = tab.length) == 0) // step2:给新数组初始化容量,初始容量为16,其中加载因子为0.75f n = (tab = resize()).length; // step3:给新的Node对象分配下标i = (n - 1) & hash; // 并获取当前下标的值判断是否为null。 // i = (n - 1) & hash详解:假如数组为初始化数组容量为16,那么它的最大下标值为15,那么不管Hash(key)是多少都不会大于15,目的是为了防止数组下标越界。真牛皮 if ((p = tab[i = (n - 1) & hash]) == null) // 直接将新的Node对象添加进Node数组中。 tab[i] = newNode(hash, key, value, null); else { // 如果对数组进行撞库是与数组中的数据发生碰撞,则会进行下面散步判断 // e:与当前数据发生碰撞的Node对象;p:与当前数据发生碰撞的Node对象的key值 Node<K,V> e; K k; // 判断key与数组中存在的key是否一致 if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) e = p; // 如果是TreeNode结构,就调用TreeNode的方式插入值 else if (p instanceof TreeNode) e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); else { // 这里有个知识点,++binCount与binCount++的区别,所以我要多说两句。 // 详情可以看下面示例1图片: // 循环遍历直到链表中。 for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { p.next = newNode(hash, key, value, null); if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st treeifyBin(tab, hash); break; } if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) break; p = e; } } if (e != null) { // existing mapping for key V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) e.value = value; afterNodeAccess(e); return oldValue; } } ++modCount; // 从新设置数组长度咯 if (++size > threshold) resize(); afterNodeInsertion(evict); return null; }

    示例1:

     

    今天先写到这里,等晚一点进行完善,朋友们可以评论提醒我更正其中的错误。谢谢

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

     

    Processed: 0.010, SQL: 9