文档章节

ConcurrentHashMap源码解析

grace_233
 grace_233
发布于 2018/12/10 16:09
字数 1331
阅读 13
收藏 0

初始化

先看看ConcurrentHashMap中几个重要的属性:

// 初始化容量大小
static final int DEFAULT_INITIAL_CAPACITY = 16;

//默认负载因子
static final float DEFAULT_LOAD_FACTOR = 0.75f;

//默认并发级别
static final int DEFAULT_CONCURRENCY_LEVEL = 16;

//最大的容量大小
static final int MAXIMUM_CAPACITY = 1 << 30;

//每个segment最小的数组大小
static final int MIN_SEGMENT_TABLE_CAPACITY = 2;

//最大的segment个数
static final int MAX_SEGMENTS = 1 << 16; 

//获取锁的重试次数,避免频繁修改下无限重试
static final int RETRIES_BEFORE_LOCK = 2;

//用于获取segments索引的mask值
final int segmentMask;

final int segmentShift;

//存放所有Segment的数组
final Segment<K,V>[] segments;
// initialCapacity整个数组的初始化大小
// loadFactor负载因子,跟HashMap一样
// 并发级别。
public ConcurrentHashMap(int initialCapacity,
                             float loadFactor, int concurrencyLevel) {
        if (!(loadFactor > 0) || initialCapacity < 0 || concurrencyLevel <= 0)
            throw new IllegalArgumentException();
        if (concurrencyLevel > MAX_SEGMENTS)
            concurrencyLevel = MAX_SEGMENTS;
        // Find power-of-two sizes best matching arguments
        int sshift = 0;
        int ssize = 1;
		//计算并行级别。这里是为了保证并行级别为2的n次方
        while (ssize < concurrencyLevel) {
            ++sshift;
            ssize <<= 1;
        }
        this.segmentShift = 32 - sshift;
        this.segmentMask = ssize - 1;
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
		//initialCapacity是整个map的容量大小,这里要把容量平分到每个Segment上
        int c = initialCapacity / ssize;
        if (c * ssize < initialCapacity)
            ++c;
        int cap = MIN_SEGMENT_TABLE_CAPACITY;
        while (cap < c)
            cap <<= 1;
        // create segments and segments[0]
        Segment<K,V> s0 =
            new Segment<K,V>(loadFactor, (int)(cap * loadFactor),
                             (HashEntry<K,V>[])new HashEntry[cap]);
        Segment<K,V>[] ss = (Segment<K,V>[])new Segment[ssize];
        UNSAFE.putOrderedObject(ss, SBASE, s0); // ordered write of segments[0]
        this.segments = ss;
    }

put方法

public V put(K key, V value) {
        Segment<K,V> s;
        if (value == null)
            throw new NullPointerException();
        int hash = hash(key);
		// 计算Segment数组的下标位置
        int j = (hash >>> segmentShift) & segmentMask;
		//如果Segment还没创建,就先创建
        if ((s = (Segment<K,V>)UNSAFE.getObject          // nonvolatile; recheck
             (segments, (j << SSHIFT) + SBASE)) == null) //  in ensureSegment
            s = ensureSegment(j);
	    //把数据put到segment中
        return s.put(key, hash, value, false);
    }

进入ensureSegment方法,查看创建segment的过程:

private Segment<K,V> ensureSegment(int k) {
    final Segment<K,V>[] ss = this.segments;
    long u = (k << SSHIFT) + SBASE; // raw offset
    Segment<K,V> seg;
    if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u)) == null) {
	//创建ConcurrentHashMap的时候就初始化第一个Segment的原因就在这里。就是为了使用第一个segment的数组长度,loadFactor去初始化别的segment.
        Segment<K,V> proto = ss[0]; // use segment 0 as prototype
        int cap = proto.table.length;
        float lf = proto.loadFactor;
        int threshold = (int)(cap * lf);
		//初始化Segment内部的数组
        HashEntry<K,V>[] tab = (HashEntry<K,V>[])new HashEntry[cap];
        if ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
            == null) { // recheck
            Segment<K,V> s = new Segment<K,V>(lf, threshold, tab);
            while ((seg = (Segment<K,V>)UNSAFE.getObjectVolatile(ss, u))
                   == null) {
				//使用CAS机制来初始化,防止并发问题
                if (UNSAFE.compareAndSwapObject(ss, u, null, seg = s))
                    break;
            }
        }
    }
    return seg;
}

Segment解析

Segment继承了ReentrantLock。 查看其segment中的put方法:

final V put(K key, int hash, V value, boolean onlyIfAbsent) {
   //先使用tryLock尝试获取独占锁。如果获取成功,返回null,如果获取不到,就进入scanAndLockForPut方法。
    HashEntry<K,V> node = tryLock() ? null :
        scanAndLockForPut(key, hash, value);
    V oldValue;
    try {
	    //Segment内部的数组
        HashEntry<K,V>[] tab = table;
		//计算数组下标
        int index = (tab.length - 1) & hash;
		//拿到这个数组下标位置的值
        HashEntry<K,V> first = entryAt(tab, index);
        for (HashEntry<K,V> e = first;;) {
            if (e != null) {
                K k;
				// 如果原来已经有这个key,就覆盖旧值
                if ((k = e.key) == key ||
                    (e.hash == hash && key.equals(k))) {
                    oldValue = e.value;
                    if (!onlyIfAbsent) {
                        e.value = value;
                        ++modCount;
                    }
                    break;
                }
                e = e.next;
            }
            else {
                if (node != null)
                    node.setNext(first);
                else
                    node = new HashEntry<K,V>(hash, key, value, first);
                int c = count + 1;
				// 如果这个Segement超过了阈值,对这个Segement进行扩容
                if (c > threshold && tab.length < MAXIMUM_CAPACITY)
                    rehash(node);
                else
                    setEntryAt(tab, index, node);
                ++modCount;
                count = c;
                oldValue = null;
                break;
            }
        }
    } finally {
        unlock();
    }
    return oldValue;
}

继续进入scanAndLockForPut方法:

private HashEntry<K,V> scanAndLockForPut(K key, int hash, V value) {
    HashEntry<K,V> first = entryForHash(this, hash);
    HashEntry<K,V> e = first;
    HashEntry<K,V> node = null;
    int retries = -1; // negative while locating node
    while (!tryLock()) {
        HashEntry<K,V> f; // to recheck first below
        if (retries < 0) {
            if (e == null) {
                if (node == null) // speculatively create node
                    node = new HashEntry<K,V>(hash, key, value, null);
                retries = 0;
            }
            else if (key.equals(e.key))
                retries = 0;
            else
                e = e.next;
        }
		//如果尝试次数大于MAX_SCAN_RETRIES,就阻塞的等待获取锁。
        else if (++retries > MAX_SCAN_RETRIES) {
            lock();
            break;
        }
        else if ((retries & 1) == 0 &&
                 (f = entryForHash(this, hash)) != first) {
            e = first = f; // re-traverse if entry changed
            retries = -1;
        }
    }
    return node;
}

这个方法的意思说白了也就是获取锁,顺便初始化一下HashEnrty.

进入rehash方法,看看Segment中的数组是如何扩容的:

private void rehash(HashEntry<K,V> node) {
    HashEntry<K,V>[] oldTable = table;
    int oldCapacity = oldTable.length;
    int newCapacity = oldCapacity << 1;
    threshold = (int)(newCapacity * loadFactor);
    HashEntry<K,V>[] newTable =
        (HashEntry<K,V>[]) new HashEntry[newCapacity];
    int sizeMask = newCapacity - 1;
    for (int i = 0; i < oldCapacity ; i++) {
        HashEntry<K,V> e = oldTable[i];
        if (e != null) {
            HashEntry<K,V> next = e.next;
            int idx = e.hash & sizeMask;
            if (next == null)   //  Single node on list
                newTable[idx] = e;
            else { // Reuse consecutive sequence at same slot
                HashEntry<K,V> lastRun = e;
                int lastIdx = idx;
                for (HashEntry<K,V> last = next;
                     last != null;
                     last = last.next) {
                    int k = last.hash & sizeMask;
                    if (k != lastIdx) {
                        lastIdx = k;
                        lastRun = last;
                    }
                }
                newTable[lastIdx] = lastRun;
                // Clone remaining nodes
                for (HashEntry<K,V> p = e; p != lastRun; p = p.next) {
                    V v = p.value;
                    int h = p.hash;
                    int k = h & sizeMask;
                    HashEntry<K,V> n = newTable[k];
                    newTable[k] = new HashEntry<K,V>(h, p.key, v, n);
                }
            }
        }
    }
    int nodeIndex = node.hash & sizeMask; // add the new node
    node.setNext(newTable[nodeIndex]);
    newTable[nodeIndex] = node;
    table = newTable;
}

get方法

总结

ConcurrentHashMap结构:

1. 默认的并发级别是16,也就是说默认会创建16个segment,并且初始化之后就不能修改。 并发级别为16的意思也就是说,默认支持16个并发写,如果这16个写操作发生在不同的segment上的话。

2. 每个segment的内部存储原理就跟HashMap是类似的。

3.put操作的锁是加在每个segment上而不是整个map上的,这样就提高了并发性。

未完待续

© 著作权归作者所有

共有 人打赏支持
上一篇: java_集合
下一篇: java垃圾回收
grace_233
粉丝 7
博文 89
码字总数 32759
作品 0
浦东
程序员
私信 提问
concurrenthashmap源码解析(Java7、Java8)

concurrenthashmap源码解析(Java1.7) 使用与获取全局信息的方法并不频繁的时候 01.在 ConcurrentHashMap 中,不允许用 null 作为键和值。 02.ConcurrentHashMap 使用分段锁(减少锁粒度)技...

叫我北北
2018/06/29
0
0
ConcurrentHashMap源码解析

本文主要内容 ConcurrentHashMap介绍 ConcurrentHashMap初始化 ConcurrentHashMap存储流程 ConcurrentHashMap取出流程 总结 1、ConcurrentHashMap介绍 关于Java集合类,已经介绍过很多了,今...

某昆
2018/08/18
0
0
spring源码核心:DefaultListableBeanFactory

核心创建方式 结构图 接口: AliasRegistry:注册别名和具体的名称接口 SingletonBeanRegistry:注册bean的接口 BeanFactory:bean的实际调用接口 HierarchicalBeanFactory:beanfactory的强...

GITTODO
2018/04/26
0
0
深入剖析 Java 7 中的 HashMap 和 ConcurrentHashMap

本文将深入剖析 Java7 中的 HashMap 和 ConcurrentHashMap 的源码,解析 HashMap 线程不安全的原理以及解决方案,最后以测试用例加以验证。 1 Java7 HashMap HashMap 的数据结构: 从上图中可...

简祥
2018/09/16
0
0
ConcurrentHashMap源码解析(JDK1.8)

通过HashMap的实现原理可以知道,HashMap在并发情况下的扩容操作,会出现链表造成闭环,导致在get时会出现死循环,因此HashMap是线程不安全的,但是HashMap的实现原理和源码对于学习Concurr...

激情的狼王丶21
2018/02/01
0
0

没有更多内容

加载失败,请刷新页面

加载更多

开始看《JSP&Servlet学习笔记》

1:WEB应用简介。其中1.2.1对Web容器的工作流程写得不错 2:编写Servlet。搞清楚了Java的Web目录结构,以及Web.xml的一些配置作用。特别是讲了@WebServlet标签 3:请求与响应。更细致的讲了从...

max佩恩
24分钟前
0
0
mysql分区功能详细介绍,以及实例

一,什么是数据库分区 前段时间写过一篇关于mysql分表的的文章,下面来说一下什么是数据库分区,以mysql为例。mysql数据库中的数据是以文件的形势存在磁盘上的,默认放在/mysql/data下面(可...

吴伟祥
24分钟前
0
0
SQL语句查询

1.1 排序 通过order by语句,可以将查询出的结果进行排序。放置在select语句的最后。 格式: SELECT * FROM 表名 ORDER BY 排序字段ASC|DESC; ASC 升序 (默认) DESC 降序 1.查询所有商品信息,...

stars永恒
41分钟前
2
0
IntelliJ IDEA 第一个 Scala 程序

IntelliJ 安装完成 Scala 插件后,你需要尝试使用 IntelliJ 来创建并且运行第一个程序。 通常这个程序只是简单的输出 Hello World。 创建一个新工程 在文件下面选择新建,然后选择创建工程。...

honeymose
45分钟前
2
0
csapp 习题 - 如何实现异或 exclusive-or

阅读 csapp v3 时,练习题 2.13 很有意思。练习题描述如下。 位设置是对于参数 mask 中每一个为 1 的位,那么参数 x 中相应位则被设置为 1 ;位清除是对于参数 mask 中每一个为 1 的位,那么...

ylme
昨天
6
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部