文档章节

Java 并发实践 — ConcurrentHashMap 与 CAS

大数据之路
 大数据之路
发布于 2012/10/07 19:32
字数 2261
阅读 441
收藏 0

最近在做接口限流时涉及到了一个有意思问题,牵扯出了关于concurrentHashMap的一些用法,以及CAS的一些概念。限流算法很多,我主要就以最简单的计数器法来做引。先抽象化一下需求:统计每个接口访问的次数。一个接口对应一个url,也就是一个字符串,每调用一次对其进行加一处理。可能出现的问题主要有三个:

  1. 多线程访问,需要选择合适的并发容器
  2. 分布式下多个实例统计接口流量需要共享内存
  3. 流量统计应该尽可能不损耗服务器性能

但这次的博客并不是想描述怎么去实现接口限流,而是主要想描述一下遇到的问题,所以,第二点暂时不考虑,即不使用Redis。

说到并发的字符串统计,立即让人联想到的数据结构便是ConcurrentHashpMap<String,Long> urlCounter;
如果你刚刚接触并发可能会写出如代码清单1的代码

代码清单1:

public class CounterDemo1 {
 
    private final Map<String, Long> urlCounter = new ConcurrentHashMap<>();
 
    //接口调用次数+1
    public long increase(String url) {
        Long oldValue = urlCounter.get(url);
        Long newValue = (oldValue == null) ? 1L : oldValue + 1;
        urlCounter.put(url, newValue);
        return newValue;
    }
 
    //获取调用次数
    public Long getCount(String url){
        return urlCounter.get(url);
    }
 
    public static void main(String[] args) {
        ExecutorService executor = Executors.newFixedThreadPool(10);
        final CounterDemo1 counterDemo = new CounterDemo1();
        int callTime = 100000;
        final String url = "http://localhost:8080/hello";
        CountDownLatch countDownLatch = new CountDownLatch(callTime);
        //模拟并发情况下的接口调用统计
        for(int i=0;i<callTime;i++){
            executor.execute(new Runnable() {
                @Override
                public void run() {
                    counterDemo.increase(url);
                    countDownLatch.countDown();
                }
            });
        }
        try {
            countDownLatch.await();
        } catch (InterruptedException e) {
            e.printStackTrace();
        }
        executor.shutdown();
        //等待所有线程统计完成后输出调用次数
        System.out.println("调用次数:"+counterDemo.getCount(url));
    }
}
 
console output:
调用次数:96526

都说concurrentHashMap是个线程安全的并发容器,所以没有显示加同步,实际效果呢并不如所愿。

问题就出在increase方法,concurrentHashMap能保证的是每一个操作(put,get,delete…)本身是线程安全的,但是我们的increase方法,对concurrentHashMap的操作是一个组合,先get再put,所以多个线程的操作出现了覆盖。如果对整个increase方法加锁,那么又违背了我们使用并发容器的初衷,因为锁的开销很大。我们有没有方法改善统计方法呢?
代码清单2罗列了concurrentHashMap父接口concurrentMap的一个非常有用但是又常常被忽略的方法。

代码清单2:

/**
 * Replaces the entry for a key only if currently mapped to a given value.
 * This is equivalent to
 *  <pre> {@code
 * if (map.containsKey(key) && Objects.equals(map.get(key), oldValue)) {
 *   map.put(key, newValue);
 *   return true;
 * } else
 *   return false;
 * }</pre>
 *
 * except that the action is performed atomically.
 */
boolean replace(K key, V oldValue, V newValue);

这其实就是一个最典型的CAS操作,except that the action is performed atomically.这句话真是帮了大忙,我们可以保证比较和设置是一个原子操作,当A线程尝试在increase时,旧值被修改的话就回导致replace失效,而我们只需要用一个循环,不断获取最新值,直到成功replace一次,即可完成统计。

改进后的increase方法如下

代码清单3:

public long increase2(String url) {
        Long oldValue, newValue;
        while (true) {
            oldValue = urlCounter.get(url);
            if (oldValue == null) {
                newValue = 1l;
                //初始化成功,退出循环
                if (urlCounter.putIfAbsent(url, 1l) == null)
                    break;
                //如果初始化失败,说明其他线程已经初始化过了
            } else {
                newValue = oldValue + 1;
                //+1成功,退出循环
                if (urlCounter.replace(url, oldValue, newValue))
                    break;
                //如果+1失败,说明其他线程已经修改过了旧值
            }
        }
        return newValue;
    }
 
console output:
调用次数:100000

再次调用后获得了正确的结果,上述方案看上去比较繁琐,因为第一次调用时需要进行一次初始化,所以多了一个判断,也用到了另一个CAS操作putIfAbsent,他的源代码描述如下:

代码清单4:

/**
     * If the specified key is not already associated
     * with a value, associate it with the given value.
     * This is equivalent to
     *  <pre> {@code
     * if (!map.containsKey(key))
     *   return map.put(key, value);
     * else
     *   return map.get(key);
     * }</pre>
     *
     * except that the action is performed atomically.
     *
     * @implNote This implementation intentionally re-abstracts the
     * inappropriate default provided in {@code Map}.
     *
     * @param key key with which the specified value is to be associated
     * @param value value to be associated with the specified key
     * @return the previous value associated with the specified key, or
     *         {@code null} if there was no mapping for the key.
     *         (A {@code null} return can also indicate that the map
     *         previously associated {@code null} with the key,
     *         if the implementation supports null values.)
     * @throws UnsupportedOperationException if the {@code put} operation
     *         is not supported by this map
     * @throws ClassCastException if the class of the specified key or value
     *         prevents it from being stored in this map
     * @throws NullPointerException if the specified key or value is null,
     *         and this map does not permit null keys or values
     * @throws IllegalArgumentException if some property of the specified key
     *         or value prevents it from being stored in this map
     */
     V putIfAbsent(K key, V value);

简单翻译如下:“如果(调用该方法时)key-value 已经存在,则返回那个 value 值。如果调用时 map 里没有找到 key 的 mapping,返回一个 null 值”。值得注意点的一点就是concurrentHashMap的value是不能存在null值的。实际上呢,上述的方案也可以把Long替换成AtomicLong,可以简化实现, ConcurrentHashMap

private AtomicLongMap<String> urlCounter3 = AtomicLongMap.create();
 
public long increase3(String url) {
    long newValue = urlCounter3.incrementAndGet(url);
    return newValue;
}
 
 
public Long getCount3(String url) {
    return urlCounter3.get(url);
}

看一下他的源码就会发现,其实和代码清单3思路差不多,只不过功能更完善了一点。

和CAS很像的操作,我之前的博客中提到过数据库的乐观锁,用version字段来进行并发控制,其实也是一种compare and swap的思想。

杂谈:网上很多对ConcurrentHashMap的介绍,众所周知,这是一个用分段锁实现的一个线程安全的map容器,但是真正对他的使用场景有介绍的少之又少。面试中能知道这个容器的人也确实不少,问出去,也就回答一个分段锁就没有下文了,但我觉得吧,有时候一知半解反而会比不知道更可怕。

++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++

https://www.awaimai.com/348.html
网站大规模并发处理方案:电商秒杀与抢购
——————————
今天分享的主题最后的讨论很好,最后部分同学可能还是会有疑惑,到底高并发或电商场景下该用乐观锁还是悲观锁呢?
建议感兴趣的同学先看下上面那篇文章,对整个背景有个大体了解,再回来咱们的问题:

悲观锁和乐观锁是数据库用来保证数据并发安全防止更新丢失的两种方法,PPT列举的例子在select ... for update 前加个事务就可以防止更新丢失。悲观锁和乐观锁大部分场景下差异不会不大,一些独特场景下有一些差别,一般我们可以从如下几个方面来判断:

1.响应速度:如果需要非常高的响应速度,建议采用乐观锁方案,成功就执行,不成功就失败,不需要等待其他并发去释放锁;
2.冲突频率:如果冲突频率非常高,建议采用悲观锁,保证成功率,如果冲突频率大,乐观锁会需要多次重试才能成功,资源消耗代价比较大;
3.重试代价:如果重试代价大,建议采用悲观锁,比如付款的时候调用第三方外部接口;

总结起来就是:
秒杀活动是一个并发写的过程,同时也是一个随机性很高的事件,并不需要去关注事务失败率高这个问题,所以采用乐观锁是合适的。但如果要保证事务成功率的话,显然使用乐观锁是一个糟糕的方案。所以到底该用悲观锁还是乐观锁还是得看场景和业务需求,还有架构。

Refer:

[1] 非阻塞同步算法与CAS(Compare and Swap)无锁算法

http://www.cnblogs.com/Mainz/p/3546347.html

     小白科普:悲观锁和乐观锁

     http://bit.ly/2isI7Jx

     并发一枝花之 ConcurrentLinkedQueue

     http://bit.ly/2hEmxlR

[2] ConcurrentHashMap使用示例

https://my.oschina.net/mononite/blog/144329

[3] 深度剖析ConcurrentHashMap源码

http://blog.csdn.net/xiaoxian8023/article/details/49249091

[4] CAS下ABA问题及优化方案 | 架构师之路

     http://bit.ly/2w1Vfve

     库存扣多了,到底怎么整 | 架构师之路

     http://chuansong.me/n/1921434646119

     库存扣减还有这么多方案? | 架构师之路

     http://chuansong.me/n/1921434546720

[5] Java并发编程——锁与可重入锁

     http://www.jianshu.com/p/007bd7029faf

     java的可重入锁用在哪些场合?

     https://www.zhihu.com/question/23284564

     java自旋锁

     http://www.jianshu.com/p/dfbe0ebfec95

     java锁的种类以及辨析(一):自旋锁

     http://ifeve.com/java_lock_see1/

[6] Disruptor简介

     http://blog.csdn.net/winwill2012/article/details/71718809

     高性能队列——Disruptor

     https://zhuanlan.zhihu.com/p/23863915

     并发框架DISRUPTOR译文

     http://coolshell.cn/articles/9169.html

[7] Java并发编程-原子性变量

http://www.jianshu.com/p/9e473657340a

本文转载自:http://www.importnew.com/26035.html

共有 人打赏支持
大数据之路
粉丝 1543
博文 516
码字总数 343694
作品 0
武汉
架构师
私信 提问
【死磕Java并发】—– 死磕 Java 并发精品合集

【死磕 Java 并发】系列是 LZ 在 2017 年写的第一个死磕系列,一直没有做一个合集,这篇博客则是将整个系列做一个概览。 先来一个总览图: 【高清图,请关注“Java技术驿站”公众号,回复:脑...

chenssy
07/22
0
0
10《Java核心技术》之如何保证集合是线程安全的? ConcurrentHashMap如何实现高效地线程安全?

一、提出问题 之前我们一起讨论过两讲 Java 集合框架的典型容器类,它们绝大部分都不是线程安全的,仅有的线程安全实现,比如 Vector、Stack,在性能方面也远不尽如人意。幸好 Java 语言提供...

飞鱼说编程
10/18
0
0
Java:ConcurrentHashMap的实现机制

探索 ConcurrentHashMap 高并发性的实现机制 Java并发编程之ConcurrentHashMap 聊聊并发(四)——深入分析ConcurrentHashMap 上面的三篇分析是针对java7的,java8中的实现方式已经变化。...

樂天
2015/06/28
0
0
一文读懂JDK1.7,JDK1.8,JDK1.9的hashmap,hashtable,concurrenthashmap及他们的区别

本篇为威力加强升级版本,读到最后,有惊吓 1:hashmap简介(如下,数组-链表形式) HashMap的存储结构 图中,紫色部分即代表哈希表,也称为哈希数组(默认数组大小是16,每对key-value键值对...

java进阶架构师
08/14
0
0
一文读懂JDK7,8,9的hashmap,hashtable,concurrenthashmap及他们的区别

内容和标题一样长哦,人家写了好久的。如无特别指明,内容对应的源码是jdk1.7(后面会和1.8对比) 1:hashmap简介(如下,数组-链表形式) HashMap的存储结构 图中,紫色部分即代表哈希表,也...

java进阶架构师
10/28
0
0

没有更多内容

加载失败,请刷新页面

加载更多

Java 11 已发布,String 还能这样玩!

在文章《Java 11 正式发布,这 8 个逆天新特性教你写出更牛逼的代码》中,我有介绍到 Java 11 的八个新特性,其中关于 String 加强部分,我觉得有点意思,这里单独再拉出来讲。 Java 11 增加...

Java技术栈
24分钟前
2
0
什么是以太坊DAO?(二)

Decentralized Autonomous Organization,简称DAO,以太坊中重要的概念。一般翻译为去中心化的自治组织。 在上一节中,我们为了展示什么是DAO创建了一个合约,就像一个采用邀请制的俱乐部,会...

geek12345
39分钟前
4
0
全屋WiFi彻底无死角 这才是终极解决方案

无线网络现在不仅在家庭中不可或缺,在酒店、医院、学校等场景中的需求也越来越多。尤其是这些场景中,房间多但也需要每个房间都能够完美覆盖WiFi,传统的吸顶式AP就无法很好的解决问题。 H3...

linux-tao
53分钟前
4
0
Python日期字符串比较

需要用python的脚本来快速检测一个文件内的二个时间日期字符串的大小,其实实现很简单,首先一些基础的日期格式化知识如下 复制代码 %a星期的简写。如 星期三为Web %A星期的全写。如 星期三为...

dragon_tech
53分钟前
3
0
ORA 各种oraclesql错误

ORA-00001: 违反唯一约束条件 (.) ORA-00017: 请求会话以设置跟踪事件 ORA-00018: 超出最大会话数 ORA-00019: 超出最大会话许可数 ORA-00020: 超出最大进程数 () ORA-00021: 会话附属于其它某...

青峰Jun19er
57分钟前
4
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部