文档章节

“秒杀”问题的数据库和SQL设计

ww1234
 ww1234
发布于 2015/05/06 15:55
字数 2468
阅读 39
收藏 1

问题的来源

上篇文章介绍了 ETL 场景下的高性能高一致性解决方案,这次的问题也是一个常见的问题。

最近发现很多人被类似秒杀这样的设计困扰,其实这类问题可以很方便地解决,先来说说这类问题的关键点是什么:

  1. 一定要高性能,不然还能叫秒杀吗?

  2. 要高一致性,库存只有100个,不能卖出去101个吧?但是库存10000实际只卖了9999是否允许呢?

  3. 既然这里说了是秒杀,那往往还会针对每个用户有购买数量的限制。

总结一下,还是那几个词:高性能高一致性!

下文的所有解决方案是在 Mysql InnoDB 下做的。因为用到了很多数据库特性。其他的数据库或其他的数据库引擎会有不同的表现,请注意。

 

完全不考虑一致性的方案

表结构

+-----------+------------------+------+-----+---------+----------------+
| Field     | Type             | Null | Key | Default | Extra          |
+-----------+------------------+------+-----+---------+----------------+
| id        | int(11) unsigned | NO   | PRI | NULL    | auto_increment |
| user_id   | int(11)          | NO   |     | NULL    |                |
| deal_id   | int(11)          | NO   |     | NULL    |                |
| buy_count | int(11)          | NO   |     | NULL    |                |
+-----------+------------------+------+-----+---------+----------------+

 

方案

表结构很简单,其实就是一个userdeal的关联表。谁买了多少就插入数据呗。

首先,还要检查一下传过来的buy_count是否超过单人购买限制。

接下来,每次插入前执行以下以下操作检查一下是否超卖即可:

select sum(buy_count) from UserDeal where deal_id = ?

最后还要检查一下这个用户是否购买过:

select count(*) from UserDeal where user_id = ? and deal_id = ?

全都没问题了就插入数据:

insert into UserDeal (user_id, deal_id, buy_count) values (?, ?, ?)

 

存在的问题

大家别笑,这样的设计你一定做过,刚毕业的时候谁没设计过这样的系统啊?而且大部分系统对性能和一致性的要求并没有那么高,所以以上的设计方案还真是普遍存在的。

那就说说在什么情况下会出问题吧:

  1. 如果库存只剩一个,两个用户同时点购买,两个人检查全部成功,最后,就超卖了。

  2. 如果一个用户同时发起两次请求,检测部分同样可能会同时通过,最后,数据就异常了。

那就让我们一步步来解决里面存在的问题吧。

 

保证单用户不会重复购买

先来解决最简单的问题,保证单用户不会重复购买。

其实只要利用数据库特性即可,让我们来加一个索引:

alter table UserDeal add unique user_id_deal_id(user_id, deal_id)

加上唯一索引后,不仅查询性能提高了,插入的时候如果重复还会自动报错。

当然别忘了在业务代码中 catch 一下这个异常,并在页面上给用户友好的提醒。

 

解决超卖问题

方案

为了解决这个问题,第一个想到的就是把这几次操作在事务中操作。否则无论怎么改,也都不是原子性的了。

但是加完事务后就完了?

上面的select语句没有使用for update关键字,所以就算加入了事务也不会影响其他人读写。

所以我们只要改一下select语句即可:

select sum(buy_count) from UserDeal where deal_id = ? for update

 

优化

刚改完后发现,问题解决了!so easy!步步高点读机,哪里不会点哪里,so easy!

但是不对啊!为什么两个用户操作不同的deal也会相互影响呢?

原来我们的select语句中的查询条件是where deal_id = ?,你以为只会锁所有满足条件的数据对吧?

但实际上,如果你查询的条件不在索引中,那么 InnoDB 会启用表锁!

那就加一个索引呗:

alter table UserDeal add index ix_deal_id(deal_id)

 

提高性能了

好了,到目前为止,无论用户怎没点,无论多少个人买同一单,都不会出现一致性的问题的。

而且事务都是行锁,如果你的业务场景不是秒杀,操作是分散在各个单子上的。而且你的压力不大,那么优化到这就够了。

但是,如果你真的会有几万人、几十万人同时秒杀一个单子怎么办?

很多交易类网站都会有这样的活动。

 

我们现在思考一下,上面的优化好像已经是极致了,不仅满足了一致性,而且性能方面也做了足够的考量,无从下手啊!

这时候,只能牺牲一些东西了。

 

鱼与熊掌不可兼得

优化的思路

性能和一致性常常同时出现,却又相互排斥。刚才我们为了解决一致性问题带入了性能问题。现在我们又要为了性能而牺牲一致性了。

这里想提高性能的话,就要去掉事务了。那么一旦去掉事务,一致性就没办法保证了,但有些一致性的问题并不是那么地严重。

所以,这里最关键的就是要想清楚,你的业务场景对什么不能容忍,对什么可以容忍。不同业务场景最后的方案一定是不同的。

 

秒杀可以容忍什么

本文标题说的是秒杀,因为这个业务场景很常见,那么我们就来说说秒杀。

秒杀最怕的是超卖,但却可以接受少卖。什么是少卖?我有一万份,卖了9999份,但数据库里却说已经买完了。

这个严重吗?只要我们能把这个错误的量控制在一定比例以内并且可以后续修复,那这在秒杀中就不是一个问题了。

 

为了性能牺牲一致性的设计方案

去掉了事务会发生什么

在上述的方案中,如果去掉了事务,单用户重复购买是不会有问题的,因为这个是通过唯一索引来实现的。

所以这边我们主要是去解决超卖问题。

既然去掉了失误,那么for update琐行就无效了,我们可以另辟蹊径,来解决这个问题。

 

修改表结构

刚才一直没有提Deal表,其实它就是存了一下基本信息,包括最大售卖量。

之前我们是通过对关联表进行sum(buy_count)操作来得到已经卖掉的数量的,然后进行判断后再进行插入数据。

现在没了事务,这样的操作就不是原子性的了。

所以让我们来修改一下Deal表,把已经售卖的量也存放在Deal表中,然后巧妙地把操作转换成一行update语句。

+-----------+------------------+------+-----+---------+----------------+
| Field     | Type             | Null | Key | Default | Extra          |
+-----------+------------------+------+-----+---------+----------------+
| id        | int(11) unsigned | NO   | PRI | NULL    | auto_increment |
| buy_max   | int(11)          | NO   |     | NULL    |                |
| buy_count | int(11)          | NO   |     | NULL    |                |
+-----------+------------------+------+-----+---------+----------------+

 

修改执行过程

如果你继续先把数据查出来到内存中然后再操作,那就不是原子性的了,必定会出问题。

这时候,神奇的update语句来了:

update Deal set buy_count = buy_count + 1 where id = ? and buy_count + 1 <= buy_max

如果一单的buy_max是1000,如果有2000个用户同时操作会发生什么?

虽然没有事务,但是update语句天然会有行锁,前1000个用户都会执行成功,返回生效行数1。而剩下的1000人不会报错,但是生效行数为0。

所以程序中只要判断update语句的生效行数就知道是否抢购成功了。

 

还没有结束

问题解决了?好像也没牺牲一致性啊,用户根本不会超卖啊?

但是,购买的时候有两个关键信息,“剩余多少”和“谁买了”,刚才的执行过程只处理了第一个信息,它根本没存“谁买了”这个信息。

而这两个信息其实也是原子性的,但是为了性能,我们不得不牺牲一下了。

刚才说到如果update的生效行数是1,就代表购买成功。所以,如果一个用户购买成功了,那么就再去UserDeal表中插入一下数据。

可如果一个用户重复购买了,那么这里也会出错,所以如果这里出错的话还需要去操作一下Deal表把刚才购买的还回去:

update Deal set buy_count = buy_count - 1 where id = ? and buy_count - 1 >= 0

这边理论上不会出现buy_count - 1 < 0的情况,除非你实现的不对。

…… 无图无真相,完全混乱了

只看文字不清晰,还是来张完整的流程图吧!

flow1

毫无破绽啊!不是说要牺牲一致性吗?为什么没看到?因为上面的流程图还没有考虑数据库故障或者网络故障,最后还是来一张最完整的流程图吧:

flow2

仔细看一下整张流程图,最终就这几种情况:

  1. 执行成功

  2. 无库存

  3. 回滚成功

  4. 损失库存

前三种是正常的,只有“损失库存”是有问题的。其实,“损失库存”这种情况其实很难出现,只有在网络故障或者数据库的情况下才可能偶尔。

那你的业务可以容忍它吗?最终还是具体问题具体分析了。

 

不要过度优化

最后还是提醒一句,千万不要过度优化,第一个使用事务的方案其实已经够好了!

除非你的业务特殊,全中国几十万人几百万人会同时来买,那才有必要牺牲一下一致性提升性能。

对了,如果是像双十一或者小米这样子的抢购,上面的方案也是不够的…


本文转载自:

共有 人打赏支持
ww1234

ww1234

粉丝 11
博文 644
码字总数 37946
作品 0
崇明
后端工程师
淘宝大秒系统设计详解

大家还记得2013年的小米秒杀吗?三款小米手机各11万台开卖,走的都是大秒系统,3分钟后成为双十一第一家也是最快破亿的旗舰店。经过日志统计,前端系统双11峰值有效请求约60w以上的QPS ,而后...

陶邦仁
2016/03/14
524
1
关于并发、超卖处理的思路

做电商网站,经常会有各种秒杀和热门商品,所以高并发的处理一直是电商最重要的事情。这里记录下当初自己是如何处理的 写在前面: 1、本文设计到的并发处理均是针对纵向,不针对横向扩展,即...

卖小女孩的小火柴
2015/10/13
4.8K
6
热点推荐:秒杀系统架构分析与实战

1 秒杀业务分析 正常电子商务流程(1)查询商品;(2)创建订单;(3)扣减库存;(4)更新订单;(5)付款;(6)卖家发货 秒杀业务的特性(1)低廉价格;(2)大幅推广;(3)瞬时售空;(...

洋哥6
2016/04/14
359
1
2012 DTCC:海量数据处理与Hadoop应用

【IT168 现场报道】2012年4月13日,由IT168(ITPUB、IXPUB、ChinaUnix)主办的2012中国数据库技术大会(DTCC)在北京隆重召开。大会第三天,以“海量数据处理与Hadoop应用”为主题的圆桌讨论拉开...

it168网站
2012/04/15
0
0
微信高并发资金交易系统设计方案——百亿红包背后的技术支撑

作者|方乐明 编辑|尾尾每年节假日,微信红包的收发数量都会暴涨,尤以除夕为最。如此大规模、高峰值的业务需要,背后需要怎样的技术支撑?百亿级别的红包规模,如何保证并发性能与资金安全...

umgsai
2017/09/26
0
0

没有更多内容

加载失败,请刷新页面

加载更多

什么是集群、分布式、集中式、伪分布式

1. 集中式 将项目等部署到同一台机器上,对机器性能要求比较高,一般会用多台机器备份,否则,如果机器出现死机等状况,整个项目将不能运行。 eg:就好比你要盖一座房子,你房子就给一个人盖...

吴伟祥
46分钟前
1
0
微服务写的最全的一篇文章

今年有人提出了2018年微服务将疯狂至死,可见微服务的争论从未停止过。在这我将自己对微服务的理解整理了一下,希望对大家有所帮助。 1.什么是微服务 1)一组小的服务(大小没有特别的标准,...

Java烂猪皮
47分钟前
1
0
Java 并发编程原理

为什么要使用多线程? 通过多线程提高吞吐量 伸缩性比较好,可以增加 CPU 核心来提高程序性能 什么场景下使用多线程? 如:tomcat BIO Java 如何实现多线程? Thread、Runnable、ExecutorSer...

aelchao
今天
2
0
谨慎的覆盖clone方法

说在前面 有些专家级程序员干脆从来不去覆盖clone方法,也从来不去调用它,除非拷贝数组。 其他方式 可以提供一个构造函数或者工厂去实现clone功能。 相比于clone,它们有如下优势: 不依赖于...

XuePeng77
今天
1
0
什么是最适合云数据库的架构设计?

分布式数据库技术发展多年,但是在应用、业务的驱动下,分布式数据库的架构一直在不断发展和演进。 开源金融级分布式数据库SequoiaDB,经过6年的研发,坚持从零开始打造数据库核心引擎。在技...

巨杉数据库
今天
5
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部