同事被开除,一条SQL引发的惨案

原创
09/28 07:30
阅读数 1W

前言

Insert into select请慎用

这天xxx接到一个需求,需要将表A的数据迁移到表B中去做一个备份。本想通过程序先查询查出来然后批量插入。

但xxx觉得这样有点慢,需要耗费大量的网络I/O,决定采取别的方法进行实现。

通过在Baidu的海洋里遨游,他发现了可以使用insert into select实现,这样就可以避免使用网络I/O,直接使用SQL依靠数据库I/O完成,这样简直不要太棒了。

然后他就被开除了

事故发生的经过。

由于数据数据库中order_today数据量过大,当时好像有700W了并且每天在以30W的速度增加。

所以上司命令xxx将order_today内的部分数据迁移到order_record中,并将order_today中的数据删除。

这样来降低order_today表中的数据量。

由于考虑到会占用数据库I/O,为了不影响业务,计划是9:00以后开始迁移,但是xxx在8:00的时候,尝试迁移了少部分数据(1000条),觉得没啥问题,就开始考虑大批量迁移。

在迁移的过程中,应急群是先反应有小部分用户出现支付失败,随后反应大批用户出现支付失败的情况,以及初始化订单失败的情况,同时腾讯也开始报警。

然后xxx就慌了,立即停止了迁移。

本以为停止迁移就就可以恢复了,但是并没有。后面发生的你们可以脑补一下。

事故还原

在本地建立一个精简版的数据库,并生成了100w的数据。模拟线上发生的情况。

建立表结构

订单表

CREATE TABLE `order_today` (    
  `id` varchar(32NOT NULL COMMENT '主键',    
  `merchant_id` varchar(32CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL COMMENT '商户编号',    
  `amount` decimal(15,2NOT NULL COMMENT '订单金额',    
  `pay_success_time` datetime NOT NULL COMMENT '支付成功时间',    
  `order_status` varchar(10CHARACTER SET utf8 COLLATE utf8_general_ci NOT NULL COMMENT '支付状态  S:支付成功、F:订单支付失败',    
  `remark` varchar(100CHARACTER SET utf8 COLLATE utf8_general_ci DEFAULT NULL COMMENT '备注',    
  `create_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP COMMENT '创建时间',    
  `update_time` timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP ON UPDATE CURRENT_TIMESTAMP COMMENT '修改时间 -- 修改时自动更新',    
  PRIMARY KEY (`id`USING BTREE,    
  KEY `idx_merchant_id` (`merchant_id`USING BTREE COMMENT '商户编号'    
) ENGINE=InnoDB DEFAULT CHARSET=utf8;    

订单记录表

CREATE TABLE order_record like order_today;

今日订单表数据

模拟迁移

把8号之前的数据都迁移到order_record表中去。

INSERT INTO order_record SELECT    
    *     
FROM    
    order_today     
WHERE    
    pay_success_time < '2020-03-08 00:00:00';    

在navicat中运行迁移的sql,同时开另个一个窗口插入数据,模拟下单

从上面可以发现一开始能正常插入,但是后面突然就卡住了,并且耗费了23s才成功,然后才能继续插入。这个时候已经迁移成功了,所以能正常插入了。

出现的原因

在默认的事务隔离级别下:insert into order_record select * from order_today 加锁规则是:order_record表锁,order_today逐步锁(扫描一个锁一个)。

分析执行过程。

通过观察迁移sql的执行情况你会发现order_today是全表扫描,也就意味着在执行insert into select from 语句时,mysql会从上到下扫描order_today内的记录并且加锁,这样一来不就和直接锁表是一样了。

这也就可以解释,为什么一开始只有少量用户出现支付失败,后续大量用户出现支付失败,初始化订单失败等情况。

因为一开始只锁定了少部分数据,没有被锁定的数据还是可以正常被修改为正常状态。

由于锁定的数据越来越多,就导致出现了大量支付失败。最后全部锁住,导致无法插入订单,而出现初始化订单失败。

解决方案

由于查询条件会导致order_today全表扫描,什么能避免全表扫描呢。

很简单嘛,给pay_success_time字段添加一个idx_pay_suc_time索引就可以了。

由于走索引查询,就不会出现扫描全表的情况而锁表了,只会锁定符合条件的记录。

关于 MySQL 索引的详细用法有实战,大家可以看我以前的索引优化系列的文章。

最终的sql

INSERT INTO order_record SELECT    
    *     
FROM    
    order_today FORCE INDEX (idx_pay_suc_time)    
WHERE    
    pay_success_time <= '2020-03-08 00:00:00';    

执行过程

总结

使用insert into tablA select * from tableB语句时,一定要确保tableB后面的whereorder或者其他条件,都需要有对应的索引,来避免出现tableB全部记录被锁定的情况。

结尾

如果觉得对你有帮助,可以点个在看,点赞哦,谢谢。

来源:juejin.im/post/6844904086173646862

暖心老哥,在这里给大家整理了2020年最新java面试题,涵盖java各个技术领域,快上万道了,需要的小伙伴可以领取一下,免费的,助大家找到一份满意的工作

本文分享自微信公众号 - IT老哥(dys_family)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

展开阅读全文
打赏
4
9 收藏
分享
加载中
fys
既然是迁移数据就应该在半夜或人少的时候,这场景不对啊, 按你说的就是加索引相当于行锁了,也会有支付延时影响体验的情况吧.
09/29 11:33
回复
举报
按照支付成功时间锁住,在当前业务上,支付成功的订单需要修改的需求应该会很小,影响面就要小的多的多
09/29 14:17
回复
举报
我看过这个好几次了
09/28 19:56
回复
举报
select读的时候锁住不支持修改吗?
09/28 18:34
回复
举报
有点意思
09/28 17:54
回复
举报
学习了
09/28 17:36
回复
举报
开除了吗,
09/28 17:31
回复
举报
IT老哥博主
哈哈,你关注的重点和别人不一样啊
09/29 10:40
回复
举报
更多评论
打赏
8 评论
9 收藏
4
分享
返回顶部
顶部