文档章节

大数据表的查询优化方案

 蜗牛奔跑
发布于 2017/02/28 16:24
字数 1618
阅读 22
收藏 0

如果有一张大表,表中的数据有几百万、几千万甚至上亿,要实现实时查询,查询的结果要在十秒钟之内出来,怎么办?如何做优化?

本人现在做的项目中,有个表的数据超过1千万行,超过3G的数据。现在需要对表中的数据进行查询统计,之前由于没做优化,导致此表的查询效率非常低下,让使用者非常苦恼,于是本人参与了此表的优化。

举个类似的例子,比如表中的结构如下,现在要统计某一天出生的人口数,或者统计某一城市的人口数,或者某一城市某一天出生的人口数。

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

CREATE TABLE `population` (

  `population_id` bigint(64) NOT NULL AUTO_INCREMENT COMMENT '人口表',

  `name` varchar(128) COLLATE utf8_bin DEFAULT NULL COMMENT '姓名',

  `city` varchar(32) COLLATE utf8_bin DEFAULT NULL COMMENT '城市',

  `birthday` date DEFAULT NULL COMMENT '出生日期',

  PRIMARY KEY (`population_id`)

)

 

查询某一城市某一天出生的人口数

SELECT COUNT(*) FROM population WHERE city='广州' AND birthday = '2014-11-02'

查询某一城市的人口数

SELECT COUNT(*) FROM population WHERE city='广州'

查询某一天出生的人口数

SELECT COUNT(*) FROM population WHERE birthday = '2014-11-02'

提出了两个优化方案,

(1).优化索引

通过添加索引后,查询的效率得到极大的提升,常用查询的查询时间从原来的几十秒下降到几秒。

建立以下两个单列索引

?

1

2

3

ALTER TABLE `population`  

  ADD  INDEX `fk_city` (`city`),

  ADD  INDEX `fk_birthday` (`birthday`);

也可以建立以下两个组合索引

?

1

2

3

ALTER TABLE `population`  

  ADD  INDEX `fk_index1` (`city`, `birthday`),

  ADD  INDEX `fk_index2` (`birthday`, `city`);

(2).使用中间表
虽然索引优化可以将查询时间大大减少,但如果数据量达到一定量时,有些情况下索引到的数据达到几百万时,查询仍然会很慢,因此索引优化无法从根本上解决问题。现在表中的数据量越来越大,平均每个月要增加一两百万的数据,索引的优化方法只是暂时的,只能解决小数据量的查询问题,随着数据量的快速增长,索引带来的性能优化很容易达到极限,要寻找其他的解决方案。

我们根据业务需求的特点,创建中间表population_statistics,将表population中的统计数据存放到中间表population_statistics中,查询时直接从中间表population_statistics中查询。注意,在对表population进行增、删、改时,必须同时更新population_statistics中的数据,否则会出现数据不一致的错误!

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

CREATE TABLE `population_statistics` (

  `population_statistics_id` bigint(64) NOT NULL AUTO_INCREMENT COMMENT '人口统计表ID',

  `city` varchar(128) COLLATE utf8_bin DEFAULT NULL COMMENT '城市',

  `birthday` int(32) DEFAULT NULL COMMENT '出生日期',

  `total_count` int(32) DEFAULT NULL COMMENT '人口数量',

  PRIMARY KEY (`population_statistics_id`),

  KEY `fk_city` (`city`),

  KEY `fk_birthday` (`birthday`)

)

查询某一城市某一天出生的人口数

SELECT total_count FROM population_statistics WHERE city='广州' AND birthday = '2014-11-02';

查询某一城市的人口数

SELECT COUNT(total_count) FROM population_statistics WHERE city='广州';

查询某一天出生的人口数

SELECT COUNT(total_count) FROM population_statistics WHERE birthday = '2014-11-02';

某个城市某一天的人口在表population中可能有几千甚至万的数据,而在统计表population_statistics中最多只有一条数据,也就是说统计表population_statistics中的数据量只有人口表population的几千分之一,再加上索引的优化,查询的速度会极大提高。

下面总结一下常用的大数据表优化方案.

1. 索引优化

通过建立合理高效的索引,提高查询的速度.

建议阅读本人写的一篇关于索引的博客

http://blog.csdn.net/brushli/article/details/39677387

2. SQL优化

组织优化SQL语句,使查询效率达到最优,在很多情况下要考虑索引的作用.

建议阅读考本人写的一篇关于索引的博客

http://blog.csdn.net/brushli/article/details/39677387

3. 水平拆表

如果表中的数据呈现出某一类特性,比如呈现时间特性,那么可以根据时间段将表拆分成多个。

比如按年划分、按季度划分、按月划分等等,查询时按时间段进行拆分查询,再把查询结果进行合并;

比如按地区将表拆分,不同地区的数据放在不同的表里面,然后对查询进行分拆,对查询结果进行合并。

4. 垂直拆表

将表按字段拆分成多个表,常用的字段放在一个表,不常用的字段或大字段放在另外一个表。由于数据库每次查询都是以块为单位,而每块的容量是有限的,通常是十几K或几十K,将表按字段拆分后,单次IO所能检索到的行数通常会提高很多,查询效率就能提高上去。

比如有成员表,结构如下:

?

1

2

3

4

5

6

7

CREATE TABLE `member` (

  `member_id` bigint(64) NOT NULL AUTO_INCREMENT COMMENT '成员表ID',

  `name` varchar(128) COLLATE utf8_bin DEFAULT NULL COMMENT '成员姓名',

  `age` int(32) DEFAULT NULL COMMENT '成员年龄',

  `introduction` text COLLATE utf8_bin COMMENT '成员介绍',

  PRIMARY KEY (`member_id`)

)

introduction是大字段,保存成员的介绍,这个大字段会严重影响查询效率,可以将它独立出来,单独形成一个表。

?

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

CREATE TABLE `member` (

  `member_id` bigint(64) NOT NULL AUTO_INCREMENT COMMENT '成员表ID',

  `name` varchar(128) COLLATE utf8_bin DEFAULT NULL COMMENT '成员姓名',

  `age` int(32) DEFAULT NULL COMMENT '成员年龄',

  PRIMARY KEY (`member_id`)

)

 

CREATE TABLE `member_introduction` (

  `member_introduction_id` bigint(64) NOT NULL AUTO_INCREMENT COMMENT '成员介绍表ID',

  `member_id` bigint(64) DEFAULT NULL COMMENT '成员ID',

  `introduction` text COLLATE utf8_bin COMMENT '成员介绍',

  PRIMARY KEY (`member_introduction_id`),

  KEY `fk_member_id` (`member_id`),

  CONSTRAINT `fk_member_id` FOREIGN KEY (`member_id`) REFERENCES `member` (`member_id`)

)

5. 建立中间表,以空间换时间

在有些情况下,是可以通过建立中间表来加快查询速度的,详情可看文章开头的例子。

6. 用内存缓存数据,以空间换时间

将常用而且不常修改的数据加载到内存中,直接从内存查询则可。

可以使用热门的缓存技术,如Memcache、Redis、Ehcache等。

7. 使用其他辅助技术

Solr:一种基于Lucene的JAVA搜索引擎技术

本文转载自:

粉丝 38
博文 615
码字总数 118352
作品 0
海淀
私信 提问
一个SQL查询优化问题

有一张数据表(company_table)存放企业基本信息,约有记录 150W 主要字段 id(主键,自增) company_name company_other_info 1 XXX科技有限公司 …… 2 XXX公司 …… …… XXX …… 1500000 ...

归海一刀
2013/09/01
922
19
千万级别数据的mysql数据表优化

出发点 比如,现在有这么一个问题,常见的一个面试题: 有一张users表,数据量在五千万以上,存在一条查询语句: ; 追溯到数据表的设计,sql查询语句的调优,并且需要考虑到这种大表的数据插...

坏掉的牙
09/29
0
0
【MySQL】——MySQL的优化

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/fjj15732621696/article/details/82805342 经常会问到MySQL如何优化,可以考虑从三个方面优化:索引优化、sql...

DD_Davina
2018/09/22
0
0
MySQL的基本命令

启动:net start mySql; 进入:mysql -u root -p/mysql -h localhost -u root -p databaseName; 列出数据库:show databases; 选择数据库:use databaseName; 列出表格:show tables; 显示表......

zyt_1978
2016/09/18
3
0
《App后台开发运维与架构实践》第6章 MySQL数据库

6.1 基本架构 服务层 大多数基于网络的客户端/服务端工具都有这一层,这一层主要是处理连接和安全验证。 核心层 这层处理MySQL的核心业务。查询分析、优化、缓存和内存的函数;内建的视图,存...

Lienson
04/11
22
0

没有更多内容

加载失败,请刷新页面

加载更多

Eureka应用注册与集群数据同步源码解析

在之前的EurekaClient自动装配及启动流程解析一文中我们提到过,在构造DiscoveryClient类时,会把自身注册到服务端,本文就来分析一下这个注册流程 客户端发起注册 boolean register() t...

Java学习录
18分钟前
4
0
Java描述设计模式(15):责任链模式

本文源码:GitHub·点这里 || GitEE·点这里 一、生活场景描述 1、请假审批流程 公司常见的请假审批流程:请假天数 当 day<=3 天,项目经理审批当 3<day<=5 天,部门经理审批当 day>5 天...

知了一笑
28分钟前
6
0
总结:数组与链表

1、内存申请:数组在内存上是连续的空间;链表,内存地址上可以是不连续的。 2、查询速度:数组可以随机访问,链表必须顺序访问,即从首个元素开始遍历,逐个查找,所以数组查询很快。 3、写入...

浮躁的码农
37分钟前
6
0
HashMap源码分析

read

V丶zxw
55分钟前
5
0
Python字符串或JSON字符串转字典dict、列表list

有3种方法 1、使用ast模块 >>> import ast>>> s = '["test",1]'>>> ast.literal_eval(s)['test',1]>>> s = '{"test":1}'>>> ast.literal_eval(s){'test': 1} 2、eval函数,这个......

编程老陆
今天
7
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部