文档章节

深入分析各种raid级别及其速度变化比较

o
 osc_22rhv8iu
发布于 07/08 08:56
字数 10577
阅读 31
收藏 0

「深度学习福利」大神带你进阶工程师,立即查看>>>

本文从低层原理上,深入透析了目前存在的7种raid模式的组成原理,结构,并深刻分析了各种级别相对于单盘IO速率的变化。

Raid0

Raid0是这样一种模式:我们拿5块盘的raid0为例子。

clip_image002clip_image004

上图中5个竖条,分别代表5个磁盘上的一个extent,也就是竖条的意思,每个磁盘被逻辑的划分为N个这种extent。然后再在磁盘相同偏移的extent上,横向逻辑分割,形成strip,一个strip横跨过的extent个数,称为strip lenth,而一个strip和一个extent交叉带,称为一个segment,一个segment中所包含的data block个数,称为strip depth。Data block,可以是N倍个扇区大小的容量,应该可以调节,或者不可调,随控制器而定。

Raid0便是将一系列连续编号的data block,分布到多个物理磁盘上,扩散IO,提高性能。其分布的方式,如图所示:这个例子中,条带深度为4,则0、1、2、3号data block,被放置到第一个条带的第一个segment中,然后4、5、6、7号block,放置到第一个条带的第二个segment中,依此类推,条带1放满后,继续放条带2。这种特性,称为“局部连续”,因为block只有在一个segment中是物理连续的,逻辑连续,就需要跨物理磁盘了。

对外来说,参与形成raid0的各个物理盘,会组成一个逻辑上连续,物理上也连续的虚拟磁盘。磁盘控制器对这个虚拟磁盘发出的指令,都被raid控制器截获,分析,根据block映射关系公式,转换成对组成raid0的各个物理盘的真实物理IO请求指令,收集或写入数据之后,再提交给主机磁盘控制器。

Rai0还有另一种非条带化模式,即写满其中一块物理磁盘之后,再接着写另一块,直到所有组成磁盘全部写满。这种模式,对IO写没有任何优化,但是对IO读,能提高一定的并发IO读几率。

在进一步讲述raid0和其他raid级别之前,我们先来看一下IO的种类。IO按照可以分为:读/写IO,大/小块IO,连续/随机IO,顺序/并发IO。下面我们来分别介绍每一种IO。

读/写IO,这个就不用多说了,读IO,就是发指令,从磁盘读取某段扇区的内容。指令一般是通知磁盘开始扇区位置,然后给出需要从这个初始扇区往后读取的连续扇区个数,同时给出动作是读,还是写。磁盘收到这条指令,就会按照指令的要求,读或者写数据。控制器发出的这种指令+数据,就是一次IO,读或者写。

大/小块IO,指控制器的指令中给出的连续读取扇区数目的多少,如果数目很大,比如128,64等等,就应该算是大块IO,如果很小,比如1,4,8等等,就应该算是小块IO,大块和小块之间,没有明确的界限。

连续/随机IO,连续和随机,是指本次IO给出的初始扇区地址,和上一次IO的结束扇区地址,是不是完全连续的,或者相隔不多的,如果是,则本次IO应该算是一个连续IO,如果相差太大,则算一次随机IO。连续IO,因为本次初始扇区和上次结束扇区相隔很近,则磁头几乎不用换道或换道时间极短;如果相差太大,则磁头需要很长的换道时间,如果随机IO很多,导致磁头不停换道,效率大大降底。

顺序/并发IO,这个的意思是,磁盘控制器每一次对磁盘组发出的指令套(指完成一个事物所需要的指令或者数据),是一条还是多条。如果是一条,则控制器缓存中的IO队列,只能一个一个的来,此时是顺序IO;如果控制器可以同时对磁盘组中的多块磁盘,同时发出指令套,则每次就可以执行多个IO,此时就是并发IO模式。并发IO模式提高了效率和速度。

说完了4种IO模式,我们再来说2个概念:

IO并发几率。单盘,IO并发几率为0,因为一块磁盘同时只可以进行一次IO。对于raid0,2块盘情况下,条带深度比较大的时候(条带太小不能并发IO,下面会讲到),并发2个IO的几率为1/2。其他情况请自行运算。

IOPS。一个IO所用的时间=寻道时间+数据传输时间。IOPS=IO并发系数/(寻道时间+数据传输时间),由于寻道时间相对传输时间,大几个数量级,所以影响IOPS的关键因素,就是降底寻道时间,而在连续IO的情况下,寻道时间很短,仅在换磁道时候需要寻道。在这个前提下,传输时间越少,IOPS就越高。

每秒IO吞吐量。显然,每秒IO吞吐量=IOPS乘以平均IO SIZE。Io size越大,IOPS越高,每秒IO吞吐量就越高。设磁头每秒读写数据速度为V,V为定值。则IOPS=IO并发系数/(寻道时间+IO SIZE/V,代入,得每秒IO吞吐量=IO并发系数乘IO SIZE乘V/(V乘寻道时间+IO SIZE。我们可以看出影响每秒IO吞吐量的最大因素,就是IO SIZE和寻道时间,IO SIZE越大,寻道时间越小,吞吐量越高。相比能显著影响IOPS的因素,只有一个,就是寻道时间。

下面我们来具体分析一个从上到下访问raid0磁盘的过程。假如某一时刻,主机控制器发出指令:读取 初始扇区10000 长度128。Raid控制器接受到这个指令之后,立即进行计算,根据对应公式(这个公式是raid控制器在做逻辑条带化的时候制定的)算出10000号扇区所对应的物理磁盘的扇区号,然后依次计算出逻辑上连续的下128个扇区所在物理磁盘的扇区号,之后,分别向对应这些扇区的磁盘,再次发出指令,这次是真实的读取数据了,磁盘接受到指令,各自将数据提交给raid控制器,经过控制器在cache种的组合,再提交给主机控制器。

分析以上过程,我们发现,如果这128个扇区,都落在同一个segment中的话,也就是说条带深度容量大于128个扇区的容量(64K),则这次IO就只能真实的从这一块物理盘上读取,性能和单盘相比会减慢,因为没有任何优化,反而还增加了raid控制器额外的计算开销。所以要提升性能,让一个IO尽量扩散到多块物理盘上,就要减小条带深度,磁盘数量不变的条件下,也就是减小条带大小strip size。让这个IO的数据被控制器分割,同时放满第一个segment、第二块物理磁盘上的第二个segment。。。。。。。依此类推,这样就能极大的占用多块物理盘。在这里大家可能存在一个误区,就是总是以为控制器是先放满第一个segment,再放满第二个segment,其实是同时进行的,因为控制器把每块盘要写入或者读取的数据都计算好了,是同时进行的。所以,raid0要提升性能,条带做的越小越好。但是这里又一个矛盾出现了,就是条带太小,导致并发IO几率降底,因为如果条带太小,则每次IO一定会占用大部分物理盘,而队列中的IO就只能等待这次IO结束后才能使用物理盘。而条带太大,又不能充分提高传输速度,这两个是一对矛盾,按照需求来采用不同的方式。

我们接着分析raid0相对于单盘的性能变化。根据以上总结出来的公式,可以推得以下表格:

RAID0

IOPS

并发IO

顺序IO

并发IO

顺序IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

Io size/strip size较大

不支持

不支持

提升极小

提升了N乘系数倍

不支持

不支持

提升极小

提升了N乘系数倍

Io size/strip size较小

提升了(1+并发系数)倍

提升了(1+并发系数+系数)系数倍

提升极小

提升了系数倍

提升了(1+并发系数)倍

提升了(1+并发系数+系数)倍

提升极小

提升了系数倍

注:并发IO和IO size/strip size是一对矛盾,两者总是对立。N=组成raid0的磁盘数目。系数=io size/strip size和初始LBA地址所处的strip偏移综合系数,大于等于1。并发系数=并发IO的数量

Raid1

Raid1是这样一种模式,我们拿2块盘的例子来说明:

clip_image006 clip_image007

Raid1和raid0不同,raid0对数据没有任何保护措施,每个block都没有备份或者校验保护措施。Raid对虚拟逻辑盘上的每个物理block,都在物理盘上有一份镜像备份。也就是说数据有两份。对于raid1的写IO,速度不但没有提升,而且有所下降,因为数据要同时向多块物理盘写,时间以最慢的你个为准,因为是同步的。而对于raid1的读IO请求,不但可以并发,而且就算顺序IO的时候,控制器也可以象raid0一样,从两块物理盘上同时读数据,提升速度。Raid1没有srip的概念。同样我们总结出一个表格:

RAID1

IOPS

并发IO

顺序IO

并发IO

顺序IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

提升N或者并发系数倍

提升N倍或者并发系数

提升极小

提升了N 倍

不支持

事物性IO可并发,提升并发系数倍

没有提升

没有提升

注:raid1没有strip的概念。N=组成raid1镜像物理盘的数目。

在读、并发IO的模式下,由于可以并发N个IO,每个IO占用一个物理盘,这就相当于提升了N倍的IOPS。由于每个IO只独占了一个物理盘,所以速度相对于单盘并没有改变,所以不管是随机还是顺序IO,相对单盘都不变。

在读、顺序IO、随机IO模式下,由于IO不能并发,所以此时一个IO可以同时读取N个盘上的内容,但是是在随机IO模式下,那么寻道时间影响很大,纵使同时分块读取多个磁盘的内容,也架不住寻道时间的抵消,所以性能提升极小

在读、顺序IO、连续IO模式下,寻道时间影响到了最低,此时传输速率为主要矛盾,同时读取多块磁盘的数据,时间减少为1/N,所以性能提升了N倍。

写IO的时候和读IO情况相同,就不做分析了。写IO因为要同时向每块磁盘写入备份数据,所以不能并发IO,也不能分块并行。但是如果控制器把优化算法做到极至的话,还是可以并发IO的,比如控制器从IO队列中提取连续的多个IO,可以将这些IO合并,并发写入磁盘。前提这几个IO必须是事物性的,也就是说LBA必须连续,不然不能作为一个大的合并IO,而且和文件系统也有关系,文件系统碎片越少,并发几率越高。

Raid2

raid2是一种比较特殊的raid模式,他是一种专用raid,现在早已被淘汰。他的基本思想是,IO到来之后,控制器将数据分割开,在每块物理磁盘读或者写1bit。这里有个疑问,磁盘的最小IO单位是扇区,512字节,如何写入1bit呢?其实这个写入1bit,并非只写入1bit。我们知道上层IO,可以先经过文件系统,然后才通过磁盘控制器驱动来向磁盘发出IO,最终的IO大小,都是N倍的扇区,也就是Nx512字节,N大于等于1,不可能发生N小于1的情况,即使你需要的数据只有几个字节,那么也同样要读出或者写入整个扇区,也就是512字节。明白这个原则之后,我们再来看一下raid2中所谓的“每个磁盘写1bit”是个什么概念。IO最小单位为扇区,512字节,我们就拿一个4块数据盘+3块校验盘的raid2系统给大家来说明一下。这个环境中,raid2的一个条带大小是4bit(1bit乘4块数据盘),而IO最小单位是一个扇区,那么如果分别向每块盘写1bit,就需要分别向每块盘写一个扇区,每个扇区只包含1bit有效数据,这显然是不好的,因为太浪费空间,没有意义。因为IO数据到来时,我们拿以下IO请求为例:写入 初始扇区10000 长度1,这个IO目的是要向LBA10000写入一个扇区的数据,也就是512字节。Raid2控制器接受到这512字节的数据之后,先将其放入cache,然后计算需要写入的物理磁盘的信息,比如定位到物理扇区,分割数据成bit,然后一次性写入物理磁盘扇区。也就是说第一块物理盘,控制器会写入本次IO数据的第1、5、9、13、17、21。。。。。。。。。。。等等位,第二块物理盘会写入2、6、10、14、18、22。。。。。。。。。。等等位,其他两块物理盘同样方式写入。直到这样将数据写完。我们可以计算出来,这512字节的数据写完之后,此时每块物理盘只包含128字节的数据,也就是一个扇区的四分之一,那么这个扇区剩余的部分,就是空的。如果要利用起这部分空间,那么等下次IO到来之后,控制器对数据进行bit分割,将要填入这些空白区域的数据,控制器将首先读出原来的数据,然后和新数据合并之后,一并再写回这个扇区,这样做效率和速度都大打折扣。我们可以发现,其实raid2就是将原本连续的一个扇区的数据,以位为单位,分割存放到不连续的多块物理盘上,因为这样可以全组并行读写,提高性能。每个物理磁盘扇区其实是包含了N个扇区的“残体”。那么如果出现需要更新这个IO的4个扇区中某一个扇区的情况,怎么办?这种情况下,必须先读出原来的数据,和新数据合并,然后在一并写入。其实这种情况出现的非常少。我们知道上层IO的产生,一般是需要先经过os的文件系统,然后才到磁盘控制器这一层的。所以磁盘控制器产生的IO,一般都是事务性的,也就是这个IO中的所有扇区,很大几率上对于上层文件系统来说,是一个完整的事务,所以很少会发生只针对这个事务中某一个原子进行读写的情况。这样的话,每次IO很大几率都会包含入这些逻辑上连续的扇区的,所以不必担心经常会发生那种情况,即便发生了,控制器也只能按照那种低效率的做法来做,不过总体影响较小。但是如果随机IO比较多,那么这些IO初始LBA,很有可能就会命中在一个两个事务交接的扇区处,这种情况,就导致速度和效率大大降低了。连续IO出现这种情况的几率非常小了。

Raid2因为每次读写都需要全组磁盘联动,所以为了最大化其性能,最好保证每块磁盘主轴同步,使得同一时刻每块磁盘磁头所处的扇区逻辑编号都一致,并存并取,达到最佳性能,如果不能同步,则会产生等待,影响速度。

基于raid2的并存并取的特点,raid2不能实现并发IO,因为每次IO都占用了每块物理磁盘。

Raid2的校验盘对系统不产生瓶颈,但是产生延迟,因为多了计算校验的动作。校验位和数据位是一同并行写入或者读取的。Raid2采用海明码来校验数据,这种码可以判断修复一位错误的数据,并且使用校验盘的数量太多,4块数据盘需要3块校验盘,但是随着数据盘数量的增多,校验盘所占的比例会显著减小。

Raid2和raid0有些不同,raid0不能保证每次IO都是多磁盘并行,因为raid0的分块相对raid2以位为单位来说是太大了,而raid2由于她每次IO都保证是多磁盘并行,所以其数据传输率是单盘的N倍,为了最好的利用这个特性,就需要将这个特性的主导地位体现出来,而根据IOPS=IO并发系数/(寻道时间+数据传输时间),寻道时间比数据传输时间大几个数量级,所以为了体现数据传输时间减少这个优点,就必须避免寻道时间的影响,而避免其影响的最佳做法就是:尽量产生连续IO而不是随机IO,所以,raid2最适合连续IO的情况。另外,根据每秒IO吞吐量=IO并发系数乘IO SIZE乘V/(V乘寻道时间+IO SIZE,如果将IO size也增大,则每秒IO吞吐量也将显著提高。所以,raid2最适合的应用,就是:产生连续IO,大块IO的情况,不言而喻,文件服务,视频流服务等等这些应用,适合raid2,不过,raid2的缺点太多,比如校验盘数量多,算法复杂等等,它逐渐的被raid3替代了。

RAID2

IOPS

顺序IO

顺序IO

非事务性随机IO

事务性随机IO

连续IO

非事务性随机IO

事务性随机IO

连续IO

IO满足公式条件

提升极小

提升极小

提升N倍

性能降低

提升极小

提升N倍

注:N=数据盘数量。Raid2不能并发IO

Raid3

clip_image009

由于raid2缺点比较多,比如非事务性IO对他的影响,校验盘数量太多等等。Raid2的劣势,就在于它的将数据以bit为单位,分割,将原本物理连续的扇区,转变成物理不连续,逻辑连续的,这样就导致了它对非事务性IO的效率低下。为了从根本上解决这个问题,raid3出现了。既然要从根本上解决这个问题,首先就是需要抛弃raid2对扇区进行分散的做法。Raid3保留了扇区的物理连续。Raid2将数据以bit为单位分割,这样为了保证每次IO占用全部磁盘的并行性。而raid3同样也保留了这个特点,但是没有以bit为单位来分散数据,而就是以扇区或者几个扇区为单位来分散数据。Raid3还采用了高效的XOR校验算法,但是这种算法只能判断数据是否有误,不能判断出哪一位有误,更不能修正。XOR校验使得raid3不管多少块数据盘,只需要一块校验盘就足够了。

Raid3的每一个条带,其长度很小,深度为1。这样的话,每个segment的大小一般就是1个扇区或者几个扇区的容量。以上图的例子来看,4块数据盘,一块校验盘,每个segment,也就是图中的一个block portion,假如为2个扇区大小,也就是1k,则整个条带大小为4k,如果一个segment大小为8个扇区,即4k,则整个条带大小为16K。

我们还是用一个例子来说明raid3的作用机制。比如,一个4数据盘,1校验盘的raid3系统,segment size为2个扇区大小即1k。raid3控制器接受到了这么一个IO:写入 初始扇区10000 长度8,即总数据量为8乘512字节=4k。则控制器先定位LBA10000所对应的真实物理LBA,假如LBA10000恰好在第一个条带的第一个segment的第一个扇区上,那么控制器将这个IO数据里的第1、2个512字节写入这个扇区,同一时刻,第3、4个512字节会被同时写入这个条带的第二个segment中的两个扇区,其后的数据同样被写入第3、4个segment中,此时恰好是4k的数据量。也就是说这4k的IO数据,同时被写入了4块磁盘,每块磁盘写入了两个扇区,也就是一个segment,他们是并行写入的,包括校验盘,也是并行写入的,所以raid3的校验盘没有瓶颈,但是有延迟,因为增加了计算校验的开销。但现代控制器一般都使用专用的XOR硬件电路而不是cpu来计算xor,这样就使得延迟降到最低。上面那个情况是IO size刚好等于一个条带大小的时候,如果IO size小于一个条带大小呢?我们接着分析,还是刚才那个环境,此时控制器接收到IO大小为2K的写入请求,也就是4个连续扇区,那么控制器就只能同时写入两个磁盘了,因为每个盘上的segment是2个扇区,其他两个磁盘此时就是空闲的,也只能得到两倍的单盘传输速率。我们再来看看IO size大于一个条带大小的情况,会发生什么。还是那个环境,控制器收到的IO size=16k。则控制器一次所能并行写入的,是4k,这16k就需要分4批来写入4个条带。其实这里的分4批写入,不是先后,而还是同时,也就是这16k中的第1、5、9、13k将由控制器连续写入磁盘1,第2、6、10、14k,连续写入磁盘2,依此类推,直到16k数据全部写完,是并行一次写完,这样校验盘也可以一次性计算校验值并且和数据一同并行写入。而不是“分批”。

通过比较,我们发现,与其使得IO size小于一个条带的大小,空闲一些磁盘,不如使得Io size大于或者等于条带大小,使得没有磁盘空余。因为上层IO size是不受控的,控制器说了不算,但是条带大小是控制器说了算的,所以如果将条带大小减少到很小,比如2个扇区,一个扇区,则每次上层IO,一般情况下都会占用所有磁盘,进行并发传输。可以提供和raid2一样的传输速度,并避免raid2的诸多缺点。Raid3和raid2一样,不能并发IO, 因为一个IO要占用全部盘,就算IO size小于strip size,因为校验盘的独享,也不能并发IO。

RAID3

IOPS

并发IO

顺序IO

并发IO

顺序IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

Io size大于strip size

不支持

不支持

提升极小

提升了N倍

不支持

不支持

提升极小

提升了N倍

Io size小于strip size

不支持

事物性IO可并发,提升并发系数倍

提升极小

提升了N乘IO size/strip size倍

不支持

事物性IO可并发,提升并发系数倍

提升极小

提升了N乘IO size/strip size倍

注:N=组成raid3的数据磁盘数量。和raid2相同,事物性连续IO可能并发。

和raid2一样,raid3同样也是最适合连续大块IO的环境,但是它比raid2成本更低,更容易部署。

具体分析:

不管任何形式的raid,只要是面对随机IO,其性能比单盘没有大的优势,因为raid作所的只是提高传输速率,并发IO,容错。随机IO只能靠降低单个物理磁盘的寻道时间来解决。而raid不能优化寻道时间。所以随机IO,raid3也同样没有优势。

连续IO,因为寻道时间的影响因素可以忽略,raid3最拿手,因为象raid2一样,raid3可以大大加快数据传输速率,因为他是多盘并发读写。所以理论上可以相对单盘提高N倍的速率。

Raid4

clip_image011

不管是Raid2还是raid3,他们都是为了大大提高数据传输率而设计,而不能并发IO。诸如数据库等等应用,他们的特点就是随机IO和小块IO。想提高这种环境的IOPS,根据公式:IOPS=IO并发系数/(寻道时间+数据传输时间),随机读导致寻道时间很大,靠提高传输许率已经不是办法。所以观察这个公式,想在随机IO频发的环境中提高IOPS,唯一能够做的,只有提高IO并发系数,不能并发IO的,想办法让他并发IO,并发系数小的,想办法提高系数。

在raid3的基础上,raid4被发展起来。我们分析raid3的性能的时候,曾经提到过一种情况,就是io size小于strip size的时候,此时有磁盘处于空闲状态,而如果抓住这个现象,同时让队列中的下一个IO来利用这些空闲的磁盘,岂不是正好达到并发IO的效果了么?所以raid4将一个segment的大小做的比较大,以至于平均IO size总是小于strip size,这样就能保证每个IO少占用磁盘,甚至一个IO只占用一个磁盘。

是的,这个思想对于读IO是对路子的,但是对于写IO的话,有一个很难克服的问题,那就是校验盘的争用。考虑这样一种情况:4块数据盘+1块校验盘组成的raid4系统,某时刻一个IO占用了前两块盘+校验盘,此时虽然后两块是空闲的,可以同时接受新的IO请求,但是如果接受了新的IO请求,则新IO请求同样也要使用校验盘,由于一块物理磁盘不能同时处理多个IO,所以新IO虽然占有了数据盘的写权限,但是写校验盘的时候,仍然要等旧IO写完后,才能写入校验,新IO才能完成,这样的话,就和顺序IO无异了,数据盘可并发而校验盘不可并发,这样不能实现并发IO。

下面我们来说几个概念。

整条写、重构写与读改写

整条写(Full-stripe Write):整条写需要修改奇偶校验群组中所有的条带单元,因此新的奇偶校验值可以根据所有新的条带数据计算得到。不需要额外的读、写操作。因此,整条写是最有效的写类型。整条写的例子,比如raid2,raid3。他们每次IO总是几乎能保证占用所有盘,因此每个条带上的每个segment都被写更新,所以控制器可以直接利用这些更新的数据计算出校验数据之后,在数据被写入数据盘的同时,将计算好的校验信息写入校验盘。

重构写(Reconstruct Write):如果要写入的磁盘数目超过阵列磁盘数目的一半,采取重构写方式。在重构写中,从这个条带中不需要修改的segment中读取原来的数据,再和本条带中所有需要修改的segment上的新数据计算奇偶校验值,并将新的segment数据和没有更改过的segment数据以及新的奇偶校验值一并写入。显然,重构写要牵涉更多的I/O操作,因此效率比整条写低。重构写的例子,比如raid4中,如果数据盘为8块,某时刻一个IO只更新了一个条带的6个segment,剩余两个没有更新,则重构写模式下,会将没有被更新的两个segment的数据读出,和需要更新的前6个segment的数据计算出校验数据,然后将这8个segment连同校验数据一并写入磁盘。可以看出,这个操作只是多出了读两个segment中数据的操作。

读改写(Read-Modify Write):如果要写入的磁盘数目不足阵列磁盘数目的一半,采取读改写方式。读改写过程如下:(1)从需要修改的segment上读取旧的数据;(2)从条带上读取旧的奇偶校验值;(3)根据旧数据、旧校验值和需要修改的segment上的新数据计算这个条带上的新的校验值;(4)写入新的数据和新的奇偶校验值。这个过程中包含读取、修改、写入的一个循环周期,因此称为读改写。读改写计算新校验值的公式为:新数据的校验数据=(老数据 EOR 新数据) EOR 老校验数据。如果待更新的segment已经超过了条带中总segment数量的一半,则此时不适合使用读改写,因为读改写需要读出这些segment中的数据和校验数据,而如果采用重构写,只需要读取剩余不准备更新数据的segment中的数据即可,而后者数量比前者要少,所以超过一半,用重构写,不到一半,用读改写。整条更新,就用整条写。写效率:整条写>重构写>读改写

明白了这些概念之后,我们就可以继续深入理解raid4了。如果仅仅根据争用校验盘来下结论说raid4不支持并发IO,在经过了以上三个概念的描述之后,看来显然是片面的。我们设想这样一种情形,某时刻一个IO只占用了全部磁盘的几块盘,另一些磁盘空闲,如果此时让队列中下一个IO等待的话,那么当然不可实现并发IO。此时我们考虑:如果队列中有这样一个IO,它需要更新的LBA目标和正在进行的IO恰好在同一条带上,并且处于空闲磁盘,而又不冲突,那么此时我们恰好就可以让这个IO也搭一下正在进行的IO的顺风车,反正都是要更新这个条带的校验segment,与其两个IO先后更新,不如让他们同时更新各自的数据segment,而控制器负责计算本条带的校验块。这样就完美的达到了IO并发。但是,有个问题,这种情况遇到的几率真是小之又小。即便如此,控制器如果可以对队列中的IO目标LBA进行扫描,将目标处于同一条带的IO,让其并发写入,这就多少类似NCQ技术了,不过这种技术需要上层软件的配合,因为乱序IO,会失去事务的顺序性,所以还需要上层软件作一些处理。

除了在控制器内部实现这种算法之外,我们还可以直接在上层来实现这种模式。上层就是指操作系统的文件系统。因为文件系管理着底层磁盘。文件系统决定数据写往磁盘上的哪些扇区。所以完全可以在文件系统这个层次上,将两个不同事物的IO写操作,尽量放到相同的条带上,也就是说,比如一个条带大小为16k,可以前8k放一个IO的数据,后8k放也另一个IO的数据,这两个IO在经过文件系统的计算之后,经由磁盘控制器驱动程序,向磁盘发出同时写入整个条带的操作,这样就构成了整条写,如果实在不能占满整条,那么也应该尽量达成重构写模式,这样不但并发了IO,还使得写效率增加。这种在文件系统专门为raid4做出优化的方案,最点型的就是netapp公司的磁盘阵列操作系统data ontap,这个操作系统中文件系统模块称为WAFL。WAFL文件系统的设计方式确保能够最大限度地减少校验盘寻址操作。 上图右半部对比显示了WAFL如何分配同样的数据块,从而使得RAID 4更加有效。 WAFL总是把相关的数据块写到彼此邻近的条带中,消除校验盘上的长时间寻址操作。只要可能,WAFL也把多重数据块写到同样的条带中,从而进一步减少校验盘上的阻塞。FFS在上图左半部中使用六道独立的条带,因此致使六个校验盘块需要更新。 上图右半部中,WAFL使用仅仅3道条带,即只有三个校验块需要更新。从而大大提高了RAID性能,消除了校验盘瓶颈。

clip_image012

RAID4

IOPS

特别优化的并发IO

顺序IO

特别优化的并发IO

顺序IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

Io size/strip size较大

冲突

冲突

提升极小

提升了N倍

冲突

冲突

没有提升

提升了N倍

Io size/strip size较小

提升极小

提升并发系数倍

几乎没有提升

几乎没有提升

提升并发系数倍

提升并发系数乘N倍

性能降底

性能降底

注:N为raid4数据盘数量。Io size/strip size太大则并发IO几率很小。

值得注意的是,如果io size/strip size的值太小,则顺序IO读,不管是连续还是随机IO,几乎都没有提升。顺序IO写,性能下降,因为io size很小,又是顺序IO,则只能进行读改写,性能降底不少。

所以,如果要使用raid4,不进行特别优化,是不行的,至少要让他可以进行并发IO。我们观察表格可知,并发IO模式下,性能都有所提升。然而如果要优化到并发几率很高,实则不容易。目前只有netapp的WAFL文件系统还在使用raid4,其他产品均未见使用。面临淘汰,取而代之的是拥有高并发几率的raid5系统。

Raid5

clip_image013clip_image014clip_image016

为了解决raid4系统不能并发IO困难的窘境,raid5相应而出。Raid4并发困难,是因为他的校验盘争用的问题,如果能找到一种机制,能有效解决这个问题,则实现并发就会非常容易。Raid5恰恰解决了校验盘争用这个问题。Raid5采用分布式校验盘的做法,将校验盘打散在raid组中的每块磁盘上。如图所示。每个条带都有一个校验segment,但是不同条带中其位置不同,在相邻条带之间循环分布。为了保证并发IO,raid5同样将条带大小做的较大,以保证每次IO数据不会占满整个条带,造成队列其他IO等待。所以,raid5如果要保证高并发率,那么每个IO几乎都是读改写模式,尤其是在随机IO的情况下,所以raid5拥有较高的写惩罚,但是在随机IO频发的环境下,仍然能保持较高的IOPS。

们来分析一下raid5具体的作用机制。以上图为例的环境,条带大小80k,每个segment大小16k。某一时刻,上层产生一个写IO:写入 初始扇区10000 长度8,即写入4k的数据。控制器收到这个IO之后,首先定位真实LBA地址,假设定位到了第1个条带的第2个segment(位于图中的磁盘2)的第1个扇区(仅仅是假设),则控制器首先对这个segment所在的磁盘发起IO写请求,读出这8个扇区中原来的数据到cache,与此同时控制器也向这个条带的校验segment所在的磁盘(即图中的磁盘1)发起IO读请求,读出对应的校验扇区数据并保存到cache,随后利用XOR校验电路来计算新的校验数据,利用公式:新数据的校验数据=(老数据 EOR 新数据) EOR 老校验数据。现在cache中存在:老数据,新数据,老校验数据,新校验数据。然后控制器立即再次向相应的磁盘同时发起IO写请求,将新数据写入数据segment,将新校验数据写入校验segment,并删除老数据和老校验数据。

在上述过程中,这个IO占用的,始终只有1、2两块盘,因为所要更新的数据segment我们假设位于2盘的1条带的2号segment,而这个条带对应的校验segment位于1盘,自始至终其他任何磁盘都没有用到。那么如果此时队列中有这么一个IO,他的LBA初始目标假如位于图中下方红框所示的数据segment中(4盘),IO长度也不超过segment的大小,而这个条带对应的校验segment位于3盘上,这两块盘未被其他任何IO占用,所以,此时控制器就可以并发的处理这个IO,和上方红框所示的IO,达到并发。

Raid5相对于经过特别优化的raid4来说,在底层就实现了并发,可以脱离文件系统的干预,任何文件系统的IO,都可以实现高并发几率,而不像基于wafl文件系统的raid4,需要在文件系统上规划计算出并发环境。

Raid5磁盘数量越多,可并发的几率就越大。

RAID5

IOPS

并发IO

顺序IO

并发IO

顺序IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

Io size近似strip size

不支持

不支持

提升极小

提升了N倍

不支持

不支持

提升极小

提升了N倍

IO size大于segment size重构写

提升并发系数倍

提升并发系数倍

几乎没有提升

提升了IO size/segment size倍

提升并发系数倍

提升并发系数倍

性能下降

提升极小

Io size小于segment size读改写

提升并发系数倍

提升并发系数倍

提升极小

没有提升

提升并发系数倍

提升并发系数倍

性能下降

性能下降

raid5最适合小块IO,并发IO的情况下,性能都较单盘有所提升。

Raid6

clip_image018

raid6之前的任何raid级别,最多能保障在坏掉一块盘的时候,数据仍然可以访问,但是如果同时坏掉两块盘,则数据将会丢失。为了增加raid5的保险系数,raid6被创立。Raid6比raid5多增加了一块校验盘,同时也是分布打散在每块盘上,用另一个方程式来计算新的校验数据,这样,raid6同时在一个条带上保存了两份数学上不相关的校验数据,这样能够保证同时坏两块盘的情况下,数据依然可以通过联立这两个数学关系等式来求解丢失的数据。Raid6较raid5在写的时候,会同时读取或者写入额外的一份校验数据,不过由于是并行同时操作,所以比raid5慢不了多少。其他特性和raid5类似。

RAID6

IOPS

并发IO

顺序IO

并发IO

顺序IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

随机IO

连续IO

Io size近似strip size

不支持

不支持

提升极小

提升了N倍

不支持

不支持

提升极小

提升了N倍

IO size大于segment size重构写

提升并发系数倍

提升并发系数倍

几乎没有提升

几乎没有提升

提升并发系数倍

提升并发系数倍

性能下降

提升极小

Io size小于segment size读改写

提升并发系数倍

提升并发系数倍

提升极小

没有提升

提升并发系数倍

提升并发系数倍

性能下降

性能下降

o
粉丝 0
博文 80
码字总数 0
作品 0
私信 提问
加载中
请先登录后再评论。
Netty那点事(三)Channel与Pipeline

Channel是理解和使用Netty的核心。Channel的涉及内容较多,这里我使用由浅入深的介绍方法。在这篇文章中,我们主要介绍Channel部分中Pipeline实现机制。为了避免枯燥,借用一下《盗梦空间》的...

黄亿华
2013/11/24
2W
22
Swift百万线程攻破单例(Singleton)模式

一、不安全的单例实现 在上一篇文章我们给出了单例的设计模式,直接给出了线程安全的实现方法。单例的实现有多种方法,如下面: class SwiftSingleton { } 这段代码的实现,在shared中进行条...

一叶博客
2014/06/20
3.6K
16
树莓派(Raspberry Pi):完美的家用服务器

自从树莓派发布后,所有在互联网上的网站为此激动人心的设备提供了很多有趣和具有挑战性的使用方法。虽然这些想法都很棒,但树莓派( RPi )最明显却又是最不吸引人的用处是:创建你的完美家用...

异次元
2013/11/09
8K
8
5分钟 maven3 快速入门指南

前提条件 你首先需要了解如何在电脑上安装软件。如果你不知道如何做到这一点,请询问你办公室,学校里的人,或花钱找人来解释这个给你。 不建议给Maven的服务邮箱来发邮件寻求支持。 安装Mav...

fanl1982
2014/01/23
1.2W
8
代码生成器--Codgen

Codgen是一个基于数据库元数据模型,使用freemarker模板引擎来构建输出的代码生成器。freemarker的数据模型结构通常来说都是一个Map树状结构模型,codgen也不例外,它的数据模型这棵树的根节...

黄天政
2013/01/29
1.4W
2

没有更多内容

加载失败,请刷新页面

加载更多

【实用技巧】MAC苹果电脑怎么远程?

一般电脑远程包括三方面: 1、如果从外部windows或者linux终端连接到mac苹果电脑; 2、从苹果电脑内如何远程外面的windows、linux和mac等; 3、苹果和安卓手机怎么远程连接苹果/Windows电脑。...

osc_doeya1ck
15分钟前
0
0
虚拟主机和VPS主机有哪些不同点呢

虚拟主机是一种在单一主机或主机群上,实现多网域服务的方法,可以运行多个网站或服务的技术。vps主机是将一台服务器分割成多个虚拟专享服务器的服务。实现VPS的技术分为容器技术和虚拟机技术...

osc_b88oux8w
17分钟前
0
0
合理的使用MySQL乐观锁与悲观锁

针对 MySQL的乐观锁与悲观锁的使用,基本都是按照业务场景针对性使用的。针对每个业务场景,对应的使用锁。 但是两种锁无非都是解决并发所产生的问题。下面我们来看看如何合理的使用乐观锁与...

php开源社区
17分钟前
9
0
fusionpbx 中文 汉化

  自己以前有从事过呼叫中心的工作经验,然而由于自己是从事后端开发,对于前端界面的开发还是有些吃力,但是自己却又想自己搭建一套呼叫中心,所以购买了一台云服务器并克隆了FusionPBX的...

osc_ydeb2o99
19分钟前
9
0
关于大O表示法和小O表示法

上节课老师讲了一下各种表示法,当时没咋听懂,后来查了一些资料弄懂了,记录一下。 主要是从维基百科上看的。http://en.wikipedia.org/wiki/Big_O_notation 大O表示法: f(x) = O(g(x)) 表示...

osc_3mzamgkq
20分钟前
0
0

没有更多内容

加载失败,请刷新页面

加载更多

返回顶部
顶部