网易视频云技术分享:linux软raid的bitmap分析

整理文档很辛苦,赏杯茶钱您下走!

免费阅读已结束,点击下载阅读编辑剩下 ...

阅读已结束,您可以下载文档离线阅读编辑

资源描述

vcloud.163.com网易视频云技术分享:linux软raid的bitmap分析网易视频云是网易倾力打造的一款基于云计算的分布式多媒体处理集群和专业音视频技术,提供稳定流畅、低时延、高并发的视频直播、录制、存储、转码及点播等音视频的PAAS服务,在线教育、远程医疗、娱乐秀场、在线金融等各行业及企业用户只需经过简单的开发即可打造在线音视频平台。现在,网易视频云的技术专家给大家分享一则技术文:linux软raid的bitmap分析。在使用raid1,raid5等磁盘阵列的时候,对于数据的可靠性有很高的要求,raid5在写的时候需要计算校验并写入,raid1则写源和镜像来保证数据的一致性,在写的过程中,有可能存在不稳定的因素,比如磁盘损坏,系统故障等,这样导致写入失败,在系统恢复后,raid也需要进行恢复,传统的恢复方式就是全盘扫描计算校验或者全量同步,如果磁盘比较大,那同步恢复的过程会很长,有可能再发生其他故障,这样就会对业务有比较大的影响。以raid1来说,在发生故障时,其实两块盘的数据很多都是已经一致的了,可能只有少部分不一致,所以就没必要进行全盘扫描,但是系统并不知道两块盘哪些数据是一致的,这就需要在某个地方记录哪些是已同步的,为此,就诞生了bitmap,简单来说,bitmap就是记录raid中哪些数据是一致的,哪些是不一致的,这样在raid进行恢复的时候就不用全量同步,而是增量同步了,从而减少了恢复的时间。vcloud.163.com1.bitmap的使用bitmap的使用比较简单,mdadm的帮助文档里有很详细的说明。bitmap分两种,一种是internal,一种是external。internalbitmap是存放在raid设备的成员盘的superblock附近(可以在之前也可以在之后),而external是单独指定一个文件用来存放bitmap。这里简单的介绍一下bitmap的使用。#mdadm–create/dev/md/test_md1–run–force–metadata=0.9–assume-clean–bitmap=/mnt/test/bitmap_md1–level=1–raid-devices=2/dev/sdb/dev/sdcmdadm:/dev/sdbappearstobepartofaraidarray:level=raid1devices=2ctime=TueDec1721:00:582013mdadm:array/dev/md/test_md1started.查看md的状态#cat/proc/mdstatPersonalities:[raid1]md126:activeraid1sdc[1]sdb[0]2097216blocks[2/2][UU]vcloud.163.combitmap:1/257pages[4KB],4KBchunk,file:/mnt/test/bitmap_md1可以看到最后一行就是md126的bitmap信息,这里的默认bitmap的chunksize是4KB,可以通过–bitmap-chunk来指定bitmapchunk大小,bitmap的chunk表示在bitmap中1bit对应md设备的一个chunk(大小为bitmap的chunksize)。这里对cat/proc/mdstat查看到的bitmap的信息进行说明。其中的4KBchunk表示bitmap的chunk大小是4KB;1/257pages指的是bitmap所对应的内存位图(作为磁盘上的bitmap的缓存,提高对位图的操作效率),257是内存bitmap占的总page数,1表示已经分配的page数,内存bitmap是动态分配的,使用完后就可以回收。内存位图使用16bit来表征一个chunk,其中的14bit用来统计该chunk上正在进行的写io数(后面会有详细的介绍)。[4KB]表示已经分配的内存位图page总大小。总的chunk数=md设备大小/bitmap的chunk大小内存bitmap一个page可以表示的chunk数=PAGE_SIZE*8/16vcloud.163.com内存bitmap占的总page数=总的chunk数/内存bitmap一个page可以表示的chunk数上面给出的例子中总的chunk数为2097216KB/4KB=524304取页大小为4096,一个page可以表示的chunk数为4096*8/16=2048总共需要524304/2048=256个page,看实际上是257,这是因为有可能不能整除的情况,最后一个page可能不是全部都使用。2.bitmap的内存结构bitmap的结构体有比较多的字段,这里关注几个重要的字段,加以说明,便于后面的分析。structbitmap{structbitmap_page*bp;/*指向内存位图页的结构*/……unsignedlongchunks;/*阵列总的chunk数*/……structfile*file;/*bitmap文件*/vcloud.163.com……structpage**filemap;/*位图文件的缓存页*/unsignedlong*filemap_attr;/*位图文件缓存页的属性*/……};其中structbitmap_page结构如下:structbitmap_page{char*map;/*指向实际分配的内存页*//**inemergencies(whenmapcannotbealloced),hijackthemap*pointeranduseitastwocountersitself*/unsignedinthijacked:1;/**countofdirtybitsonthepage*/vcloud.163.comunsignedintcount:31;/*该页上有多少脏的chunk,每16bit表示一个chunk*/};实际动态分配的每个内存页,每16bit对应bitmapfile的一个bit,即表示md的一个chunk这16个bit的作用如下:1514130+————-+———-+————————————-+|needed|resync|counter|+————-+———-+————————————+最高一位表示是否需要同步,后面一位表示是否正在同步,低14bit是counter,用来统计该chunk有多少正在进行的写io。这14bit表示的counter记为bmc,方便后面描述。bmc的值0,1,2比较特殊,为0时表示对应chunk还未进行写操作,内存位图还未置位,bmc为1时表示内存位图已经置位,bmc为2表示所有写操作刚结束,真正的写io数是从2开始累加的。bitmap结构中的filemap表示bitmapfile的对应缓存,bitmapfile有多大,对应的这个filemap缓存就有多大,在初始化的时候就分配好的。vcloud.163.comfilemap_attr表示位图文件缓存页的属性,使用4bit来表示一个缓存页的属性,第0bit是BITMAP_PAGE_DIRTY,该bit为1表示内存bitmap中为脏,但是bitmapfile中的对应位不为脏,因此对于有这种标记的page需要同步刷到磁盘(实际上是异步调用write_page,但是等到写完成)第1bit是BITMAP_PAGE_PENDING,置位后表示内存bitmap中的脏位已经清0,但是此时外存bitmapfile中的对应脏位没有清0,需要进行清0的操作,这是一个过渡状态,过渡到BITMAP_PAGE_NEEDWRITE。第2bit是BITMAP_PAGE_NEEDWRITE,置位后表示需要进行同步,把内存位图缓存中的数据刷到外部位图文件中,所对于这种标记的page只需要异步写,因为即使写失败,最多带来额外的同步,不会带来数据的危害。第3bit在代码中没有看到使用,猜测是预留的。bp中的page和filemap对应的page以及bitmapfile的关系如下:vcloud.163.com1个位图文件缓存页可以表示4096个chunk,而内存位图页则需要16个page。bp数组所对应的内存位图页的作用其实是控制bitmap的置位与复位,并且也控制一个chunk上的io不能超过最大值(14bit表示的最大整数),达到最大值的时候会进行ioschedule。3.bitmap的可靠刷新机制在进行写操作的时候,是先把bitmap的对应位置为脏,然后再进行写操作,写完成后再复位。那么如何保证每次写操作时,内存bitmap中的数据都被可靠刷到对应的磁盘bitmapfile中?一般的逻辑是在写io到md设备前,先在bitmap中标记为dirty(成功刷到磁盘中),然后执行写io,io完成后需要清理dirty的标记这就需要在正常数据写操作之前,完成bitmap的刷新操作。那么bitmap如何实现呢?vcloud.163.com以raid1为例,md在make_request中,调用了bitmap_startwrite函数,但是这个函数并没有直接调用write_page刷新数据到磁盘,而是调用了bitmap_file_set_bit将bitmap位标记为BITMAP_PAGE_DIRTY。之所以不在bitmap_startwrite函数中调用write_page刷新,是因为块设备的io操作是通过queue队列进行的,不能保证每次io操作都能及时完成,而且io调度的顺序也可能调换,因此如果直接调用write_page进行写操作的话,就有可能存在bitmap的刷新和正常的数据写操作的顺序发生颠倒。真正处理BITMAP_PAGE_DIRTY是在bitmap_unplug中,对于raid1来说,bitmap_unplug是在raid1.c中的flush_pending_writes函数中调用的,而flush_pending_writes是由raid1的守护进程raid1d调用的。flush_pending_writes会调用bitmap_unplug刷新bitmap到磁盘,然后遍历conf-pending_bio_list,取出bio来处理正常挂起的写io。(在raid1的make_request中会把mbio加到conf-pending_bio_list中)从上面的分析可知,raid1在收到写io请求时,先把内存位图置为dirty,并把该写io加到pending_list,然后raid1d守护进程会把标记为dirty的内存位图页刷到外存的位图文件中,然后从pendling_list中取出之前挂起的写io进行处理。在刷脏页时,需要把位图文件缓存页的数据写到位图文件中,因为md是内核态的程序,在实现时并没有直接调用通常的写函数往外存的文件写数据,而是通过bmapvcloud.163.com机制,根据inode,把文件数据块和物理磁盘块映射起来,这样就可以透过文件系统,调用submit_bh进行bitmap的刷新。上面描述的可靠刷新机制也就是bitmap设置的过程,下面分析bitmap清理的逻辑。4.bitmap位的清除前面说到从pending_list中取出写io进行处理,当io完成后需要清除dirty的标记,会把内存位图页的属性设置为BITMAP_PAGE_PENDING,表示正要去清除,BITMAP_PAGE_PENDING属性页并不会立即刷到外存的位图文件中,而是异步清0的过程。真正的清理流程在bitmap_daemon_work中实现。这是有raid的守护进程定期执行时调用的(比如raid1d),守护进程会定期调用md_check_recovery,然后md_check_recovery会调用bitmap_daemon_work根据各种状态进行清0的操作。bitmap_daemon_work的实现比较复杂,里面各种状态判断与转换,很容易把人绕晕,bitmap的清0(内存位图页的bit清0及刷到外存的位图文件)是需要经过3次调用

1 / 16
下载文档,编辑使用

©2015-2020 m.777doc.com 三七文档.

备案号:鲁ICP备2024069028号-1 客服联系 QQ:2149211541

×
保存成功