HDSVSP硬件体系架构时间:2013-12-191.VSP体系架构VSP(HitachiVirtualStoragePlatform)基于第五代HitachiUniversalStarNetwork™光纤交换架构,是唯一适用于所有数据类型、可进行3D扩展的存储平台。其独有的存储架构可进行灵活扩展,以满足性能和容量需求,并通过对多供应商存储环境进行虚拟化,优化存储资产回报率。1.1第五代Hi-Star交换架构扩展性等方面全面超越目前业界已有的高端存储系统,而且提供了全面的虚拟存储解决方案,使异构存储系统互联互通成为可能。2010年,HDS在成熟并且久经市场考验,被广大用户认可的USPV的基础上,根据存储科技发展的最新成果,推出了全新的VSP存储系统。这种交换式结构的技术是提供了“点对点”、“无阻塞”的数据访问,如图所示,在交换式架构中,最重要的部件是交换矩阵中的缓存交换模块(GSW)。通过GSW,主机接口控制器FED、数据Cache板、磁盘通道控制器BED和虚拟存储导向器VSD连接在一起,数据Cache与前后两端控制器之间都能够构成“点对点”的连接,实现并发通道数量最大,数据通道利用率最高。存储系统并发处理能力越高,就意味着可以处理更多的应用系统读写请求,进一步提高整个系统的性能。而且,这种使用交换式的结构,使HDSVSP磁盘存储系统具有了良好的扩展能力,前端的主机通道控制器、后端磁盘通道控制器、Cache都能够在线的、灵活的进行升级,从而降低了系统升级的投资。VSP可以配置单个或者最大两个控制阵列,每个控制阵列可以配置一个控制柜和两个磁盘扩展柜。控制柜包含一个逻辑控制单元,承载了所有的本控制柜的所有控制卡(包括主机接口卡FED、磁盘控制卡BED、内存卡DCA、集中处理卡VSD以及核心的缓存交换模块GSW);此外,控制柜还包含两个磁盘扩展单元。磁盘扩展柜能够装载三个磁盘扩展单元。VSP提供两种类型的磁盘扩展单元:支持最大128块2.5”磁盘的小型磁盘扩展单元SFF和支持最大80块磁盘的3.5”的大型磁盘扩展单元LFF。当VSP满配时使用两个控制柜,两个控制柜之间直接基于GSW进行互联,形成一个单一的存储平台。1.2虚拟存储导向器VSD在第五代交换式体系架构中,在分布式体系架构的基础上,VSP增加了虚拟存储导向器VSD,来实现对VSP存储上IO读写任务的统一调度和部署。虚拟存储导向器VSD结构示意图VSP的每个控制柜可以安装两块或者最大四块VSD,每个VSD上安装有一个主频2.33GHz的四核CPU和12MB的板上L2缓存,这些CPU取代了传统的位于前端主机接口卡和后端磁盘控制卡的CPU,承担了VSP的主要I/O的运算和处理,包括:分配给此VSD的所有的LDEVs的映射、运算、Raid处理。VSP接收到所有的主机I/O请求都被视作是一个任务线程,VSD上的任何一个CPU都能够对自己VSD所管理的LDEV进行运算和处理,而每个VSD只处理属于自己的LDEV,仅当他自身出现故障时才会切换到冗余的另一个VSD上去。VSP控制柜上的任何一个前端卡上的主机接口都能够访问任意的LDEV,前端接口卡上的CPU将仅仅完成I/O的定向,即将某个LDEV定向给它所从属的VSD,并不做运算和处理。同时每个VSD上安装有4GB的DDR2RAM作为控制缓存,存放和管理内部处理数据信息和状态,包括:Arraygroups,,LDEVs,externalLDEVs,runtimetables,mappingdata。虚拟存储导向器VSD负载均衡示意图每个LDEV都会被分配给唯一一个属主的VSD,同样也仅有一个VSD来运算和处理它所管理的LDEV。当LDEV被创建时就被分配给某个VSD,无论是单个控制柜的环境还是双控制柜的配置环境。在单个控制柜环境中,最大包含四个VSD,在初始时每个VSD都将管理所有LDEV的25%;与之类似的,在双控制柜环境中时,最大配置八个VSD,则初始时每个VSD都将管理所有LDEV的12.5%。VSD的LDEV属主模式不管I/O来自于哪个主机、哪个前端端口或哪一块前端卡,也不论是I/O将去往哪个后端卡、后端端口或磁盘。因此VSD的数量与所安装的前端卡或者后端卡的数量都无关。通过增加VSD的数量可以近乎线性的增加VSP存储的处理能力。通过VSP的这种独有的集中运算处理机制,可以更加充分的发挥所有CPU的处理性能,可以按照逻辑卷(LDEV)的属主更加均衡地实现各个CPU之间的负载均衡,从而提高VSP存储系统的性能。VSD板上专用处理器使用专用操作系统,来负责存储I/O统一调度处理,包括:前端端口I/O虚拟化I/O后端端口I/O容灾初始端口I/O(MCU)容灾目标端口I/O(RCU)主机(Mainframe)仿真类型等VSD的IO调度流程见如下的示意图:虚拟存储导向器VSD的IO调度流程示意图VSP前端端口的IO请求首先发到VSD板处理,通过统一调度之后,IO数据将直接与Cache板、后端板卡、后端物理磁盘进行数据交换,而不会通过VSD板进行。前端板卡、Cache板卡及后端板卡决定着数据传输性能。1.3Cache的设计高端存储系统中除了要有高性能、高扩展性的结构外,Cache的设计将直接影响到存储系统的性能表现和可靠性。VSP的缓存部件称为DCA——DataCacheAdapters数据缓存卡,DCA承载了所有的主机访问数据和控制缓存的复本。VSP单个控制柜支持最大8个DCA,每个DCA可以安装最大64GB缓存,单个控制柜系统可以支持最大512GB缓存,整个VSP满配可以配置最大1TB缓存。VSP采用最新的SSD来实现高速缓存的掉电保护,在每个缓存卡DCA上都安装有两块SSD磁盘(32GB或64GB)。同时在每个缓存卡DCA上都安装有独立的电池,当VSP发生掉电或意外宕机时,由DCA上的电池供电,所有的缓存数据将被写入到DCA上的SSD内用于长久保存。如下图所示:同样,HDSVSP的Cache设计中依然采用了Cache写镜像技术,即将Cache板分别至于两个互为备份的控制区域内,在响应读操作时这两个控制区域中的Cache在是独立响应的;在进行写操作时,当数据写入任何一个控制区域中的Cache时,同时会在另外一个控制区域中的Cache中保留一份镜像数据,直到这些数据被写入硬盘。这种设计一方面确保在Cache中的数据的安全可靠,无论哪一个控制区域中的Cache出现问题,另外一个控制区域中都保存着对方Cache中未写入硬盘的数据;另一方面在进行在线的Cache升级时,HDSVSP磁盘存储系统都能够支持便捷、快速的升级方式,做到升级时对系统影响时间最短。其次,HDSVSP磁盘存储系统为了有效的提高读Cache的效率和减少Cache中的寻址时间,缓存分为数据Cache区和控制Cache区,独自承担不同的任务,单可以同时享有共同的带宽和并发能力。数据Cache中包含应用系统的读、写数据;控制Cache中包含数据在数据Cache中的位置信息、逻辑卷信息、配置信息等控制Cache中的众多信息中,数据的Cache位置信息非常重要,主机通道控制器通过获取这些位置信息缩短在数据Cache中的寻址时间,提高了数据访问速度;另外,如果控制Cache中没有主机要访问的数据的位置信息时,就说明该数据并没有在数据Cache中,此时控制Cache将向磁盘通道控制器发送请求,将该数据从硬盘写入至Cache,并且更新控制Cache中的位置信息。我们试想一下,如果没有控制Cache,所有的I/O操作请求都集中在Cache中处理,Cache越大,寻址时间越长,最终导致系统性能下降。1.43D扩展能力3D扩展是一种可进行三维扩展的独特功能,包括纵向扩展、横向扩展和纵深扩展;没有任何一种其他企业级存储产品能够在单一平台中同时结合这三种特性。HitachiVirtualStoragePlatform:·纵向扩展(ScaleUP)–在单一存储单元中动态添加处理器、连接和容量,满足不断增长的需求,从而使开放环境和大型机环境获得最佳性能。(1个存储单元,最大1024块硬盘,512GB缓存)·横向扩展(ScaleOut)–通过共享资源将2个存储单元动态整合至单一逻辑系统中,支持虚拟化服务器环境下不断增长的需求,从而满足多样化需求。通过缓存和端口分区,保证多个服务器的安全共享访问和服务质量。(两个存储单元,2048块硬盘,1TB缓存)VSP采用交换式架构,通过内部交换矩阵,将主机接口控制器FED、数据Cache板、磁盘通道控制器BED和虚拟存储导向器VSD连接在一起。VSP的两个存储单元的内部交换机GSW一对一互联实现横向扩展(ScaleOut),这种互联方式能够保证FED、Cache板、BED和VSD之间AnytoAny的高速连接,保证VSP横向扩展的高性能。·纵深扩展(ScaleDeep)–通过对新的以及现有的外部存储系统进行动态虚拟化,扩大存储价值,并将先进功能扩展至多供应商存储环境。提供了存储架构深层次的扩展,将需求量不大的数据移至外部存储层,优化第1层资源的可用性,实现数据的分层存储,同时简化对外部存储的管理,对现有生产设备实现利旧。VSP是业界当前唯一能够灵活满足性能、容量和多供应商存储环境需求的存储架构。它通过改善系统运行能力以及可显著提高存储资产投资回报的设计来提高数据中心效率,从而在存储经济性方面取得重大突破。2.VSP产品硬件技术指标从下图看出,其IOPS怎么比USPV/VM的还要少,不过这些都是实验数据,没有太大的参考意义。参考HDSUSPV/VM硬件架构