NetApp双活架构与EMC双活架构比较:1,拓扑图架构比较从拓扑图可以看到,EMC是采用vplex存储网关的方式实现,主机到存储的数据流需要经过vplex网关,然后再写入到后端的存储,需要通过两个SAN网络,数据的通路比较长。NetApp则摈弃了存储网关模式,直接将双活的metrocluster软件集成到存储的控制器内,直接通过存储控制器实现双活功能,数据的通路比较短。2,两种模式的性能比较:我们分别比较读写模式下,两种架构的性能比较:a.写数据:VPLEXLocal对于数据写入采用“直写模式”,也就是主机写入数据的流程为:主机发起数据写入数据写入VPLEXVPLEX写入2个后端存储2个后端存储均写入完成报告主机写入完成。可见在这个过程中,VPLEX的缓存无法发挥任何作用,反而因为数据多经过了一个通路,导致写入速度变慢。总的主机写入时间=VPLEX写入时间+后端存储写入时间。而相比NetAppMetroCluster,写入数据时并无类似的网关设备,所以写入时间=存储写入时间。b.读数据:VPLEX的引擎内存分为本地内存和全局内存,全局内存在local模式无效,数据LUN如果在引擎上找不到缓存,需要从存储缓存中寻找;如果存储缓存也无法找到数据,则从存储硬盘中读数据。NetApp的模式,读数据直接从存储缓存中寻找,如果存储缓存无法找到数据,可以在两个存储节点中同步读出数据(类似LUN的RAID1)而提升读性能。c.总结以上可见,应用的写入IO速度是最影响应用响应速度的环节,而在写数据环节,VPLEX的缓存非但不能发挥作用(因为采用直写技术),反而因为数据多流经一个网关设备而造成额外的延迟。从本质上讲,VPLEX仅仅是数据通道上的一个网关,数据最终还是需要从存储上进行读写,网关性能标称的再高也不可能提升后端存储的速度,仅仅只能做到不影响后端的存储性能而已,但是由于多一个数据路径环节,所以对整体速度有额外的延迟。3,双活功能比较:EMCVPLEX网关型架构与NetAppMetrocluster的架构比较a.增加的网关设备导致更多连线,复杂的拓扑,引入的新的故障点。相比netappmetrocluster而言架构比较简洁。b.VPLEX网关对外仅能提供FCSAN功能,无法支持iSCSI和NAS,对未来统一存储整合不利,netappmetrocluster可支持各种统一存储协议。c.VPLEX网关采用按容量许可的方式,后续扩容还需收取vplex扩容费,netappmetrocluster后续无需收容量许可d.VPLEX网关因为采用了最简单的FC仿真模式(对后端存储而言,它模拟自己为一台服务器),这样实际上屏蔽了后端存储的特色软件功能(存储池、去重、存储分层等功能均没有了)e.VPLEX网关需要一个独立的管理工具4,后端存储自身性能比较EMC的VNX5600,标称缓存为48GB,但是实际可用内存仅为10多G,写缓存则更少,仅为2G多(可在EMCunisphere管理界面内看到,其余均被系统所开销),而netappFAS8020存储设备拥有专用的48GB读缓存、8GB的专用写缓存(系统开销均已除外),读写性能均高于VNX5600存储设备。