发布日期:04-19-2017更新日期:06-01-2018VMwarevSAN网络设计版权所有©2018VMware,Inc.保留所有权利。1目录1.简介1.1.简介1.2.vSAN网络连接简介1.3.关于本文档1.4.物理网卡支持声明1.5.延伸集群和故障域声明1.6.第2层和第3层支持声明1.7.多播1.8.单播1.9.巨型帧1.10.IPv6支持1.11.TCP/IP堆栈1.12.静态路由1.13.NSX1.14.流量控制1.15.vSAN网络端口要求2.vSAN网络上的网卡绑定2.1.vSAN网络上的网卡绑定2.2.基本网卡绑定2.3.高级网卡绑定2.4.动态LACP(多个物理上行链路,1个vmknic)2.5.基于IP哈希路由的静态LACP3.网卡绑定配置示例3.1.配置13.2.配置23.3.配置33.4.配置44.NetworkI/OControl4.1.NetworkI/OControl4.2.启用NIOC4.3.预留、份额和限制4.4.网络资源池4.5.NIOC配置示例5.vSAN网络拓扑5.1.vSAN网络拓扑5.2.标准部署5.3.延伸集群部署5.4.2节点vSAN部署5.5.2节点vSAN部署-常见配置问题5.6.从数据站点到见证主机的网络配置5.7.极端情形的部署6.vSANiSCSI目标-VIT6.1.vSANiSCSI目标-VIT6.2.VIT内部6.3.iSCSI设置步骤6.4.MPIO注意事项6.5.vSAN上的iSCSI限制和注意事项7.附录A7.1.从标准虚拟交换机迁移到分布式虚拟交换机7.2.步骤A.1创建分布式交换机7.3.步骤A.2创建端口组7.4.步骤A.3迁移管理网络7.5.步骤A.4迁移vMotion7.6.步骤A.5迁移vSAN网络7.7.步骤A.6迁移虚拟机网络8.附录B8.1.附录B.对vSAN网络进行故障排除8.2.网络运行状况检查VMwarevSAN网络设计版权所有©2018VMware,Inc.保留所有权利。28.3.所有主机均已配置vSANvmknic8.4.所有主机均有匹配的多播设置8.5.所有主机均有匹配的子网8.6.主机与VC断开连接8.7.有连接问题的主机8.8.基于其他检查的多播评估8.9.网络延迟检查8.10.vMotion:基本(单播)连接检查8.11.vMotion:MTU检查(使用大数据包执行ping操作)8.12.vSAN集群分区8.13.vSAN:基本(单播)连接检查8.14.vSAN:MTU检查(使用大数据包执行ping操作)8.15.检查vSAN网络是否正常运行8.16.检查多播通信8.17.检查vSAN网络的性能8.18.检查vSAN网络限制8.19.物理网络交换机功能互操作性9.附录C9.1.附录C:vSAN网络连接的确认清单摘要10.附录D10.1.附录D:vSAN6.6版本管理更改11.附录E11.1.单播vSAN的vCenter恢复示例11.2.vSAN节点准备11.3.vCenter准备11.4.将vSAN节点添加到vCenter12.附录F12.1.引导vSAN6.6单播集群VMwarevSAN网络设计版权所有©2018VMware,Inc.保留所有权利。31.简介简介VMwarevSAN网络设计版权所有©2018VMware,Inc.保留所有权利。41.1简介vSAN是适用于Software-DefinedDataCenter、融合了hypervisor的软件定义的存储解决方案。它是第一款专为VMwarevSphere®环境设计的策略驱动型存储产品,可简化和精简存储调配与管理。vSAN是一款分布式共享存储解决方案,可支持在虚拟机创建和部署操作的过程中,在VMwarevCenterServer™内快速调配存储。vSAN需要一个针对虚拟机I/O以及集群节点之间的通信而经过正确配置的网络。由于采用分布式存储体系结构,大多数虚拟机I/O数据要在网络中传输,因此要实现成功的vSAN部署,高性能和高可用性的网络配置至关重要。这篇文章简要介绍了vSAN网络的技术要求,并提供了部署高可用性和可扩展性vSAN解决方案的一些vSAN网络设计和配置最佳实践。1.2vSAN网络连接简介vSAN网络连接有多个不同的组成部分。首先是发生在vSAN集群中的所有ESXi主机之间的通信,表明它们仍然在积极参与vSAN。这一直以来都通过多播流量进行,每一秒从主控主机向所有主机发送一次检测信号,以确保它们仍处于活动状态。但是,自从vSAN6.6发布后,现在通过单播流量进行此通信。与vSAN的以前版本相比,这是一个显著的变化,从网络连接的角度来看,应当能使vSAN配置更为轻松。还有主控主机、备份和代理节点之间的通信。当ESXi主机是vSAN集群的一部分时,它可以充当三个角色:主控主机、代理和备份。当参加vSAN的所有节点都选择主控主机时,在集群发现期间应用角色。vSphere管理员对角色没有控制权。有一个主控主机节点负责从所有节点获取CMMDS(集群监控、成员资格和目录服务)更新,并将这些更新分发到代理。此流量一直以来是多播,但现在在vSAN6.6中是单播。备份节点也保留备份目录,当主控主机发生故障时,将担任主控主机角色。这将避免完全重新发现集群中的每个节点、对象和组件,因为备份角色已经有目录内容的完整副本,并且可以无缝担任主控主机的角色,在主控主机发生故障时加快恢复速度。此主控主机、代理和备份之间的流量在稳定状态下相对较少。最后,还有虚拟机磁盘I/O。这构成了vSAN网络上的大部分流量。由于vSAN数据存储上的虚拟机由一组对象组成,因此这些对象可以由一个或多个组件组成。例如,多个RAID-0条带或多个RAID-1镜像。虚拟机计算和虚拟机存储总是位于集群中的不同ESXi主机上。也可能出现以下情况:如果虚拟机已配置为容许一个或多个故障,则计算可能在节点1上,第一个RAID-0镜像可能在主机2上,第二个RAID-0镜像可能在主机3上。在此情况下,此虚拟机的磁盘读取或写入必须遍历vSAN网络。这是单播流量,构成了大部分vSAN网络流量。1.3关于本文档本文档并非意在替代现有的《vSphere网络连接指南》,而主要是总结中提供的现有资料。vSAN就绪节点(file.html)通常标准化为两个10Gb服务器端网络上行链路。本指南中的许多示例将基于2x10Gb网络接口设计。对于使用DELL-EMCVxRAIL设备的客户,此处提供适用于该设备的单独网络指南:。1.4物理网卡支持声明在深入探讨技术细节之前,我们将介绍与vSAN网络配置相关的常见支持能力问题。哪种网卡可用于哪种vSAN配置的问题比较普遍。下表强调了vSAN部署所需的最低网卡速度。VMware预期将很快推出更高速的网卡,例如25Gb、40Gb甚至100Gb网卡。VMwarevSAN网络设计版权所有©2018VMware,Inc.保留所有权利。5+10Gb支持1Gb支持备注混合集群是是建议使用10Gb,但也支持1GbRTT小于1毫秒全闪存集群是否全闪存需要10Gb。不支持1GbRTT小于1毫秒延伸集群数据到数据是否RTT小于5毫秒,数据站点之间需要10Gb延伸集群见证到数据是是RTT小于200毫秒,从数据站点到见证需要100Mbps的连接2节点数据到数据*是是全闪存需要10Gb,混合支持1Gb,但建议使用10Gb2节点见证到数据是是RTT小于500毫秒,需要1.5Mbps的带宽VMwarevSAN网络设计版权所有©2018VMware,Inc.保留所有权利。6表1.最低网卡要求*在vSAN6.5中,2节点vSAN支持数据网络的直连,即主机无需网络交换机即可直接互相连接。在vSAN6.5之前,2节点配置需要1Gb(混合)或10Gb(全闪存)交换机用于连接。有关带宽要求的更多详细信息可在vSAN延伸集群指南中找到,网址为!/vmware-vsan/vsan-stretched-cluster-bandwidth-sizing/general-guidelines/11.5延伸集群和故障域声明人们对于在位于不同站点的vSAN服务器机架上实施故障域(机架感知)需要哪些许可证,以及它与使用vSAN的延伸集群相比有何优劣存在一些疑惑。下表大致列出了不同的配置/部署,并强调了每种实施类型需要的许可证版本。最大节点数距离性能注意事项许可见证注意事项站点延伸集群15+15+W不适用数据站点之间需要企业级专用见证主机/设备3**延伸集群1+1+W*不适用数据站点之间需要Standard或更高专用见证主机/设备3**全闪存故障域64不适用性能达到LAN级别,(RTT小于1毫秒)10Gb带宽Standard或更高无专用见证。见证对象分布在所有故障域上1**混合故障域64不适用性能达到LAN级别,(RTT小于1毫秒)支持1Gb带宽,但建议使用10GbStandard或更高无专用见证。见证分布在所有故障域上1**表2.延伸集群和故障域*Standard许可允许客户创建1+1+W延伸集群部署。但是,如果您尝试将任意数据站点的节点数增加到多于1个节点,配置将显示错误,指出除非您有vSANEnterprise许可证,否则您无权使用此配置。**尽管大多数vSAN部署都在同一个数据中心的同一个房间内,但VMware技术支持团队将vSAN节点安置在不同的房间和不同的站点中,无需延伸集群,也无需专用见证。但是,要求延迟达到LAN级别,即小于1毫秒。在这些配置中,用户还需要使用故障域来实现跨房间或跨站点的可用性。有关此操作的执行步骤,请参考相应的vSAN文档。读者还应注意,延伸集群需要vSphereDRS,因此还应考虑支持vSphereDRS的vSphere许可证版本。VMwarevSAN网络设计版权所有©2018VMware,Inc.保留所有权利。71.6第2层和第3层支持声明本部分介绍vSAN部署是否在第2层和第3层网络连接配置上受支持。尽管强烈建议使用第2层配置(所有主机共享同一个子网),但VMware也支持使用第3层的vSAN部署(vSAN网络在主机之间路由)。建议采用第2层实施方法来降低复杂性,尤其是在v6.6以前的vSAN中更应如此,因为这些版本还需要路由多播流量。第2层网络拓扑负责通过主机、桥接或交换机等中间第2层设备转发数据包。加入vSAN集群的所有主机都必须能够通过连接到通用第2层网段的VMkernel接口建立通信。在vSAN6.6之前,所有vSAN集群成员都通过用于vSAN流量服务的VMkernel网络接口发送IGMP加入请求。vSAN6.6仅使用单播,不再需要IGMP。第3层网络拓扑负责通过路由器等支持第3层的中间设备和支持第3层的交换机路由数据包。根据第2层拓扑,所有vSAN集群成员(vSAN6.6之前)都需要加入集群“多播组”,方法是通过用于vSAN流量服务的VMkernel网络接口发送IGMP加入请求。在第3层网络拓扑中(仍然是vSAN6.6之前),加入vSAN集群的主机将存在于第2层域中,VMware建议在这些域中配置的所有交换机中使用和配置IGMP监听。支持L2支持L3注意事项混合集群是是推荐L2,还支持L3全闪存集群是是推荐L2,还支持L3延伸集群数据是是支持数据站点之间的L2和L3延伸集群见证否是支持/推荐使用L3。通常不建议在传统配置中使用数据和见证之间的L2*。如果是在单个站点(如跨数据中心层的延伸集群)中使用,则可以使用L2。使用L2时,从见证到每个站点需