优化计算中心机房的送风方式与节能主讲人丁涛2009.1目录•一.简述:•二、送风方式对能耗的影响a.下送风方式优于其它送风方式•b、对上送风机房的送风改造措施:c.下送风的两种形式:架内循环与架外循环•d.小结•e、小型机的送风方式•三.气流组织要适应高功率密度机架•a.低功率密度(小于4KW/架),下送风架内循环:效率高已采用b.中功率密度下送风+活化地板:己有部分机房在试用c.高功率密度(大于12KW/架)下送风全封闭循环:加吊顶修改规范四.专用空调与普通空调对能耗的影响五.计算中心机房的节能管理一.简述:不能因为计算中心占地面积大,能耗大就可以大手大脚,不计成本.其实计算中心挖潜的余地很大,优化计算中心机房的送风方式就是一个很好的例证!几年前,我们对全国几个具代表性的大型IDC机房进行调研,(同室外环境温度35~38℃的状态下):二、送风方式对能耗的影响a.下送风方式优于其它送风方式内容下送风专用空调机房上送风专用空调机房上送风专用空调和普通空调间隔安装服务器运行负载功率(KW)1120255112509空调同步能耗功率(KW)550322121981空调占服务器能耗的比值49%126%108%192%温度梯度的图解模型:根据数学模型,我们建立温度梯度的图解模型,机房不同高度的温度梯度可模拟为下图(下送上回方式见图a;上送下回方式见图b)。t00XWdHt1A=0t0t1At0t1A∞t0t1AΔtΔht00XWdHt1A=0t0t1At0t1A∞t0t1AΔhΔt图a:下送风上回风空调系统的温度在机房整个高度上的梯度分布图b:上送风下回风空调系统的温度在机房整个高度上的梯度分布Δt—机房内整个高度上的温度剧烈波动层;H—机房高度(净空)温度梯度图形解析由下图中最右的温度梯度图形可知,在同一个机房的相同环境下,两种送风方式在机房空间的温度梯度存在明显差异,其差值可由下图表示为:t0t1H0A∞t0t1H0t1t0下送上回的送风方式的温度梯度图2a上送下回的送风方式的温度梯度图2b两种送风方式间同点的温度差图2XHH0A∞A∞0下送风方式是计算中心机房最佳的气流组织方式。它使温度在机房工作区整个高度上的阶跃值小于上送风的方式,因为它阻止了设备放出的热量再返回到机房工作区,提高了制冷效率,节约了能耗。b、对上送风机房的送风改造措施:上海电信某上送风IDC机房,其通信设备发热量与空调机冷量数据如下:机房名称机房面积空调总容量设备总发热量机房冷负荷(设备发热量+其他冷负荷)主机房450㎡308.5KW187.95KW215KW网络机房100㎡47.1KW21.575KW28KW小计550㎡355.6KW209.5KW243KW由于IDC机房热量大,上送风空调冷风吹不远,往往在机架走道1/2--2/3距离内有效果,其余地方是热浪滚滚。为此,我们采取计算摸拟的方式来确定介决方案:机房现状原空调对面加装空调方案机架走道上部加装风机方案我们采取加装接力风机的方式,见下图。机房经过两个夏季的考验,效果良好。专用空调机组16500.00机架机架机架机架列热回风风帽冷风气流冷风气流冷风气流热回风接力风机机架列冷风气流机算中心上送风机房另一种改造方法:管道上送风方式(节电20%以上)c.下送风的两种形式:(1).IDC机架工艺(冷风架内循环)IDC标准机架工艺(2)IDC机架工艺(冷风架外循环)冷风架外循环理想状态:架外冷风循环不理想状态:两种气流组织方式比较机架内机架外1.风阻小大2.先冷却机架内是否3.先冷却环境否是4.影响机架上部冷却否是机架实测:某数据中心单个机架发热量:2.8kW送风方式:下送风上走线实际测试:送风平均温度为18℃,机架出风温度为30℃d.小结:采用冷风架内循环(小于4KW/架)时:•*假地板高度0.5米,机架顶应加装强制风冷电机.•假地板高度0.5米,功耗2KW/架左右可不加装强制风冷电机.•*假地板高度大于1米时,机架可自然冷却.•在冷量足够时,要确保冷风路由不短路,不紊流,这才是空调节能的保证!e、小型机的送风方式:小型机是IDC机房中集成度更高的一种网络运行设备,因其密度高,其发热量和耗电量都比传统的U位式叠装的服务器要大,采用下送风的方式,实际的冷却效果要优于其它方式,可以通过下图所示的气流走向分析:1000220012004001000下送风下送风热风热风带镂空的架空格栅机架热风热风三.气流组织要适应高功率密度机架•1、约束气流和自由气流•气流的流动有2种基本形式,一种是约束流,即在有限空间内被强制按照人为规定的路径流动,例如风管内的气流,机架内的风道;另一种是自由气流,例如上送风系统中的射流。在计算中心机房中,约束流的计算方便,气流利用率高(不容易形成呆滞区),在冷却设备时应首先考虑此种方式。自由气流对环境冷却中可以应用,由于其有较好的弥漫性,对控制环境有很好的作用。•2、气流短路和送风扩散•气流短路主要是存在短路路径,例如空调出风口和回风口太近且无物理阻隔,就会造成空调气流短路,又如在机架中,进风的前腔和排风的后腔的水平空间中没有隔板,也会造成冷气不经过服务器而直接短路到排风。气流短路还可能发生在前后没有良好隔绝的服务器进风和排风口。短路的气流是有害的,没有按照规定的路径带走热量,只是空循环。•在实践中,我们对送风扩散做过测试,选择前面板开孔的机架,测量进风速度、排风速度和机架内参考点温度,然后将面板封闭,在其他工况完全的情况下,数据有明显差异。•上表说明,在面板开孔情况下,由于送风无效扩散,风速大风量大能耗增大,而冷却效果下降3.机架现状一个刀片是一个卡式服务器,上面装有处理,记忆单元,硬盘,整合的以太网NICs,可选的光纤HBAs通道,硬件方案管理及其他I/O技术。kW/m2kW/RackIBM•EachBladeCenterchassisoccupies“7U”–每個刀片机箱占“7U”•Max6BladeCentersinstandard“42U”rack–每個机架可裝6個机箱共“42U”•MaxheatoutputperBladeCenter:4kW–每個机箱最大發熱量4KW•Maxheatoutputperrack:24kW–每個机架最大發熱量24KW•Nominalcoolingairflow:6x850=5100m3/h–額定散熱風量6x850=5100m3/hDell•10PowerEdge1855Bladesoccupy“7U”–10個PowerEdge1855刀片占“7U”•Max60PowerEdge1855Bladesinstandard“42U”rack–每個机架可裝60個PowerEdge1855刀片共“42U”•Maxheatoutputper10Blades:4.17kW–10個刀片最大發熱量4.17KW•Maxheatoutputperrack:25kW–每個机架最大發熱量:25KW•Nominalcoolingairflow:6x680=4080m3/h–額定散熱風量:6x680=4080m3/h刀片服务器是插入一个供应共用框架,如电源,制冷,服务器管理,KVM开关的机箱每个机箱是7U,每个机架是42U,也就是每个机架可装6个机箱•目前刀片服务器在数据中心一般都分散装在几个机架上•重量也是问题-满载机架大约可达到900公斤•由于在同一个机架上的刀片服务器不可能同时满载,实际上的热负荷小于估计值(IBM和Siemens只为他们的设备提供最大15KW的制冷量)4.对策:a.低功率密度(小于4KW/架)•下送风架内循环效率高已采用b.中功率密度•下送风+活化地板己有部分机房在试用c.高功率密度(大于12KW/架)下送风+冷池+活化地板+吊顶(风管).修改目前规范a.低功率密度(小于4KW/架)下送风架内循环:效率高已采用b.中功率密度下送风+活化地板:己有部分机房在试用•HighEfficientfan(E.C.)-高效率風機(EC)•LocalMicroprocessorwithserver-temperaturescontrol(suctionordischarge)–微處理控制器對服務器溫度(出風或回風處)的控制•Adjustablefinsforairflowoptimisation(2sections)–出風風量可調(2個區域)•Modularsize(600x600)–模塊化(600X600)•Compatibilitywithanaccessraisedfloor–和高架地板兼容AutomaticAirflowmodulationaccordingtherealloadoftheserver.-根据服務器的實際熱負荷自動調節風量可達15kW/机架活化地板的解決方案1.Floorgrille地板格栅2A.Adjustablevanes–ZoneA可调叶片-A区2BAdjustablevanes–ZoneB可调叶片-B区3Fixingbrackets固定支架4EC风机2B42A5613789Activefloor5Suctionairgrille吸入空气格栅6Electricalpanel电子板7Microprocessorcontrol微机控制8Temperaturesensor.–ZoneA温度传感器-A区9Temperaturesensor–ZoneB温度传感器-B区BladeServerZoneAZoneBHorizontalflow水平流动Patentpending刀片服务器刀片服务器CCACdownflowBladeServerRack实例活化地板系統:EC風機,由独特的控制軟件控制ExternalBMSMasterControlExternalBMSMasterControl10kW/Rack整合系統EC風機由独特的控制軟件控制ActiveFloorSystem–活化地板系統HotaisleHotaisleColdAirBladeServerRackBladeServerRackAB1B2AA=B1+B2c.高功率密度(大于12KW/架)下送风+冷池+活化地板+吊顶(风管).修改目前规范•OracleAustinDataCenter••130,000sqftbuilding••Totaldatafloorsqft82,000约8000平方米••Redundantmediumvoltage(12.47kV)utilityfeeds••UPScapacity7.8MWparallelredundant(15.6MWtotal).约800KWUPS20台••Generatorcapacityis14MW(N+1)约10台1400KW油机••Electricalsystemisdesignedtohavemultiplediversepathsand•crossoverpathsfromutilitytoPDUsandservers••Chillercapacityis3600tons(N+1)约30台3万多大卡专用空调••22,500operationalservers••4.5petabytes(4,500terabytes)ofdiskstorage••355serversonaverageinstalledeachmonth多种对策在一个机房的应用:皿四.专用空调与普通空调对能耗的影响计算中心机房显热量大:专用空调显热比为0.95压缩机能效比3.3普通空调显热比为0.65压缩机能效比2.9以CM20A专用空调为例:总冷量19.1KW则显冷量18.2KW;普通空调要产生18.2KW的显冷量则:18.2KW/0.65=28KW两种空调的年耗电计算:专用空调(19.1/3.3)*24*365=50702KWH普通空调:(28/2.9)*24*365=84579KWH普通空调比专用空调年耗电量大:84579/50702=1.67倍.五.计算中心机房的节能管理•(1)节能减排工作的理念:a.计算中心是耗电大户,一定要有节能意识。•b.一切服