数据中心制冷与UPS供电数据中心技术专题之“数据中心制冷与UPS供电”Page2of23数据中心制冷与UPS供电数据中心制冷的重要性不用多说,因为它已经与机房内关键设备的生命相挂钩,想想若是关掉空调半天会带来什么样的后果吧。最终,服务器会因为无法承受过大热量而宕机。而UPS是数据中心电源的最佳警卫,保证数据中心在发生电源意外事故的时候,能够发挥其效用,采用备用电源让数据中心持续运转。但是很多时候,IT人员对于一味地重视服务器硬件、操作系统、网络架构这样的关键部分,却对后备电源准备不足,导致宕机的悲剧发生。本手册聚焦于数据中心UPS和制冷的各项技巧,教你如何双管齐下,分别解决好两大基础设施的问题。数据中心制冷的状况与实践冷却占了数据中心能耗较大一部分,一般来说,数据中心总体大约四成的能源贡献给了制冷设备,但是用以散热的精密空调不可以不装,但是在这前提下,我们需要增强其效率,减少其能耗。TechTarget数据中心网站在本期的技术手册中,整理了原创文章及调查数据,希望能通过这些文章,让你在选购和配置制冷设备时不再迷惘。2011数据中心调查:制冷与UPS调整机房空调容量大小提高数据中心能源效率如何预防和纠正服务器制冷故障?数据中心技术专题之“数据中心制冷与UPS供电”Page3of23数据中心UPS不可不知的知识UPS是预防数据中心宕机的后备军,能够帮助企业关键设备在出现电源故障时还能保持运转,留出充分的时间维修或者替换设备。轻视的作用UPS固然会带来惨痛的结局,对UPS使用不当也会造成不良后果。如何确定全新UPS单元的规格防止UPS电池故障造成宕机能耗与制冷的解决方案和案例如何平衡能耗与制冷?对于中国数据中心专家来说尚存许多迷思。在国外数据中心PUE值已经向无限趋近于1进军时,我们应该如何规划好基础设施架构?并非执着于数字,而是为了不让有限的能源和资金浪费于无形。面向高密度应用的高效的供电和制冷解决方案江宁地税数据中心机房的UPS解决方案数据中心技术专题之“数据中心制冷与UPS供电”Page4of232011数据中心调查:制冷与UPS在2011年初始,SearchDataCenter.com发布了2011数据中心调查(DCD:2011)来衡量未来趋势和理解影响企业在数据中心进化中的因素。我们收到了超过1000份从不同IT职业的专业人士发来的反馈。本文2011数据中心观察系列中的关于数据中心制冷和UPS的部分。选择最佳的能源与制冷架构封闭系统能有效地管理冷空气的流动,使热的设备降温。接着,在与其他冷空气接触之前,把热空气抽走。永远也没有“最正确的”封闭系统管理策略;一般数据中心都使用多种制冷方式或策略。在2011年,51%的IT人员报告使用冷池的封闭空间来控制数据中心的空气流动,43%的使用热通道封闭系统,39%的使用冷通道封闭系统。除了2011年的冷池与冷通道封闭系统的使用者有细微的上升,这些数据与2010年的结果相似。而热通道封闭系统的使用者则有些下降。地板可作为冷空气低位集气室,同时也是数据中心服务器和其他设备的地基,所以是另一个设计的重要因素。虽然有一些不同的选择,但几种固定的方法在过去的一年中渐渐流行起来。数据中心技术专题之“数据中心制冷与UPS供电”Page5of232011年,54%的IT受访者使用架空地板,而40%部署了楼板。这与2010年相比有了明显的变化,58%的IT人员使用架空地板而33%使用楼板。对于楼板的兴趣增加可能表示了对于架空地板的无奈,比如使用传统架空地板对于沉重的机架和刀片服务器的承受能力是有限制的。不间断电源供应系统(UPS)的选择。在能源供应商发生问题如电力异常或中断的情况下,UPS系统为服务器和其他数据中心设备提供临时的电源。UPS中的电池持续为设备提供电力直到电力供应商恢复或为了防止数据流失而关闭设备。基于DCD:2011调查反馈,表3中列出了2010年与2011年里最重要的UPS供货商。计算机房间空调(CRAC)单元的选择。CRAC单元的功能是将冷空气传送到数据中心,接着冷却回流的热空气。作为一个大型的工业系统,CRAC系统需要大量的电力能源,也代表了一个对于基础设施空间和架构的重要投资。在DCD:2011中,只有两家CRAC供货商进入了调查行列。36%的IT人员使用了艾默生公司的CRAC单元;29%更偏向与APC/施耐德的。这代表了APC/施耐德获得更多净利润,因为2010年的调查显示42%的被访问者使用艾默生的CRAC单元而25%的使用APC/施耐德。数据中心技术专题之“数据中心制冷与UPS供电”Page6of23基础设施的花费为一个数据中心建造架构和工业设施可能是一项昂贵的支出。即使当预算很紧张,企业依然会将资金投入到建造或翻新他们的基础设施来增加重要的计算容量。在2011年,35%的被访问者期望增加架构的花费,55%的期望花费保持现有状态而只有10%期望减少。这显示着企业在这几年放宽了基础设施花费的限制。与2010年的结果相比,期望消减基础架构和基础设施预算的被访问者比例降低了5%。查看原文(作者:StephenJ.Bigelow译者:张申佳来源:TechTarget中国)数据中心技术专题之“数据中心制冷与UPS供电”Page7of23调整机房空调容量大小提高数据中心能源效率调整机房空调(CRAC)容量大小不像选择一台冰箱那样简单,容量大不一定就好!正确的大小是高效运行的关键,其能源效率比选择合适的UPS会更好,但受影响的因素太多了,因此这个问题不是人人都能弄得明白。如果机房空调容量大小不合适可能会导致制冷遇到麻烦,错误或不恰当的位置可能使情况变得更糟。空调容量太小不能有效制冷,但也不能太大,太多会造成过度制冷,不过谢天谢地,许多机房空调都可以调整负载范围,但也有一些还做不到。要保持机器和室内温度、湿度比较困难,但温度波动会影响计算机硬件的稳定性和寿命,因此必须尽力保证温度和湿度的稳定。采用制冷压缩机的机房空调系统可以通过多步设计实现,一个20吨、4步单元的空调可以产生5吨制冷量,当热量上升到10、15、20吨负载时,水冷单元(CRAH)可以调整水流以满足负载,但制冷量通常会下降大约20%。早期的空调系统只是向房间中经冰块吹入空气,24小时就会溶化掉2000磅冰块,制冷量却只有1吨,单位采用的是英热单位(BTU)/小时,因此1吨制冷量相当于1200BTU/小时。如今我们都是用千瓦(kW)来表示制冷量,1吨制冷量可以冷却3.5kW热量,因此一台20吨制冷量的机房空调可以冷却70kW左右的热量。如果我们知道数据中心的功率负载,就可以选择一个合适的容量,余量不要超出20%,同时,如果需要增加容量,对于水冷或多步设计可能需要增大50%,但注意有太多不同的容量可供选择,我们应该使用哪一个呢?我们必须了解更多的信息。数据中心技术专题之“数据中心制冷与UPS供电”Page8of23空调要处理两类热量,一种是显示热量,即我们可以感受得到的热量,通常我们的计算机发出的热量就属这种,另一种是隐式热量,通常是水分蒸发产生的。简单说来,处理水份和湿度需要空调更多的隐式容量,这需要从显示容量中扣除。数据中心相对湿度一般不会大于45%,但如果过度制冷将会导致空气中的水份消失,因此不得不使用更多的能源重新加湿。问题是,相对湿度是“相对的”湿度,相同湿度的热空气比冷空气的相对湿度更低,因为它相对冷空气而言可以含有更多的水蒸气。此外,数据中心的温度相差很大,相对湿度依赖于测量的位置,这就是为什么我们想摆脱它的缘故了,但相对湿度目前仍然是确定湿度的常用方法。大部分空调是通过返回空气温度进行控制的,信不信由你,返回越热的空气将使空调提供更真实的制冷量,因此,如果你计划在负载很重的房间降低温度,实际上消除的热量可能更少,房间的温度反而可能会上升,你也将浪费更多的电力。下面的表格显示了湿度水平和返回的空气温度如何从相同的22吨水冷空调获得更高的性能。注意在高温下,相对湿度必须保持低于下面湿度的最大值。如果你使用导管或天花板热空气会回流到空调中,通过防止与冷空气混合,可以保持返回的温度在80℉或更高,从同一台机器你可以获得更多的实际制冷量,在任何返回温度情况下都可以保持湿度更低。数据中心技术专题之“数据中心制冷与UPS供电”Page9of23此外,空调既要制冷又要使空气流动,冰箱也可以制冷,但打开冰箱门却不能给房间制冷,空气流动可以将设备散发的热量带走,热空气主要流向CRAC,就象夏天吹来的一阵微风,那是不是空气越多越好呢?不一定!如果地板比较低,太多的空气流经空调意味着空调需要更快的运转速度,这就意味着压力就会降低,从空调流出的空气通过穿孔板可以降低8-10英尺,但这样浪费了空气和能源,也降低了制冷效果,太多的空气也可能扰乱地板下的空气,使地板下的压力不均匀,进一步降低了制冷效果,如果CRAC相互成直角放置情况会更糟,压力太高也不好,它会使CRAC风扇加速运行,浪费更多的能源。幸运的是,目前已可以自动调节风扇速度,自动适应气流的变化,自动调节由房间的感应器控制,这样可以节省大量的能源。因此第一步是要弄清楚我们的真实负载,在本文前半部分已经移到,第二步是看你是否可以让更高温度的空气返回到CRAC,第三步是确定冷空气的温度,美国采暖,制冷与空调工程师协会(ASHRAE)技术委员会9.9最近提高了温度范围,因此不要过度冷却设备,第四步是设置你的湿度标准,ASHRAETC9.9推荐监控露点,但可能现有的CRAC还不支持,这样你还是得控制相对湿度,因此,如果可能,采购空调时应考虑可以调节负载的设备,同时应选择一个合适的容量,第一天运营保持在中等水平即可,这将提供最佳的稳定性和控制性。我们再来看看另外的三个问题:重热,加湿和水温。如果你不止三或四台CRAC,没有必要在每个单元上都放置加湿器,湿气是可以快速扩散的,在每个空调上都放置加湿器可能会起反作用。重热已经是多年的老问题了,它是最浪费能源的了,在许多情况下可以设计为不出现或使用最小的重热,但需要设计人员经验丰富才能提供合适的设计方案。数据中心技术专题之“数据中心制冷与UPS供电”Page10of23如果你使用水冷机房空调处理器,你需要有经验的工程师参与,制冷级别依赖于进入的水温和水温的上升情况,虽然水冷提高了能源效率,但却降低了CRAH的制冷量。最后不要忘了热源制冷,这已经超出了本文的范围。最佳的制冷方案是消耗的能源要少,本身需要的制冷量也要最小,这是另一个大的主题。查看原文(作者:BobMcFarlane译者:黄永兵来源:TechTarget中国)数据中心技术专题之“数据中心制冷与UPS供电”Page11of23如何预防和纠正服务器制冷故障?网络基础设施设计是一个错综复杂的过程,每一个细小的决定可能都会影响到数据中心的服务器,其中最容易被忽视的是服务器制冷需求,不是误判就是严重低估,这种失误在各种环境中都时有发生。历史经验表明,不断紧缩的IT预算迫使数据中心忽略关键的制冷和温度控制需求,即便是大型数据中心有时也是这种情况。只有有效地预防服务器制冷故障,才能确保运行在服务器上的应用永不掉线,企业才能真正地节省开支。那么如何做好服务器的制冷工作,发生故障时如何处理是好呢?服务器制冷量在处理服务器制冷基础设施中的故障前,必须要了解制冷系统是如何工作的,以及究竟需要多少制冷量,制冷与数据中心摆放的电气设备数量紧密相关,预期的电力消耗可以根据设备上标注的安培数进行计算,安培数越大就表示需要更多的制冷量。最简单的计算方法是知道服务器的耗电量(每台服务器或所有服务器),通常,一台单CPU的服务器需要1安培或120瓦(1安培x120伏=120瓦),双CPU(如至强或AMD)服务器需要2安培或240瓦,最后乘以每瓦需要的制冷量(约3.4BTU)就可以计算出服务器需要的制冷量了。例如,一台120瓦的服务器需要408BTU的制冷量(120x3.4),使用这个方法计算出所有服务器需要的制冷量,并向取得认证的HVAC顾问咨询计算结果是否可行。数据中心技术专题之“数据中心制冷