目前就职于微软的数据中心最有影响的专家ChristianBelady在2006年提出数据中心能源利用率(PUE)的概念。如今,PUE已发展成为一个全球性的数据中心能耗标准。数据中心的PUE的值等于数据中心总能耗与IT设备能耗的比值,比值越小,表示数据中心的能源利用率越高,该数据中心越符合低碳、节能的标准。 目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力。据网络上收集的相关信息,目前GDS在建的4个机房在与第三方设计单位签约时,都是按照PUE值等于1.8的标准进行规划的。世纪互联近五年建设的水冷数据中心的PUE值在1.5左右。鹏博士酒仙桥大型数据中心的PUE设计值不超过1.5. 根据收集相关网站信息,全球最最节能的5个数据中心分别是:
■ 雅虎“鸡窝”式数据中心(PUE=1.08)
雅虎在纽约洛克波特的数据中心,位于纽约州北部不远的尼亚加拉大瀑布,每幢建筑看上去就像一个巨大的鸡窝,该建筑本身就是一个空气处理程序,整个建筑是为了更好的‘呼吸’,有一个很大的天窗和阻尼器来控制气流。
■ Facebook数据中心(PUE=1.15)
Facebook的数据中心采用新的配电设计,免除了传统的数据中心不间断电源(UPS)和配电单元(PDUs),把数据中心的UPS和电池备份功能转移到机柜,每个服务器电力供应增加了一个12伏的电池。同时Facebook也在使用新鲜空气进行自然冷却。
■ 谷歌比利时数据中心(PUE=1.16)
谷歌比利时数据中心竟然没有空调!根据谷歌公司工程师的说法,比利时的气候几乎可以全年支持免费的冷却,平均每年只有7天气温不符合免费冷却系统的要求。夏季布鲁塞尔最高气温达到66至71华氏度(19-22℃),然而谷歌数据中心的温度超过80华氏度(27℃)。
■ 惠普英国温耶德数据中心(PUE=1.16)
惠普英国温耶德数据中心利用来自北海的凉爽的海风进行冷却。
■ 微软都柏林数据中心(PUE=1.25)
微软爱尔兰都柏林数据中心,采用创新设计的“免费冷却”系统和热通道控制,使其PUE值远低于微软其他数据中心的1.6.
从上面可以看出,降低PUE最有效的措施是采用免费自然制冷措施和替代传统的UPS系统。对于数据中心,其能耗一般由IT设备能源消耗、UPS转化能源消耗、制冷系统能源消耗、照明系统和新风系统的能源消耗以及门禁、消防、闭路电视监控等弱电系统能源消耗五部分组成。如果需要降低PUE的值,就需要从以下四个方面采取措施。
■采用转换效率高的UPS系统。
目前,新一代数据中心的设计基本采用新型的高频(IGBT技术)UPS系统,电源转换效率和功率因数都比传统的工频(可控硅技术)UPS系统有非常大的提升,而且重量轻和体积小。由于UPS的电源转换效率和负载率成正向关系,因此在设计和运维时要尽可能提高UPS的负载率。目前国内电信和联通都在提倡使用高压直流UPS系统,取消了传统意义上UPS的逆变功能,不仅电源转换效率提高3到5个百分点,而且可靠性大大提高。上面介绍Google和Facebook干脆在数据中心取消了传统的UPS系统,把电池和服务器的电源相结合,在正常运营时完全没有额外的能源消耗。 ■采用高效节能的绿色制冷系统。主要是采用水冷空调和自然制冷措施,下面做详细介绍。
■采用LED绿色节能光源取代或部分取代传统光源,据了解,目前在世纪互联和鹏博士的数据中心部分机柜上已经安装LED光源。另外就是运维管理,做到人走灯关,根据人员情况确定新风系统的运行时间和风量。
■弱电系统总的能源消耗很小,一般不需要过多关注。但是如果可能的话,最好采用集中的高效直流供电系统,因为一般分布式的小型直流电源系统转换效率低,功率因数也低。
1、适合数据中心的空调系统介绍 由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、小温差和大风量。
空调系统的制冷能效比(COP)是指空调器在额定工况下制冷运行时,制冷量与有效输入功率之比。该数值的大小反映出不同空调产品的节能情况。空调系统的制冷能效比数值越大,表明该产品使用时产生相同制冷量时所需要消耗的电功率就越小,则在单位时间内,该空调产品的耗电量也就相对越少。
新的强制性国家标准《房间空气调节器能效限定值及能效等级》(GB12012.3-2010)由国家质检总局、国家标准委于2010年2月26日发布,从6月1日起就在全国范围内实施。此标准规定14000W制冷量以下民用空调器能效等级指标以及试验方法、检验规则、房间空调器产品新的能效限定值、节能评价值等。
针对空调系统制的冷能效比,需要特别说明以下两点:
■厂家给出的空调系统制冷能效比是在额定的工况条件下测试的,实际工况一般都要比额定工况差很多(包括负载和环境),因此空调系统的实际运行的能效比都要比厂家给出的低很多。
■针对数据中心的空调系统尤其特殊,一是全年不间断运行,工况差别非常的大;二是温度湿度控制精度高,除湿、加湿、加热、小温差大风量等比一般民用空调系统消耗的附加能量更多。
1.1风冷精密空调
这是数据中心最传统的制冷解决方案,单机制冷能力一般都在50到200KW之间,一个数据机房一般都是安装多台才能满足需要。
风冷精密空调一般采用涡旋压缩机制冷(一般安装在精密空调内),能效比相对比较低,在北京地区一般在1.5到3之间(夏天低,冬天高)。风冷精密空调在大型数据中心中使用存在以下不足:
■安装困难。大量的室外冷凝器安装需要非常大的场地,铜管过长不仅影响制冷效率,成本高,安装难度大,而且影响建筑物外观。室外冷凝器的安装位置受空间限制,极可能出现热岛效应,大大降低制冷效率。
■在夏天室外温度很高时,制冷能力严重下降甚至保护停机。目前国内的数据中心一般采用对室外冷凝器喷水雾或增加凉棚来改善其在夏天的制冷效果。因此数据中心在设计时不能按其额定的制冷量计算,需要留有足够的冗余。
■对于传统多层电信机房,一般把室外冷凝器安装在每层的四周,下层冷凝器的热量将不断向上散发,上层的冷凝器效率将大大降低,热量散不出去,形成严重的热岛效应。据了解,北方某联通数据中心因为热岛效应夏天机房的温度高达35℃以上,大约10%的服务器停机,用户只好运来冰块降温。
■精密空调内部风机盘管的工作温度大大低于露点温度,大量产生冷凝水,为了维持数据中心的湿度,需要启动加湿功能。除湿和加湿都要消耗大量的能源。为了加湿,需要将自来水进行软化,即便如此,还需要经常清洗加湿罐中的水垢。
1.2离心式水冷空调系统
这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。
离心式制冷压缩机的构造和工作原理与离心式鼓风机极为相似。但它的工作原理与活塞式压缩机有根本的区别,它不是利用汽缸容积减小的方式来提高气体的压力,而是依靠动能的变化来提高气体压力。离心式压缩机具有带叶片的工作轮,当工作轮转动时,叶片就带动气体运动或者使气体得到动能,然后使部分动能转化为压力能从而提高气体的压力。这种压缩机由于它工作时不断地将制冷剂蒸汽吸入,又不断地沿半径方向被甩出去,所以称这种型式的压缩机为离心式压缩机。压缩机工作时制冷剂蒸汽由吸汽口轴向进入吸汽室,并在吸汽室的导流作用引导由蒸发器(或中间冷却器)来的制冷剂蒸汽均匀地进入高速旋转的工作轮(工作轮也称叶轮,它是离心式制冷压缩机的重要部件,因为只有通过工作轮才能将能量传给气体)。气体在叶片作用下,一边跟着工作轮作高速旋转,一边由于受离心力的作用,在叶片槽道中作扩压流动,从而使气体的压力和速度都得到提高。由工作轮出来的气体再进入截面积逐渐扩大的扩压器(因为气体从工作轮流出时具有较高的流速,扩压器便把动能部分地转化为压力能,从而提高气体的压力)。气体流过扩压器时速度减小,而压力则进一步提高。经扩压器后气体汇集到蜗壳中,再经排气口引导至中间冷却器或冷凝器中。
水冷冷冻机组的工作原理如下:
■冷冻水侧:一般冷冻水回水温度为12℃,进入冷冻器与冷媒做热交换后,出水温度为7℃。冷冻水一般通过风机盘管、组合式空调机组或水冷精密空调机向IT设备提供冷气。由于数据中心的制冷量大,要求温差小风量大且湿度需要控制,一般采用水冷精密空调机。
■冷却水侧:一般冷却水进水温度为30℃,进入冷凝器与冷媒做热交换后,出水温度为35℃。冷却水一般使用蒸发式冷却塔通过水蒸发来散热降温。
■冷媒侧:冷媒以低温低压过热状态进入压缩机,经压缩后成为高温高压过热状态冷媒。高温高压过热状态冷媒进入冷凝器后,将热传给冷却水而凝结成高压中温液态冷媒。高压中温液态冷媒经膨胀装置,成为低压低温液气混合状态冷媒。低温低压液气混合状态冷媒进入蒸发器后,与冷冻水进行热交换,冷冻水在此处被冷却,而冷媒则因吸收热量而蒸发,之后以低温低压过热蒸气状态进入压缩机。
离心式制冷压缩机与活塞式制冷压缩机相比较,具有下列优点:
■单机制冷量大(350到35000KW之间),在制冷量相同时它的体积小,占地面积少,重量较活塞式轻5~8倍。
■由于它没有汽阀活塞环等易损部件,又没有曲柄连杆机构,因而工作可靠、运转平稳、噪音小、操作简单、维护费用低。
■工作轮和机壳之间没有摩擦,无需润滑。故制冷剂蒸汽与润滑油不接触,从而提高了蒸发器和冷凝器的传热性能。
■能经济方便的调节制冷量且调节的范围较大。由于热量是通过水的蒸发(在冷却塔中)来散发的,因此夏天室外的高温对其冷却能力影响很小。
离心式冷冻机组在小负荷时(一般为满负荷的20%以下)容易发生喘振,不能正常运转。因此,在数据中心水冷空调系统的设计中一般先安装一台小型的螺杆式水冷机组或风冷水冷机组作为过渡。
大型数据中心的水冷空调系统一般由以下五部分组成。
■离心式冷冻机组,一般为N+1配置,有一台备机,安装在冷站机房。
■冷却塔,安装在室外,一般一台冷冻机组对应一组冷却塔(便于维修和保证备机系统正常待机)。冷却水通过冷却塔来降温,由于水在大气中蒸发,因此要设计安装水处理系统来除垢、除沙尘、除钠镁离子和病菌等,否则将大大降低制冷效率。另外,由于数据中心是全年连续运行,还要设计冬季防结冰措施。
■环形冷冻水管道。由于数据中心需要连续运行,因此冷冻水的进水和回水管道都要设计成环路,大型数据中心可能设计成二级或三级环路,这样在局部冷冻水管道或阀门发生故障时可以关闭相邻的阀门进行在线维护和维修。为了便于日后的维护、维修、更换和扩展,需要安装设计相当多的阀门。为了防止漏水和提高使用寿命,需要选择优质的阀门,有些工程使用优质无缝钢管,甚至不锈钢管。冷冻水管和冷却水管不允许经过机房区域。在水管经过的区域需要设置下水道和漏水报警设备。为了节能和防止冷凝水,冷冻水管和冷却水管都要采取严格的保温措施。
■水冷精密空调机。其实就是一个温差小风量大的大型风机盘管,一般推荐采用地板下送风和天花板上回风。为了保证IT设备的绝对安全和便于设备检修,推荐设置物理上独立的空调设备间,四周做拦水坝,地面做防水处理和设置排水管道,安装漏水报警设备。推荐采用N+1或N+2的冗余配置方案。
■水泵。冷冻水和冷却水的循环都是通过水泵进行的。水泵的节能除采用变频装置外,应采用较大直径的管道、尽量减少管道长度和弯头、采用大半径弯头、减少换热器的压降等。冷冻机房、水泵、冷却塔、板式换热器和精密空调尽量设计安装在相近的高度以减少水泵扬程。
由于大型数据中心的水冷空调系统的电力负荷很大,一般需要为水冷空调系统设计独立的配电室。
由上述可以看出,水冷空调系统比较复杂,成本也比较高,维护也有难度,但是能满足大型数据中心的冷却和节能要求。
|
新闻投稿:news@51hvac.com