您现在的位置:首页 > 资讯中心 » 专题文章 » 正文

大型数据中心节能降耗的几个关键点

来源:互联网 作者:机房360 2011-08-18 09:41:00
http://down0.51hvac.com/down/uploads/allimg/110721/1-110H1091G40-L.gif
专题
现代科技的发展对IT、电信企业的要求逐步提高,为了满足市场要求和行业竞争,企业必须不断投入人力物力进行硬件加强,随之,研发..

  目前国内一些小规模的传统数据中心,PUE值可能高达3左右,这意味着IT设备每消耗1瓦特电力,数据中心基础设施便需要消耗2瓦特电力。鹏博士数据中心特有的节能冷却系统将使PUE达到1.5以下。
 

  1、选择适合数据中心的空调系统
 

  由于数据中心的发热量很大且要求基本恒温恒湿永远连续运行,因此能适合其使用的空调系统要求可靠性高(一般设计都有冗余备机)、制冷量大、小温差和大风量。
 

  空调系统的制冷能效比(COP)是指空调器在额定工况下制冷运行时,制冷量与有效输入功率之比。该数值的大小反映出不同空调产品的节能情况。空调系统的制冷能效比数值越大,表明该产品使用时产生相同制冷量时所需要消耗的电功率就越小,则在单位时间内,该空调产品的耗电量也就相对越少。
 

  新的强制性国家标准《房间空气调节器能效限定值及能效等级》(GB12012.3-2010)由国家质检总局、国家标准委于2010年2月26日发布,从6月1日起将在全国范围内实施。此标准规定14000W制冷量以下民用空调器能效等级指标以及试验方法、检验规则、房间空调器产品新的能效限定值、节能评价值等。
 

  2离心式水冷空调冷却系统
 

  这是目前新一代大型数据中心的首选方案,其特点是制冷量大并且整个系统的能效比高(一般能效比在3到6之间)。
 

  水冷冷冻机组的工作原理如下:
 

  ■冷冻水侧:一般冷冻水回水温度为12℃,进入冷冻器与冷媒做热交换后,出水温度为7℃。冷冻水一般通过风机盘管、组合式空调机组或水冷精密空调机向IT设备提供冷气。由于数据中心的制冷量大,要求温差小风量大且湿度需要控制,一般采用水冷精密空调机。
 

  ■冷却水侧:一般冷却水进水温度为30℃,进入冷凝器与冷媒做热交换后,出水温度为35℃。冷却水一般使用蒸发式冷却塔通过水蒸发来散热降温。
 

  ■冷媒侧:冷媒以低温低压过热状态进入压缩机,经压缩后成为高温高压过热状态冷媒。高温高压过热状态冷媒进入冷凝器后,将热传给冷却水而凝结成高压中温液态冷媒。高压中温液态冷媒经膨胀装置,成为低压低温液气混合状态冷媒。低温低压液气混合状态冷媒进入蒸发器后,与冷冻水进行热交换,冷冻水在此处被冷却,而冷媒则因吸收热量而蒸发,之后以低温低压过热蒸气状态进入压缩机。

#p#

  大型数据中心的水冷空调系统一般由以下五部分组成。
 

  ■离心式冷冻机组,一般为N+1配置,有一台备机,安装在冷站机房。
 

  ■冷却塔,安装在室外,一般一台冷冻机组对应一组冷却塔(便于维修和保证备机系统正常待机)。冷却水通过冷却塔来降温,由于水在大气中蒸发,因此要设计安装水处理系统来除垢、除沙尘、除钠镁离子和病菌等,否则将大大降低制冷效率。另外,由于数据中心是全年连续运行,还要设计冬季防结冰措施。
 

  ■环形冷冻水管道。由于数据中心需要连续运行,因此冷冻水的进水和回水管道都要设计成环路,大型数据中心可能设计成二级或三级环路,这样在局部冷冻水管道或阀门发生故障时可以关闭相邻的阀门进行在线维护和维修。为了便于日后的维护、维修、更换和扩展,需要安装设计相当多的阀门。为了防止漏水和提高使用寿命,需要选择优质的阀门,有些工程使用优质无缝钢管,甚至不锈钢管。冷冻水管和冷却水管不允许经过机房区域。在水管经过的区域需要设置下水道和漏水报警设备。为了节能和防止冷凝水,冷冻水管和冷却水管都要采取严格的保温措施。
 

  ■水冷精密空调机。其实就是一个温差小风量大的大型风机盘管,一般推荐采用地板下送风和天花板上回风。为了保证IT设备的绝对安全和便于设备检修,推荐设置物理上独立的空调设备间,四周做拦水坝,地面做防水处理和设置排水管道,安装漏水报警设备。推荐采用N+1或N+2的冗余配置方案。
 

  ■水泵。冷冻水和冷却水的循环都是通过水泵进行的。水泵的节能除采用变频装置外,应采用较大直径的管道、尽量减少管道长度和弯头、采用大半径弯头、减少换热器的压降等。冷冻机房、水泵、冷却塔、板式换热器和精密空调尽量设计安装在相近的高度以减少水泵扬程。
 

  由于大型数据中心的水冷空调系统的电力负荷很大,一般需要为水冷空调系统设计独立的配电室。
 

  由上述可以看出,水冷空调系统比较复杂,成本也比较高,维护也有难度,但是能满足大型数据中心的冷却和节能要求。
 

  3、免费冷却技术和数据中心选址
 

  免费冷却(Free Colling)技术指全部或部分使用自然界的免费冷源进行制冷从而减少压缩机或冷冻机消耗的能量。常见的免费能源有:
 

  中北部地区的冬季甚至春秋季,室外空气中储存大量冷量
 

  部分海域、河流、地下水水温较低,储存大量冷量
 

  部分地区的自来水中也储存了大量冷量
 

  压缩燃气在汽化过程中产生大量冷量
 

  目前常用的免费冷源主要是冬季或春秋季的室外空气。因此,如果可能的话,数据中心的选址应该在天气比较寒冷或低温时间比较长的地区。在中国,北方地区都是非常适合采用免费制冷技术。
 

  数据中心在环境温度较低的季节,将室外空气经过过滤后直接送入机房作为冷源,也能节省大量能源,称为风冷自然冷却。这种自然冷却方式原理比较简单,成本也比较低,但存在以下不足之处:
 

  要保证空气的洁净度不是一件容易的事。虽然可以通过高质量的过滤网保证空气的洁净度,但由于风量特别大,需要经常清洗更换,同时巨大的阻力也要消耗相当的能源。
 

  湿度不好控制。加湿和除湿都是相当的消耗能源。如果采用简单的工业加湿设备,需要对加湿的水源进行高度净化(成本比较高),简单的软化水不能满足要求(对设备有害,长时间会在设备内部形成一层白色物质)。
 

  温度过低,容易结露并除湿。因此需要进行细致严格的保温处理。
 

  对于大型数据中心,由于距离远,风量特别大,这样就需要很大的风道,风机的电能消耗也非常的大。实际的设计和安装也是很困难的事。
 

  不可能实现全年自然冷却,夏季的制冷方式还需要安装单独的空调设备。
 

  因此,在大型数据中心中对自然环境要求较高,因此不推荐使用风冷自然冷却方式。
 

  采用水冷空调系统,当室外环境温度较低时,可以关闭制冷机组,采用板式换热器进行换热,称为水冷自然冷却。这样减少了开启冷机的时间,减少大量能源消耗。湿球温度在4℃以下时可以满足完全自然冷却,在湿球温度4到10℃之间可是实现部分自然冷却。在北京,一年内平均有5个月左右可以实现完全自然冷却,有2个月左右可以实现部分自然冷却。节能效果将是非常明显的。
 

  4、采用变频电机节约能源
 

  我们知道,空调系统的制冷能力和环境密切相关,夏天室外温度越高,制冷能力越低,因此大型数据中心空调系统的制冷量都是按最差(夏天最热)工况设计的(空调的制冷量一般要比其在理想工况下的额定值低,这时建筑物本身不但不散热,反而吸热。)。这样,全年绝大部分时间空调系统运行在负荷不饱满状态。另外,大型数据中心的IT负荷从零到满载也需要相当的时间,一般也在一到三年之间。还有,IT负载的能耗和网络访问量或运行状态相关,根据其应用的特点,每天24小时的能耗都在变化,一年365天的能耗也都在变化。比如,游戏服务器在早上的负载和能耗都比较低,但在晚上就比较高;视频服务器在遇到重大事件时的负载和能耗就比较高。
 

  因此,我们强烈建议在水冷空调系统中所有电机采用变频系统,这样可以节约大量的能量,其增加的投资一般在一年内节省的电费中就可以收回(基本满负荷情况下)。要注意的是在选用变频器时,要求谐波系数一般小于5%,不然将对电网造成不良影响。对于风机和水泵,输入功率和这些设备的转速的三次方成正比。例如,如果风机或水泵的转速为正常转速的50%,仅需要同一设备运行在100%额定转速时理论功率的12.5%.因此,当设备运行在部分负荷时,变速装置的节能潜力十分明显。
 

#p#

  5、提高冷冻水的温度节省能源
 

  冷水机组标准的冷冻水温度为7到12℃,水冷空调的标准工况也是认为冷冻水温度为7到12℃。但是这个温度范围对于数据中心来说有点低,带来以下两个不利因素:
 

  这个温度大大低于数据中心正常运行在40%左右相对湿度的露点温度,将在风机盘管上形成大量的冷凝水,需要进一步加湿才能保持机房的环境湿度。这个除湿和加湿过程都是非常消耗能量的过程。
 

  冷冻水的温度和冷水机组的效率成正比关系,也就是说冷冻水的温度越高,冷水机组的效率也就越高。根据YORK公司在网络上公布的材料,冷冻水温度每提高一度,冷水机组的效率就可以提高大约3%.
 

  目前,在集装箱数据中心和高功率密度的冷水背板制冷技术中都把冷冻水的温度设计为12到18℃,已经高于露点温度,完全不会除湿,也就不需要加湿。冷冻水的温度提高后,水冷精密空调的制冷能力会下降,实际的制冷能力需要厂家提供的电脑选型软件来确定,一般会下降10%到15%.但是由于冷冻水温度提高后很少或基本不除湿和加湿,加上采用EC调速风机,电机产生的热量减少,整个水冷精密空调的实际制冷能力(显冷)下降并不多。
 

  6、选择节能冷却塔设备
 

  冷却塔本身的结构和体积决定着消耗能量的多少。对于一般的高层写字楼,由于安装冷却塔的位置有限,一般选择体积小的冷却塔,为了达到规定的散热量,只能加大风机的功率,靠强排风来加大蒸发量。
 

  如果安装场地允许,请选择体积较大的冷却塔来节能能耗。根据某公司的冷却塔招标信息,相同的制冷量,益美高推荐的产品电机功率为55KW(体积比较大),马利推荐产品的电机功率为120KW,BAC推荐产品的电机功率为90KW.可以明显看出,大体积的冷却塔明显比小体积的冷却塔节能。在制冷能力等条件相同的情况下,尽量选择风机功率小的冷却塔。
 

  依据风机轴功率与转速的三次方成正比,对多台冷却塔采用变频装置运行可能比单台冷却塔风机全速运行效率更高。对于风机选型,螺旋桨式风机一般比离心式风机的单位能耗低。
 

  7、封闭冷通道节约能源
 

  经过多年的实践和理论证明,数据中心最佳的风流组织是地板下送风,天花板上回风,精密空调设置单独的设备间,机柜面对面摆放冷热通道隔离并实现冷通道封闭(防止冷气短路)。
 

  国内电信运营商早期的数据中心多采用风道上送风方式,缺点是风道前后的风速差别很大,很难控制每个出风口的风量均匀。虽然每个风口具有调节阀可以调节风量的大小,但是最大风量无法调整,在高空调节不方便,一般运维都做不到及时调整。
 

  8、提高机房温度节约能源
 

  根据中华人民共和国国家标准GB50174-2008《电子信息系统机房设计规范》,A类和B类机房的主机房温度要求保持在23±1℃,也就是22到24℃。ANSI/TIA-942-2005《Telecommunications Infrastructure Standard for Data Centers》中规定冷通道温度为华氏68-77度,也就是20到25℃。美国采暖制冷与空调工程师学会(ASHRAE)2008年新的机房冷通道温度已经从2004年的20到25℃提高到18到27℃。
 

  9、科学运维节约能源
 

  大型数据中心通过科学运维可以大大提高空调系统的节能效率。常用的科学运维措施包括以下方面。
 

  人走关灯和关闭大屏幕显示器,减少照明产生的能耗以及相应增加的制冷量。
 

  尽量减少运行新风系统。在机房无人时关闭相应区域的新风系统。
 

  建议冷通道的温度不低于25℃。定期检查冷通道的温度以免过度制冷造成能源浪费。
 

  定期检查地板,防止各种方式的漏风。
 

  冷通道必须完全封闭,机柜上没有设备的区域必须安装盲板,没有负荷的机柜区域不能安装通风地板。每次设备变更,都要进行检查。
 

  在能够满足制冷的条件下尽可能提高冷冻水的温度,最高为12到18℃。
 

  在气象环境满足的条件下,尽量使用全自然或半自然免费制冷。
 

  定期核对数字采集数据和模拟显示仪表的数据是否一致,若发现数据存在误差,立即更换有关采集设备或仪表。
 

  对于还没有使用的独立机房区域,关闭所有机电设备,包括冷冻水管道的阀门。
 

  定期检修和清洗冷冻机组内的铜管和冷却塔,确保其工作在最佳状态。
 

  对于低负荷的机房,如果精密空调没有EC风机,就要关闭相应的空调,如果是EC风机,要通过实践摸索出更节能空调运行方式。

免责声明:
1.本网站部分文章内容、图片或视频来源于网络、作者投稿等,版权归原作者所有,仅供学习参考之用,不具有任何商业用途,如涉版权、侵权等问题,请及时联系我方进行处理(联系电话:022-84220470,电子邮件:help@51hvac.com);
2.本网站对转载、分享内容、特约发布、陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完善性提供任何明示或暗示保证,仅供读者参考,并请自行核实相关内容;
3.只要不用于商业目的,本网站的文章欢迎任何形式的传播和转载,转载请取得授权、注明出处、保持作品完整;
4.本网站有权根据中华人民共和国法律、法规及规范性文件、互联网变化及自身业务的发展情况,不断修改和完善本声明。
微信扫描左侧二维码,文章分享到朋友圈
暖通空调在线公众微信:ehvacr
每日行业微信日报,订阅有礼了!
责编:Cixaoks
新闻投稿:news@51hvac.com
高端访谈更多>>
  • 许鹏教授:抗击COVID-19ASHRAE与REHVA对策之对比及借鉴
  • 张泉:数据中心节能方向及相关技术研究的进展
官方微信