您现在的位置:首页 > 资讯中心 » 专题文章 » 正文

冷为我用—数据中心空调定制化趋势

来源:网络世界 作者:佚名 2012-01-06 11:10:50
http://down0.51hvac.com/down/uploads/allimg/110721/1-110H1091G40-L.gif
专题
现代科技的发展对IT、电信企业的要求逐步提高,为了满足市场要求和行业竞争,企业必须不断投入人力物力进行硬件加强,随之,研发..

      数据中心里都需要什么?服务器、交换机、安全设备、存储设备一个都不能少,但是光有这些设备还不行,没有空调,整个数据中心还是不能工作。空调问题不仅与节能有关,很大程度上还关系到整个系统的平稳运行。

 

      根据Gartner一项针对CIO的调查显示,70%的被访者认为,电力和制冷问题是其数据中心面临的最大问题。能源花费占IT预算的比例已经从8%激增到48%。在美国,3年的纯能源成本消耗已经等同于设备购置成本。在欧洲,3年的纯能源成本消耗甚至已经两倍于设备购置成本。

 

      靠近热源 制冷走向精细化

 

      现在来看,制冷问题随着数据中心的虚拟化进程和设备的高密度发展而愈加严重。曾有一份调查现实:虚拟化后电力总需求会下降30%,但是虚拟化部分的热密度会提高20%。而业务的动态迁移给制冷也提出了动态的需要。设备的高密度趋势给空调带来的压力自然不必多言,根据ASHRAE的预测,设备高热密度将逐渐提高每个机柜的发热量高达10KW以上。如何应对这些变化呢?制冷设备靠近热源自然是大家首先想到的策略。

 

      针对虚拟化的趋势,“我们也需要一个动态空调系统。首先,制冷容量和风量调节都需要适应服务器的需求,此外还需要有智能控制系统,从而来判断调节的时间和幅度。这个判断非常重要,因为调节的风险很大,出错的后果严重。所以,调节这部分需要群控技术;温湿度、压力传感器;IT设备运行信息以及智能调整相关设备的运行状态” 数据中心工作组顾问专家、《数据中心空调系统技术白皮书》主要起草人王前方在白皮书发布会上如此解释。目前来看,变制冷量空调系统主要有DX系统和冷冻水系统,通过变容量压缩机以及流量调节阀来控制。而变风量系统有EC风机。

 

      设备的高热密度趋势在几年之前就开始显现,与许多新技术一样,高热密度的进程并非“忽如一夜春风来,千树万树梨花开”而是“随风潜入夜,润物细无声”的过程。而芯片本身的发展也降低了这个过程的推进。目前,市场上开始出现针对高热密度的整合方案。主要集中于列间冷却、机柜制冷和芯片制冷。芯片制冷是比较看起来很美的一向技术,这种冷却方式减少了中间环节,最靠近热源也就可以更高效与精确,但是“这个技术普及到我们常用的计算机,可能需要一段时间” 王前方表示。

 

      远离热源 制冷的规模化

 

      靠近热源的解决方案和技术容易理解,数据中心中热点分布不均,又容易随着业务改变而有所转移。目前在国内新建的大型数据中心中,就可以看到这一趋势的案例。与之相对,远离热源方案就似乎更让人想不通。但是,就是这种与传统想法相左的方案做到了一个PUE只有1.07的数据中心,让人叹为观止,这就是Facebook在俄勒冈州的普利维尔数据中心。

 

      Facebook的数据中心在很多方面都有所创新,本文仅仅讨论制冷这一方面。且不说俄勒冈州气候凉爽、干燥,过去50年来,普利维尔的温度从未超过105华氏度(约40.56摄氏度)是数据中心散热的绝佳地点,单是该数据中心的架构就非常值得探讨。

 

      该数据中心使用了双层架构,将服务器和制冷设备分开,允许对服务器占地面积的最大利用。Facebook选择通过数据中心的上半部分管理制冷供应,因此冷空气可以从顶部进入服务器空间,利用冷空气下降热空气上升的自然循环,避免使用气压实现下送风。

 

      空气通过在二楼的一组换气扇进入数据中心。然后空气经过一个混调室,在这里冷空气可以和服务器的余热混合以调整温度。然后冷空气经过一系列的空气过滤器,在最后一间过滤室,通过小型喷头进一步控制温度和湿度。空气继续通过另一个过滤器,吸收水雾,然后通过一个风扇墙,将空气通过地板的开口吹入服务器区域。整个冷却系统都位于二楼,空气直接吹向服务器,无需风道。“这一系统的美妙之处在于,我们没有任何的管道系统,” Facebook数据中心工程主管JayPark曾表示。“空气直接进入数据大厅,压入整个数据中心。”

 

      整个数据中心的制冷点睛之笔在气流组织设计,具体而言就是盘管墙和风墙的设计。盘管墙的好处是把空调里面的阻力最大的部件拉长、拉大,这样做使得风机的功率减少程度很少。Facebook数据中心的两层设计给盘管墙留下了非常大的放置空间。而风机的过风速度经过风墙可以进一步减少。与下沉风机相比,Facebook数据中心把风机摊开,扩大了截面积就更利于降低风速。这个时候,整个数据中心里气流组织的部分能耗已经极大减少了。“该数据中心的一个设计非常简单,就是把盘管做一个墙拉大,风机做一个墙拉大,风机的过滤器进一步的增加过风面积。” 数据中心工作组顾问专家、《数据中心机房空调系统技术白皮书》参编人之一张敬如此解读。

 

      “在Facebook的方案里,单独模块很大,一个模块有一两千瓦,然后利用新风自然冷,整个空调系统完全脱离IT区域主机房之外,这种方式非常节能。”王前方对Facebook数据中心的制冷方式赞不绝口,但是,“这种方式在规模小的时候建设有难度,在超大型数据中心中好处很大。用户需要根据自己的需求和定位来选择合适的技术和产品。”

 

      关于节能的思考

 

      据DataCenterUsersGroup做的一项调查显示,数据中心能效已迅速成为业界优先考虑事项,42% 的受调查者表示他们已经或正在对能效进行分析。这在数据中心规模已经渐渐脱离了传统机房定义的今天显得尤其突出。什么样的方式更节能并没有一定之规,远近有度,因地制宜是正解。仅就温度而言,《电子信息系统机房设计规范》(GB50174-2008)中对应的要求是主机房设计温度为23℃浮动一度标准,美国的ASHRAE《美国暖通制冷空调工程师协会》在2011版本中也把2004版本中的20℃~25℃范围扩大到18℃~27℃。“从节能角度来看,有些数据中心可以允许温度高一点,就可以选择27℃。有些用户觉得设备正常运转即可,节能问题关系不大,就可以把温度要求低一些。具体而言,就要根据用户的需求来进行设计。” 中国电子工程设计院副总工程师/研究员级高工、数据中心工作组组长钟景华总结道。

免责声明:
1.本网站部分文章内容、图片或视频来源于网络、作者投稿等,版权归原作者所有,仅供学习参考之用,不具有任何商业用途,如涉版权、侵权等问题,请及时联系我方进行处理(联系电话:022-84220470,电子邮件:help@51hvac.com);
2.本网站对转载、分享内容、特约发布、陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完善性提供任何明示或暗示保证,仅供读者参考,并请自行核实相关内容;
3.只要不用于商业目的,本网站的文章欢迎任何形式的传播和转载,转载请取得授权、注明出处、保持作品完整;
4.本网站有权根据中华人民共和国法律、法规及规范性文件、互联网变化及自身业务的发展情况,不断修改和完善本声明。
微信扫描左侧二维码,文章分享到朋友圈
暖通空调在线公众微信:ehvacr
每日行业微信日报,订阅有礼了!
责编:cuilei
新闻投稿:news@51hvac.com
高端访谈更多>>
  • 许鹏教授:抗击COVID-19ASHRAE与REHVA对策之对比及借鉴
  • 张泉:数据中心节能方向及相关技术研究的进展
官方微信