您现在的位置:首页 > 资讯中心 » 行业 » 正文

数据中心过度冷却问题令人关注

来源:机房360 2015-08-12 13:28:43
http://down0.51hvac.com/down/file/upload/201501/27/11-54-46-61-1.jpg
专题
数据中心冷却工作组官方网站..
http://down0.51hvac.com/down/uploads/allimg/110721/1-110H1091G40-L.gif
专题
现代科技的发展对IT、电信企业的要求逐步提高,为了满足市场要求和行业竞争,企业必须不断投入人力物力进行硬件加强,随之,研发..
    应对天气酷热的最好方法是尽可能少地去做,所以想让数据中心变得更冷的管理人员,采取过度的制冷措施只能是浪费能源。然而还是有很多数据中心都在这么做,一直保持过多工作量和过度的制冷。在这个过程中,他们在浪费大量的电能,具有讽刺意味的是,这会导致全球变暖和融化地球的极地冰盖。

    磁带时代的冷却

    数据中心的制冷历史可以追溯到20世纪50年代,当时磁带驱动器无法忍受高温和高湿环境,在通过穿孔卡时会粘在一起,致使系统崩溃。而我们虽然不再处于那个时代,但目前许多数据中心仍然有过度的冷却措施与不必要的冷却制度,一直将数据中心的环境温度严格控制在21°C(70°F)。

    当ASHRAE(美国供暖学会,制冷与空调工程师协会)定义特定推荐的服务器入口温度后,现在设定为27°C(80°F)。如今事情开始改变,并增加了更广泛接受的可靠性套件。

    如今,一些大规模数据中心注意到了这一点,并通过了运行在更高的温度的过程试验。但是,大多数的企业数据中心在此方面严重滞后。

    2015年初,调查机构IDC在美国调查了404位数据中心经理,这些经理每人至少管理100台物理服务器,并拥有平均120万美元的IT预算。根据调查,75%的数据中心工作温度低于24℃,只有5%的数据中心工作在27℃或27℃以上。

    这些数据中心设施的PUE(能源使用效率)为2.4至2.8之间,这意味着IT设备电源的电源消耗没有达到全部设备的60%至65%。

    这两个结果令人震惊。IDC发现这些IT管理人员在冷却方面的支出预算为总预算的10%,在电力和冷却方面的预算为24%。因此,各公司每年在冷却方面的支出预算大部分可能是多余的。

    其他要考虑的事实是,虽然高效的网络规模云服务提供商获得了媒体的关注,但他们只是全球数据中心的一小部分。至少,目前全球有一半以上的数据中心制冷过度。这些会影响全球的碳排放,而这些都是需要改变的数据中心。

    偏执狂,还是只是小心?

    那么,为什么数据中心的温度还是那么低?关键设施咨询的伊恩•比特林是毫无疑问知道是恐惧驱使它:“这是偏执狂的想法,人们过度规避风险。”

    而下面这种说法可能更加合理,至少有一项研究发现,提高空气入口温度实际上增加了冷却电能消耗。

    施耐德电气高级研究分析师维克多•阿弗拉尔对一项研究进行了描述,他比较了芝加哥、迈阿密以及西雅图的数据中心在不同的温度下的冷却电能消耗量。“我们发现,高于27℃的数据中心冷却耗费了更多的能源和资本开支。”

    施耐德电气的研究即将公布,这个结果是与一个具有标准的冷水机组数据中心进行比较的,之所得出令人惊讶的结果,也可能与系统的复杂性有关。在较高的温度下,服务器风扇可以发挥作用,让周围的空气流动消耗了更多的电能。

    技术选择

    如果你看到这一点,你就需要知道你的技术选择。我们都是从使用传统空调压缩机的冷却设备,通常被称为“直接膨胀(DX)单元”来开始认识冷却系统的。

    保持入口温度在24°C以下是偏执狂

    在大多数地区,没有其他的方式来保持数据中心的低温,许多人仍然认为保持低温是必要的,在许多地方仍有DX与其他制冷方式混合,以保持数据中心极端条件。

    如果用户拥有这样的数据中心,在考虑改变冷却技术之前,先要消减能源法案。ASHRAE指出用户可以提高服务器的入口空气温度,从而减少了冷却电能。但如果这样做,用户应该知道服务器的风扇将要做什么。

    如果让入口温度上升到27°C,服务器后面的热通道温度将约为35°C。因此要确保所有连接器都在系统的前面,因为没有人考虑在热通道设计上花费更多的时间。

    其次,任何冷却系统更有效地工作时,它是工作在高温差(时间差)。这有些稍微违反直觉,但其基本热力学的原则是热差越大,驱动力更大。

    这就是为什么可以很好地遏制服务器背面出来的热风的原因,热通道遏制装置意味着冷却系统的工作就是冷却需要冷却的空气。

    比特林表示,一旦用户完成这一切,其DX冷却系统会做更少的工作,就可以得到大约1.16的局部PUE(pPUE)。另外,冷冻水系统(其中制冷机组的冷却水分配使用)的pPUE可以下降到1.12。

    不建议采用DX冷却技术

    但你真的需要DX吗?根据ASHRAE发布的地图显示,全球各地的气候足够凉爽.因此,外部空气可用于常年来冷却数据中心。美国大部分地区在此区域中,而在英国,其干球温度记录为34℃,最高湿球温度(蒸发)为23℃。

    这就是“外部空气”冷却,“自然”的冷却或是“绝热”冷却。这些冷却意味着不使用空调。有时将外界空气过滤,直接通过数据中心(“直接”自由冷却),有时设置一个二级电路(“间接”自然冷却)。当外界温度较高时,加入水蒸发的冷却盘也是是必要的。

    比特林表示,采取这些冷却措施可能让数据中心达到1.05的pPUE,但也有一些并发症。一个问题是,PUE取决于数据中心的利用率。如果有闲置的服务器,这样可以提高效率,但绝热冷却有一个相反的趋势:“在部分负荷下,绝热变得更好,”他说。这意味着,如何负载超过一定阈值,追求更低的PUE可能适得其反。

    PUE并不是一切

    施耐德电气的阿弗拉认为:“PUE是数据中心行业评判能源效率的标准,但重要的是不要盲目追求PUE。”在他给的例子中,当服务器风扇关闭时,即使数据中心整体用于冷却电能消耗不断上升,其效率越来越差,数据中心PUE仍会下降。

    阿弗拉尔警告说,绝热冷却套件可能会引发可用性的担忧。在实际的情况下,绝热单元通常又大又重,在改造老旧数据中心时会非常棘手。而新建的数据中心会尽量将其部署在屋顶上。

    当服务器变得更加温暖时,其冷却问题看起来很复杂吗?这一切都归结为保持冷静的头脑和精确的计算。  
免责声明:
1.本网站部分文章内容、图片或视频来源于网络、作者投稿等,版权归原作者所有,仅供学习参考之用,不具有任何商业用途,如涉版权、侵权等问题,请及时联系我方进行处理(联系电话:022-84220470,电子邮件:help@51hvac.com);
2.本网站对转载、分享内容、特约发布、陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完善性提供任何明示或暗示保证,仅供读者参考,并请自行核实相关内容;
3.只要不用于商业目的,本网站的文章欢迎任何形式的传播和转载,转载请取得授权、注明出处、保持作品完整;
4.本网站有权根据中华人民共和国法律、法规及规范性文件、互联网变化及自身业务的发展情况,不断修改和完善本声明。
微信扫描左侧二维码,文章分享到朋友圈
暖通空调在线公众微信:ehvacr
每日行业微信日报,订阅有礼了!
责编:malinlin123
新闻投稿:news@51hvac.com
高端访谈更多>>
  • 许鹏教授:抗击COVID-19ASHRAE与REHVA对策之对比及借鉴
  • 张泉:数据中心节能方向及相关技术研究的进展
官方微信