根据美国环保署提交给美国国会的一份研究报告称,在数据中心的全部电源消耗中,制冷占到40%左右。而IDC的研究也显示,在数据中心中冷却比服务器本身运行更耗电,当服务器成倍增加的时候,配套用电量将呈指数级上升。IDC曾做过调查,每100台服务器的年平均耗电量为55万度,其中用于制冷的电力为服务器用电量的2.7倍。
数据中心通常是用来对信息进行集中处理的地方,计算机设备、网络设备、存储设备、通讯设备是处理信息必不可少的IT关键设备,对于这些设备的节能也是很自然的要求。然而,对于那些用来保障IT关键设备运行的基础设备,如UPS、空调,人们往往不太注意,殊不知这些设备也是电能消耗的大户,这其中尤以制冷的电力消耗为最。
应该说,制冷也并不是一开始就成为数据中心中的用电大户的,而是随着计算机应用的普及而使得这一个问题日渐突出。过去,由于计算机应用还不普及,数据中心的IT关键设备也不多,机房空间相对比较宽裕,机柜中很少有局部热点出现。因此,有的数据中心即使采用普通空调来为机房制冷,也能满足机房要求。大多数时候只要保证机房内的温度符合设备正常工作温度即可,机柜内的设备也就能正常运行。
如今,随着IT技术的普及,IT设备的需求量呈现爆炸性的增长,机房日渐拥挤起来,过去宽敞的机房空间逐渐被大大小小的机柜所挤占,与此同时,机柜中的服务器、交换机的数量也大大增加,机房的整体温度和机柜中的温度都迅速升高,特别是近年兴起的刀片服务器更是进一步加重了这一问题的严重性。单就刀片服务器本身而言,它降低了维护成本,而且省地、节能,但刀片服务器却导致机柜内热密度迅速上升,让制冷问题日益突出。于是,在一些数据中心出现了虽然机房内温度已经降到10多度,而机柜中仍然出现温度报警的尴尬局面。
正是由于这方面的原因,在机房空间日渐宝贵的情况下,机柜里仍然不得不空出许多空间。事实上,机柜的制冷能力已经限制了每个机柜中的刀片服务器的安装数量。 |
新闻投稿:news@51hvac.com