您现在的位置:首页 > 资讯中心 » 专题文章 » 正文

数据中心2013年度总结之机房最“绿色”

来源:pconline 作者:Echo 2013-11-28 09:29:30
http://down0.51hvac.com/down/uploads/allimg/110721/1-110H1091G40-L.gif
专题
现代科技的发展对IT、电信企业的要求逐步提高,为了满足市场要求和行业竞争,企业必须不断投入人力物力进行硬件加强,随之,研发..

1标准数据中心耗能分配

 

  【PConline 资讯】随着国家十二五节能减排综合性工作方案的提出,数据中心节能话题是一直是这些年来国家提倡的重点,厂商既想逃避又想有所作为的一块领域。到底数据中心为何一定要强调节能减排,目前节能技术发展到何种程度,2013年国内外厂商做出了哪些优秀的节能技术,我们来详细介绍总结。

321321
建设绿色数据中心

  全球权威咨询机构Gartner提出,目前,很多企业数据中心每年在用电成本上的花费已经大于当年在IT硬件设备上的投资,而且该趋势往后将更加明显。

数据中心
PUE合适值

  数据中心的节能效果就像是一条长尾曲线,其前端通常由建筑群体能耗、服务器能耗、空调能耗、UPS能耗等“大指标”组成,而曲线的尾部则由气流组织设计、设备摆放位置、机柜和服务器之间的距离、维护难易程度等无数“小指标”组成。

  可见,当前数据中心既面临不断扩容的压力,又面临不断增长的能耗困境。因此,如何降低能耗成本,实现一个绿色节能的数据中心,成为如今企业CIO们的普遍追求。

标准数据中心耗能分配
标准数据中心耗能分配

  若想实现数据中心的节能降耗,首先需要确定影响数据中心能耗的基本因素。通过系统化的能耗审计能够提供数据中心能耗的实时概况和模型,明确了解数据中心的总体能耗以及能耗的具体分布状况,同时可以建立基线供未来改造规划之用。

  能耗高是目前数据中心普遍存在的现象。当IT设备系统,包括服务器、存储和网络通信等设备产生的能耗约占数据中心机房总能耗的30%时,电能使用效率(PUE)在3左右。

 

2数据中心耗电大户及对策

 

数据中心耗电大户及对策

  服务器、存储、网络设备……数据中心里这些设备是最直观的耗电设施。如今,在绿色节能浪潮的推动下,各大厂商也纷纷通过各种方式改进产品技术,降低产品能耗。

2
2013-2017年中国数据中心基础设施产品市场销售额预测

  采用低功耗芯片

  另外,IT设备运维管理中的许多细节,看似事小,其实节能作用却不小。例如取消“空闲”服务器的任务,取消不必要的冗余存储系统,关闭这些闲置IT设备,直接减少电能消耗。

1
节能芯片

  研究显示,数据中心内正在运行的众多服务器中总存在一些“空闲”服务器,这些服务器耗电但是不做任何有用的工作,用户可让非时间紧要型存储离线工作,待机的磁带和光盘耗电量较少,而旋转的硬盘则耗电较多。寻找能够从本地逻辑转移到离线状态的存储任务,从而不必让更多的硬盘连接到网络。

  采用高温节能服务器主板

数据中心
节能服务器

  服务器电源管理功能能够将服务器的组件控制成闲置和睡眠状态,这个功能就像笔记本电脑电源管理一样。在启用这种功能时,许多应用程序可以很好地工作,实现IT系统的节能。当然,也有一些应用程序的响应时间要求也许比省电更重要,这就需要根据实现情况确定。

  采用刀片服务器

  典型的例子就是采用刀片式服务器。通过这种高密度设备取代传统服务器,在配合虚拟化技术,企业数据中心不仅可以减少物理服务器的数量,而且能够减缓机房面积扩展,两方面减少电力消耗。事实上,刀片式服务器使用同样的商用处理器,能源和冷却的要求比目前的机架服务器节省10%。刀片式服务器与机架服务器相比的好处是减少了输入/输出电缆线及设备空间。

  对于数据中心的那些老旧服务器,淘汰更新是实践绿色节能的必要途径。也许,有人会觉得淘汰还能使用的旧设备,转而采购新设备,造成了不必要的成本投入。其实不然,因为更新服务器的成本实际上远远低于老化设施未来的能源消耗成本。新的服务器和新的技术看似增加了投资成本,但是这部分的成本投入往往比维持现有老旧设施更加廉价。

 

3降低数据中心的PUE值

 

降低数据中心的PUE值

  降低机房散热所消耗的电能,提高数据中心机房的电源使用效率,降低数据中心的PUE值,目前主要有以下几种方法:

集装箱数据中心模型 
合理布局

  1、 在数据中心机房中建设冷通道,并配置下送风机房专用风冷式精密空调。

  2、 在数据中心机房中建设热通道,并配置下送风机房专用风冷式精密空调。

  3、 在数据中心机房中建设专用风冷式精密空调冷风和热风管道,对机柜进行全密封强制散热。

  4、 在数据中心机房中使用下送风机房专用风冷式精密空调和智能送风机柜,将机房冷风净压仓的冷风直接送入机柜。

  5、 在数据中心机房采用大型水冷式机房精密空调。

  6、 在数据中心机房建设专用大型水冷式机房精密空调和芯片冷却管道,直接给IT设备芯片散热。

  7、 在数据中心机房采用机房风冷式精密空调+大型新风机1:1配置,合理利用自然新风冷源。

  这几种方法有各自的优势和不足,首先从冷源方面来分析,第1、2、3、4种方法均都是采用机房专用风冷式精密空调作为冷源,第5、6种方法采用水冷式精密空调,第7种采用风冷式精密空调或自然冷风和水模。使用风冷式精密空调的方法在节约电能主要依靠空调的制冷能效比,能效比一般在3~4之间,节能方面有限。使用水冷式精密空调,能效比最大能达到6,一般在4以上。使用自然风的新风节系统时,最大的能效比最大可达12。

数据中心

  接下来,从机房内设备散热效果方面来分析,第1、2、5、7种方法都采用冷风源被动平均分布散热,要求整个机房的发热量布局要非常均衡,否则可能出现机房冷热不均,单相机柜局部过热的问题。

  第3种采用主动大风量强制散热,每个机柜热出风管道都配有风机,散热效果好,容易出现过度制冷,风机也需要消耗一定的电能。

  第4种方法采用主要设备机柜进风口配置变速风机,动态给机柜提供冷风,较好解决局部单个机柜过热和机柜内热负荷突然增大的问题,将机房内的温度提高到空调的回风温度,但机柜的深度比普通机柜深度要大100mm,风机需要消耗电能。

  第6种方法采用精准散热,主芯片散热效果好,但电源、硬盘等部件需要精准散热不容易实施,需要服务器产商支持。

  最后,从机房内设备散热建设难易成度来分析,第1、2、4、7种方法基本上是比较接近,比传统下送风空调系统略微复杂一点,比较容易实施,成本相差也不是太大。

  第3种方法,需要对机柜前后门进行密封,实施起来比较困难,风管建设比较多,对机房的整体布局有影响,需要非常细致的规划和设计,成本相对要高一些。

  第5种方法,水冷空调的建设门槛较高,比较适用于大型的机房,空调设备比风冷式精密空调要复杂,成本相对要高一些,运行也需要专业维护人员。

  第6种方法,空调部份和第5种方法一样,但是分支制冷管道方面,会相对复杂很多,要非常了解服务器产商等设备的结构,甚至于需要它们的支持,成本方面相对会高出一部份。>>

 

4数据中心的电能分布情况

 

数据中心的电能分布情况

  通过能耗审计,可以明确知道能源的去向。在能耗较高的方面,能够有针对性地开展节能工作。我们知道,电力消耗是数据中心最主要的消耗,空调制冷等方面的能耗同样是以电力消耗的形式表现出来。

数据中心
能耗分析

  能耗高是目前数据中心普遍存在的现象。当IT设备系统,包括服务器、存储和网络通信等设备产生的能耗约占数据中心机房总能耗的30%时,电能使用效率(PUE)在3左右。其他各系统的具体能耗分布如下:

新型空气流动通道
新型空气流动通道图

  (1)制冷系统产生的能耗约占数据中心机房总能耗的33%左右。

  (2)空调送风和回风系统产生的能耗约占数据中心机房总能耗的9%左右。

  (3)加湿系统产生的能耗约占数据中心机房总能耗的3%左右。

  (4)UPS供电系统的能耗约占数据中心机房总能耗的18%左右。

  (5)PDU系统产生的能耗约占数据中心机房总能耗的5%左右。

  (6)照明系统的能耗约占数据中心机房总能耗的1%左右。

  (7)转换开关、线缆及其他系统的能耗约占数据中心机房总能耗的1%左右。

机架能耗分布

500|
机架合理分布

  从数据中心电能的流向来看:一是IT设备约占30%;二是空气处理设备约占45%,建筑物围护结构的能量损失会反映在空调系统的能耗上;三是配电传输和转换设备约占24%;还有1%是用于照明、维修和办公设备等。

  在数据中心的建设规划过程中,如果在方案设计和设备选型方面充分重视节能降耗问题,上述电能分配比例将发生较大的变化,在IT设备用电量不变的情况下,其他方面的能耗比例将会有所降低,电力能源的利用率将会有较大的提升。如果提高数据中心后期运维期间的有效管理能力,总体能耗将会进一步降低。

  目前,我国已将服务器的节能指标纳入国家节能规划体系中。它标志着我国在推进服务器节能方面已进入到一个崭新的阶段。如何减少IT设备能耗是各大设备厂商不断研究的课题。

  但多数数据中心在规划之初,要做到准确规划IT设备的具体型号、装机数量和电力需求具有相当大的难度,尤其是远期规划则更加难以预测。因此,在数据中心的规划建设过程中,只能依据经验数据和参照同行业现状,给出IT设备的总体能耗指标,设定数据中心的最大服务能力。

免责声明:
1.本网站部分文章内容、图片或视频来源于网络、作者投稿等,版权归原作者所有,仅供学习参考之用,不具有任何商业用途,如涉版权、侵权等问题,请及时联系我方进行处理(联系电话:022-84220470,电子邮件:help@51hvac.com);
2.本网站对转载、分享内容、特约发布、陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完善性提供任何明示或暗示保证,仅供读者参考,并请自行核实相关内容;
3.只要不用于商业目的,本网站的文章欢迎任何形式的传播和转载,转载请取得授权、注明出处、保持作品完整;
4.本网站有权根据中华人民共和国法律、法规及规范性文件、互联网变化及自身业务的发展情况,不断修改和完善本声明。
微信扫描左侧二维码,文章分享到朋友圈
暖通空调在线公众微信:ehvacr
每日行业微信日报,订阅有礼了!
责编:cuilei
新闻投稿:news@51hvac.com
高端访谈更多>>
  • 许鹏教授:抗击COVID-19ASHRAE与REHVA对策之对比及借鉴
  • 张泉:数据中心节能方向及相关技术研究的进展
官方微信