中国IDC圈5月13日报道: 数据中心机房多年来一直处于使用机房专用精密空调做为主要散热设备。随着计算机设备的更新换代,IT设备的功率密度越来越高,机房面积越来越大,机房的数量越来越多,世界能源越来越紧张。在全球能源问题日趋突出的情况下,虽然机房空调制冷能效比有所提高,但所耗费的电能仍然太高,一直困扰着机房运营商和用户。如何运用新的技术降低机房制冷所消耗的电能,建设绿色环保机房,已成为机房行业建设者们关注的核心问题。

降低机房散热所消耗的电能,提高数据中心机房的电源使用效率,降低数据中心的PUE值,目前主要有以下几种方法:

1、在数据中心机房中建设冷通道,并配置下送风机房专用风冷式精密空调。

2、在数据中心机房中建设热通道,并配置下送风机房专用风冷式精密空调。

3、在数据中心机房中建设专用风冷式精密空调冷风和热风管道,对机柜进行全密封强制散热。

4、在数据中心机房中使用下送风机房专用风冷式精密空调和智能送风机柜,将机房冷风净压仓的冷风直接送入机柜。

5、在数据中心机房采用大型水冷式机房精密空调。

6、在数据中心机房建设专用大型水冷式机房精密空调和芯片冷却管道,直接给IT设备芯片散热。

7、在数据中心机房采用机房风冷式精密空调+大型新风机1:1配置,合理利用自然新风冷源。

这几种方法有各自的优势和不足,首先从冷源方面来分析,第1、2、3、4种方法均都是采用机房专用风冷式精密空调作为冷源,第5、6种方法采用水冷式精密空调,第7种采用风冷式精密空调或自然冷风和水模。使用风冷式精密空调的方法在节约电能主要依靠空调的制冷能效比,能效比一般在3~4之间,节能方面有限。使用水冷式精密空调,能效比大能达到6,一般在4以上。使用自然风的新风节系统时,大的能效比大可达12.

接下来,从机房内设备散热效果方面来分析,第1、2、5、7种方法都采用冷风源被动平均分布散热,要求整个机房的发热量布局要非常均衡,否则可能出现机房冷热不均,单相机柜局部过热的问题。

第3种采用主动大风量强制散热,每个机柜热出风管道都配有风机,散热效果好,容易出现过度制冷,风机也需要消耗一定的电能。

第4种方法采用主要设备机柜进风口配置变速风机,动态给机柜提供冷风,较好解决局部单个机柜过热和机柜内热负荷突然增大的问题,将机房内的温度提高到空调的回风温度,但机柜的深度比普通机柜深度要大100mm,风机需要消耗电能。

第6种方法采用精准散热,主芯片散热效果好,但电源、硬盘等部件需要精准散热不容易实施,需要服务器产商支持。

最后,从机房内设备散热建设难易成度来分析,第1、2、4、7种方法基本上是比较接近,比传统下送风空调系统略微复杂一点,比较容易实施,成本相差也不是太大。

第3种方法,需要对机柜前后门进行密封,实施起来比较困难,风管建设比较多,对机房的整体布局有影响,需要非常细致的规划和设计,成本相对要高一些。

第5种方法,水冷空调的建设门槛较高,比较适用于大型的机房,空调设备比风冷式精密空调要复杂,成本相对要高一些,运行也需要专业维护人员。

第6种方法,空调部份和第5种方法一样,但是分支制冷管道方面,会相对复杂很多,要非常了解服务器产商等设备的结构,甚至于需要它们的支持,成本方面相对会高出一部份。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56