随着经济的发展,大量的企业飞速发展,对于数据处理业务的需求也快速提升,相继建设了很多数据中心。数据中心从10多年前100-200w m-2到如今发展到1000w m-2甚至更高,机房密度的提高使得数据中心的耗能成为一个越来越重要的课题,自从GREENGRID组织提出用PUE来衡量数据中心节能要求,越来越多的国内建设方在设计数据中心时对于PUE值有了要求,PUE是PowerUsageEffectiveness的简写,是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载使用的能源之比,PUE=数据中心总设备能耗/IT设备能耗,PUE是一个比率,越接近1表明能效水平越好,本文将从几个方面介绍提高空调能效,降低数据中心空调耗能的方法用以获得较低PUE值可以采取的一些措施。

2.冷源

数据中心空调冷源一般有风冷直接蒸发式空调系统、水冷直接蒸发式空调系统、水冷或风冷冷冻水空调系统、双冷源空调系统等空调系统。从节能的角度来说,使用风冷系统的数据中心,PUE不可能小于1.8,通常在2.0以上,在规模较大,可以设置集中冷源的情况下,能效比高的水冷冷冻水系统是首选。当电机功率功率超过500kw的情况下,可采用6kv或者10kv电压供电,可提高运行效率,在选择机组时选用COP值高的机组,同时也要考虑机组的部分负荷综合性能系数(IPLV)。冷水机组采用变频能取得较好的部分负荷综合性能系数,使得机组的高效区域更大。在非额定工况时,变频式离心冷水机组将导流叶片控制与变频控制有机结合,共同控制压缩机。冷水机组的蒸发温度对于机组效率也有着影响,粗略估计蒸发温度每提高0.6度,效率增加1%-3%,因此采用较高的蒸发温度效率比一般供回水7℃/12℃效率高。

图1:不同冷冻水出水温度能效比较

如果可以提高末端送风温度,我们就可以使用更高的蒸发温度,这样可以使得效率进一步的提高。而对于空调系统的耗能来说,冷水机组的能耗所占比重大,把冷水机组的用电量降下来对于提高整个空调系统的效率有着很大的帮助。

而采用水系统带来的安全问题,例如水系统的冗余设计:双管路或环形管路,事故应急泄水,供水保障:多水源供应以及蓄水池,也是需要我们考虑,本文不作展开。

如果以供水温度为12度来看,在室外湿球温度9℃左右时即可使用冷却塔免费制冷,根据上表统计:在此温度范围内,上海地区全年可完全使用免费制冷的时间达2901小时相对于水侧的免费制冷,还有一种风侧的免费制冷,是指利用室外的空气,可以在室外焓值低于室内焓值的全部时间进行自然冷却,但是在数据中心采用水侧免费制冷时没有必要再采用风侧免费制冷,理由有以下几点:

1.使用风侧免费制冷将会占用很大的室内空间。

2风侧免费制冷需要大量的室外空气,如果室外空气质量不是很好将会导致设备的运行寿命减少。

3用于加湿和减湿的能量将会很大,采用风侧免费制冷所获得节能效应和这些能量的消耗相比也相差不多,同时将使室内的湿度控制更复杂。

4.风侧免费制冷和水侧免费制冷在使用时间上有重叠,所以在多出不多的使用时间的情况下,同时采用的意义不大。

免费制冷时间的长短很大程度决定PUE值中空调耗能的大小,而从上图中可以看出免费制冷受到室外环境的影响也很大,对于中国北方以及长江流域大部分地区来说,都能很好的采用免费制冷,在东北等严寒地区,采用免费制冷的时间更长,使得PUE中空调耗能的因子能做到0.2左右,以获得更低的PUE值。这一点很值得我们建设方在数据中心选址中加以注意,在考虑经济、地理等因素时,也可以考虑气候环境对于今后数据中心运营成本的影响。

3.免费制冷与冷冻机制冷的切换

当室外免费制冷不能完全满足数据中心的需要时,将开启制冷机组制冷,但此时室外的温度低于15度,无法满足冷水机组所需要的冷凝温度,而采用电加热等方式既不节能,又没有这么大的电量来满足,此时只需要在系统中加入一路旁通,使经过板式热交换器后高于15度的回水不回到冷却塔而是进入冷水机组就能解决这一问题,随着室外气温的增加,冷水机组逐台开启,免费制冷热交换器逐台关闭,直至全部转变为冷水机组供冷。

4.冷冻水侧热回收

考虑数据中心全年制冷的特点,对数据中心进行热回收是非常有必要的,在蒸发侧或者冷凝侧均能采用热回收技术,如在伦敦TelehouseWest数据中心利用服务器产生的热量为附近的住宅提供暖气服务。该数据中心及其配套设施建设项目投资达1.8亿美元,预计该项目能为数据中心周边13万平方英尺范围提供相当于900万瓦的能量,并相对减少1100吨二氧化碳排放。蒸发侧的热回收可以通过一个简单的水环的环路来实现,例如当冷冻水系统供回水温度为12-17度时,冬季及过渡季节将冷冻水回水经过一个热交换器和生活热水给水交换,预加热生活区生活热水的给水,简单的接管且对于系统没有任何影响。冷冻机组等设备均为常规设备。冷凝侧的热回收可以通过选用热回收机组来实现,但是需要对于热回收机组的效率以及系统的安全性有个评估,在能保证效率及安全的情况下,对于系统的节能也有着很大的益处,可以作为热回收的首选措施。

5.空调末端

5.1一般IT机房

一般来说数据中心空调末端(CRAC)的能耗主要由风机及电加热等组成,除湿则通常由冷却盘管来完成,如果除湿需要较低的温度时,则空气就会过冷需要再热,而再热就浪费了能量,因此对于空调末端节能,首先除湿系统设计应避免在低负荷工况下再热。除了合理的设计送风温度以外我们还可以采用独立温湿度控制的系统来解决再热,从原理上讲如果房间能保持正压,新风系统能够除湿后送入室内,而数据中心一般内部没有湿源存在,那么房间内的绝对湿度是能够保证的。(根据ASHARE2008的最新报告,影响数据中心内设备的空气水含量指标,是绝对湿度,而不是以前强调的相对湿度,只要露点温度控制在5.5°C以上,数据中心内的设备都可以保证安全,避免静电的危害。)因此我们IT机房内设置专用的定制精密空调(不设置电加热和加湿器),新风系统采用如下功能段的机组来解决新风的除湿,只要新风做好送风露点温度控制,那么所有精密空调无需电加热以及加湿器,大大减少了运行费用和装机费用。

此外我们可以将送风温度提高,一般来说如果送风温度提高到20度时,冷冻机组的供水温度可以做到12度以上,一直以来,提高数据中心进气温度都是全球数据中心的设计趋势,因为更高的数据中心进气温度意味着更多的节能潜力,而且气候条件可以支持的免费制冷小时数也将增加。更好的节能效果则会直接降低能耗。

5.2高密度IT机房

随着数据处理设备的处理速度提高,容量不断提高,数据通信设备发热量(冷负荷)不断增大;而前者所述的冷却系统有一定的局限性,即当机架散热量达到4kw以上时,仅用上述冷却方式已难以解决散热问题。在此我们介绍一种解决方案,具体就是首先完全封闭热通道,然后在正对热通道的两侧机房设置风墙式AHU,这样的设备风机耗能小,单体制冷量大且冷冻水或冷媒水完全无需进入高密度机房内。常规工程常采用CDU(液体冷却分配器)方式来解决高密度机房供冷问题,CDU有着成熟的产品以及成功的应用。

本文介绍的风墙式AHU的好处有以下几点,旨在挖掘是否还有节能的潜力。

1.如果采用冷冻水管进入室内CDU的末端,冷冻水管的破裂损坏将给机房带来毁灭性的影响。

2.如果采用热交换器的方式,让冷冻水与冷媒管交换后只有冷媒管进入高密度机房,此时的冷媒管温度也非常的低,虽然避免了第一点冷冻水管破裂所带来的巨大危险,但是低温冷媒管所带来的冷凝水问题也是要重点考虑的。

3.热交换的方式会有能量损失。

4.封闭热通道大大减少冷热空气混合的能量损失。

综上所述,减少热交换的能量损失,并可以提高安全性,对于高密度机房空调来说,也是一种节能的新措施手段。

6.结语

绿色节能是数据中心的一个发展趋势,PUE因为与免费制冷时间等因素有较大的关系,其本身也是一个区域性的指标要求,但是利用这个指标来衡量数据中心节能状况还是非常清晰明确的。例如上海地区大多建设方在标书中就会要求把PUE值控制在1.6以内,用以控制建筑设计中对于节能技术的应用。

最后总结下,在空调系统中要实现节能减排并获得较低的PUE值,可以采取的措施有以下这些。

(1)采用水冷的机组,并尽量提高蒸发温度及采用变频机组。

(2)选用高效率的设备,以及采用高效率的输配系统

(3)尽量延长冷却塔免费制冷的时间以及采用热回收等节能措施。

(4)合理的机房冷热通道布置以及高效的空调末端系统。

(5)避免空调末端因为除湿而产生的冷热抵消,采用独立温湿度空调也是一种可以采用的手段。

关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯

查看心情排行你看到此篇文章的感受是:


  • 支持

  • 高兴

  • 震惊

  • 愤怒

  • 无聊

  • 无奈

  • 谎言

  • 枪稿

  • 不解

  • 标题党
2024-01-09 16:53:00
市场情报 中兴通讯分布式存储+ DPU,加速数据中心转型
存储技术在不断地创新、完善、加速演进,以更好地满足业务的存储需求,但同时也使得存储协议和文件系统越来越繁重。 <详情>
2023-11-17 10:35:56