数据中心是一个非常怕热的地方,如果不能很好的散热,服务器等系统的稳定性就得不到保证,于是,许多数据中心就片面地加大了空调的制冷能力,希望通过降低整个机房的温度使服务器降温。但是与此同时,人们又不得不面对一个很严峻的问题:电力能耗之殇。
制冷与能耗的对决
随着新一代数据中心的建设,供电能耗问题,已经成为了所有的数据中心无法回避的问题。
通常,一个投资几百万元的数据中心,每年运营所产生的能耗成本就高达几十万元。CIO把数据中心评价为“建得起而用不起”。在能源日趋稀缺的状态下,利用各种新技术和管理手段,获得“增容不增耗”的绿色数据中心解决方案已成为行业发展的当务之急。
事实上,比起前几年来,企业在数据中心建设中已经更加注意能耗问题,但是,数据中心仍然和高额的电力和散热成本相伴难分。主要原因在于,随着新一代数据中心的建设,网络、服务器、存储等设备进一步集中,这就对数据中心的环境管理提出了新的要求。就拿刀片服务器来说,它的设计特点是在狭小的空间内安装大量的服务器,每平米的功耗大量增加,企业对IT系统的要求愈加提高,电力供应系统密度加大,生产的热量更加集中和庞大,问题也就变得愈发严重。
IDC的统计数据显示,在过去的10年里,服务器供电密度平均增长了10倍,这些都是可怕的数字。但是,这还不是事情的全部。
数据中心绿色节能迫在眉睫
传统的制冷方式走进了另外一个瓶颈,那就是,一个能耗的恶性循环正在提醒我们绿色节能的重要性。
据统计,维护一个数据中心的能耗中,真实用于IT设备的电力,大约只有1/3左右。维护费用中大约有40%被能耗所占据,在其中,冷却又占了能耗的50%-70%.能耗的增加带来了热量,热量的增长也扩大了能耗。而另外,更大的热量密度会增加这些影响。
作为如今业界的热点,建设新一代数据中心,除了资源整合等之外,实现绿色节能也是时代对企业提出的新的要求。不仅是保护环境的需要,同时,高额的维护和能耗费用也让这成为企业不得不考虑的问题。
“现代的数据中心,从四大方面,都提出了制冷和绿色的最新要求。”西门子IT解决方案和服务集团数据中心解决方案部经理程应军总结道。
首先,就是巨大的能耗不仅为能源环境造成了压力,同时也为企业带来高额的费用。
其次,新一代数据中心从规划、建造到管理,其中的复杂程度已经大大提高。传统的空调制冷是对整个空间进行平均制冷,但现代机房,随着机架式服务器和刀片服务器的普及,数据中心服务器密度不均衡,产生的热量也不均衡,温度梯度变化大,通风降温处理需要更加复杂的方式。传统制冷方式容易造成局部过热等现象,甚至引起宕机。
第三,业务持续性和灾难恢复能力也为现代数据中心建设提出了新的要求。目前的企业数据中心,承载着非常多的重要设备其中包括企业的生产系统、财务系统、办公系统等等,都维系在数据中心的安全运行上。一旦出现宕机等,将对企业的生产和正常运营造成极大的损失。
第四,就是合规以及安全的要求。建设新的数据中心,必须能够满足整个行业的规范和要求。国家颁布的《国内电子计算机机房设计规范》、《电子信息系统机房设计规范》以及审批中的《电子工程节能设计规范》等,都对数据中心的能耗、用电、环境提出了具体的要求。
这就致使今天的数据中心规划者,必须做出新的决策:如何在保证IT设备正常运转的情况下,来降低制冷系统的能耗。而这,也将成为企业数据中心绿色节能建设的突破口。
解决绿色之道
首先,利用冷热通道设计,优化机房冷却效果。优化IT机房冷却效果的常用方式是将IT设备背靠背排列。来自冷通道的冷风从IT设备的进风口进入,并排向热通道,以最大限度减少再循环。IT设备从前部吸入冷风,从后部排出热风。服务器合理布置在机柜里,机柜前部和服务器前部保持方向一致,以确保机柜冷却通道的畅通。然而,如果多排机柜以同一方向布置,就会出现效率问题。第一排机柜排出的热风被第二排机柜的进风口吸入。对于一排排机柜而言,随着热风从一排服务器流向另一排服务器,空气温度会越来越高。为了解决这个问题,各排机柜的布置方向应为服务器前部相向布置。此外,各排机柜的后部也应相向布置。这种排列方式就形成了“冷热通道”布局。这种布局如果合理组织,可大大降低能量损耗,并可延长服务器寿命。
其次,在闭合式机柜冷却中,利用空白面板填补机柜安装设备之间的空隙,改善冷却效率。西门子采用了不同的控制和分隔技术来最大限度减少冷热风的交汇,比如在某些非标准机柜中利用空白面板和基板对设备顶端、底部和侧面进行封闭。这样可使气流更可控制,并由此取得更好的冷却效果,从而实现更高的功率密度。
再次,采用节能解决方案,以及自然冷却方式,降低能耗。讲到散热,其实大自然本身就是一个不耗电、零成本的散热系统,冷热空气互相对流,直至温度达到平衡状态。换句话说,只要把户外空气引入数据中心,空气温度自然得到调节。
第四,架空布线和1米高架空地板下无障碍风冷通道;统一整个数据中心的气压。在许多老式数据中心,地板下空间通常被设计为通风管道,然而,大量线缆同时也穿行其中。这影响了冷风在地板下的流动和进入服务器进风口。制冷系统为了达到相同的制冷效果,必须消耗更多能量。而西门子的绿色解决方案采用架空走线方式,消除了缆线障碍。
第五,建立了独立的热分区。数据中心独立的热分区采用独立的冷却系统,来满足不同功能区和主数据中心的不同冷却需求。
第六,绿色环保材料以及地板和隔断保温层,有效减少了冷气浪费。同时,西门子数据中心内使用的绿色环保材料也可确保最大限度降低对环境的负面影响,体现了一个大型跨国企业的企业社会责任。
假定数据中心的电力消耗为100%,空调的耗电则在40%以上,是机房中当之无愧的“用电大户”。随着刀片服务器和其它高密度设备的使用,数据中心越来越热,也需要更多的制冷。因此,有效提高制冷效率,无疑可以让数据中心更节能更高效。
关注中国IDC圈官方微信:idc-quan 我们将定期推送IDC产业最新资讯
查看心情排行你看到此篇文章的感受是:
大规模智能算力中心集群项目建设:兴谷智慧产业
2024-04-19 11:08:52
寻求总包未果,2亿意向金返还被拖欠 超讯通信起诉兰州科文旅
2024-04-19 11:00:43
十年磨一剑 浪潮信息IPF24绘制人工智能+创新战略蓝图
2024-04-18 19:56:50
规模超2000P 海底智算中心平台发布
2024-04-18 10:15:27
金融行业数据中心(智算中心)科学精准节能降耗研讨会成功举办
2024-04-18 10:08:58
“预亏”、内讧、退场、月入过万?算力概念“后劲儿”来了
2024-04-18 10:01:52
“草原云谷 数享未来”乌兰察布市绿色算力筑基新质生产力发展推介会即将举办
2024-04-17 22:22:00
浪潮信息IPF24: 发展人工智能+,创新需要激发活力、拓展路径、加速落地
2024-04-17 21:57:15
腾讯云复盘4月8日故障:云API异常持续近87分钟
2024-04-17 17:10:00
一次性最高奖励2000万元,智算中心三政策发布
2024-04-17 16:53:34
聚焦智算、芯片、区域协同……乌兰察布市绿色算力筑基新质生产力发展推介会4月18日举行
2024-04-17 16:48:44
增至500P,京西智谷项目正式试运营
2024-04-16 16:26:28
4月18日 | 乌兰察布智算产业招商推介会即将举办
2024-04-16 15:59:11
赋能新质生产力,北京平谷兴谷智慧产业赋能中心成功奠基!
2024-04-15 17:30:59
7亿算力合同遭国家超级计算济南中心声明否认 中贝通信回应
2024-04-15 15:27:00