ITPub博客

首页 > Linux操作系统 > Linux操作系统 > 选择朴实的绿色数据中心

选择朴实的绿色数据中心

原创 Linux操作系统 作者:Java_simon 时间:2009-06-10 12:51:46 0 删除 编辑

近年来,“绿色”一词充斥于耳,数据中心成为很多绿色解决方案的靶心,动态电源分配、虚拟化等新技术也变成热点词汇。但是,新技术固然重要,在方案选择时也不能忘记一些基础、简单的因素,比如机房布局、制冷结构、冷却技术选择等,可能很小的一点改变,就能使数据中心“朴实”地变绿。

Gartner公司的报告显示,在过去5年中,随着业务的增长,IT系统数据中心电力设备的需求增长了5倍或更多,而目前大部分服务器和网络设备的资源利用率仅在24%~30%之间。随着各行业信息化程度的深入和业务的发展,IT系统又面临着需要不断扩容以适应业务增长的窘境。所以,如何最大限度地发挥现有系统的资源以及优化系统架构,是选择符合绿色标准IT系统方案的首要考虑问题。

从IT系统数据中心的支出成本热点分析(图1)可以看出,供电(Power)和制冷(Cooling)两方面的设施及运营支出占到整个成本的50%以上。

在界定一个设施或者系统是否“绿色”时,能源消费被认为是占主导地位的,而且往往是惟一的因素。绿色数据中心的定义是指在基础设施、照明、供电制冷电器设备及核心IT系统建设等方面是专为最高能源效率和最低环境影响而考虑的,所以,建设和运营一个“绿色”数据中心涉及的最直接技术和策略就是供电和制冷。优化数据中心的一些具体措施包括减少功率消耗、提升冷却效率、安装催化转换器的发电机组,或者使用替代能源技术,如太阳能光伏电动泵和蒸发冷却泵。

目前,数据中心大部分能耗用在制冷空调设备上,而就数据中心制冷情况而言,只有40%的冷空气直接作用于服务器,其余大部分的能量被浪费在了房间内的其他区域。因此,在选购一个数据中心前,就应该做好系统规划和方案设计,选构一个数据中心的最佳实践平面图。建设绿色数据中心的具体措施包括4点。

1. 根据数据中心功率密度选择合适的制冷结构

传统数据中心制冷系统结构多为面向机房结构,目前又出现面向排列和面向机架等两种新型制冷结构。面向排列形式和面向机架形式的制冷系统本身就是模块化的,因此可以为具有特殊功率密度的个别负载提供可预见的冷却能力,并通过按排列或按机架的形式来调配。当数据中心改造或扩容时,新增加的冷却负载就可以完全和已有的制冷系统隔离了。

面向机房结构的制冷系统面临着可用性的挑战。在数据中心里,制冷系统离热源(冷却负载)越近,系统就越能消除冷热气流的混合,从而避免出现无法冷却的热岛。面向排列形式和面向机架形式的制冷系统可以满足这样的要求,所以比面向机房形式制冷系统的效率更高。

此外,数据中心普遍采用N+1冗余的冷却方式,以此来替代出现故障的个别空调,但对于三种不同形式的制冷系统所采取的冗余策略是不同的。

●  面向机房形式的制冷系统

对于面向机房形式的制冷系统,冗余方案通常的设计思路是在机房周围增加一套CRAC(计算机房空调设备,Computer Room Air Conditioner)系统,以提供需要的冗余级别。然而,在高密度的机房内,特殊的CRAC系统弥补另一套CRAC系统的能力却受机房几何形状的限制。产生故障的空调单元距离备份空调单元越远,备份单元就越不可能给受影响的机架提供同样的风量。

面向机房形式的制冷系统,如果希望送出更高的风量到整个机房,需要克服高风道阻力,还需要更大功率的鼓风机将冷风吹得更远,这就大大增加了电力能源消耗。

●  面向机架形式的制冷系统

这种制冷系统基本上对每个机架是专用的,N+1冗余的惟一方式就是为每个机架增加另外一个CRAC或双通路CRAC系统,而所付出的代价就是整个数据中心都采用N+1冗余系统带来的高昂价格。它对于隔离超高功率密度的机架是非常有效的。

面向机架结构的优点是,由于CRAC系统是按尺寸分布的,而且与热负载源的距离非常近,因此冷气流就不会被浪费掉。但是,由于它是以机架为结构的,所以功率密度的提高驱使了电力成本的上升。

●  面向排列形式的制冷系统

面向排列形式的制冷系统允许按排列提供冗余,这只需要为每排机架提供一套额外的CRAC就可以了。这种冗余形式对于低功率密度的机房是没有什么成本优势的,比如每个机架为1kW~2kW的功率密度; 但是,如果在高功率密度的机房,比如每个机架功率高达25kW的时候,这种冗余形式的优势就比较明显了。

面向排列形式制冷系统的电力成本在非常低的功率密度下是很低的。而且,当功率密度增加的时候,面向排列形式制冷系统的电力成本始终是最低的。因为气流的通路越短,就表明越容易通过小型的高效率鼓风机来满足所需要的大量气 流。但由于面向排列形式的冷却系统的特殊结构,使每一排都必须有一套CRAC,所以需要更多的CRAC。

从能耗的角度来看,面向机架和面向排列的结构比面向机房的结构更具节能性。在许多实际应用中,可以不仅限于采用这些制冷系统中的一种,当数据中心有宽范围功率密度和系统可用性需求时,应根据数据中心规模、功率密度大小考虑使用组合结构。

2. 选择热/冷过道混合布局

在有些机房设计建设方案选项中,由于没有考虑到冷热气流通道的问题,使得冷热气流混合无序,大大降低了制冷效率。有时还会发生局部空调设施故障,导致大片机群告警,甚至宕机。

采用交替热过道/冷过道优化布局可以纠正许多冷却不均衡的问题。在一个典型的数据中心,设计之初就应考虑热/冷过道的布局,采取“面对面(face to face)、背靠背(back to back)”的机柜摆放方式。在两排机柜的正面,面对通道中间布置冷风出口,形成一个冷通道,冷空气流经设备后形成的热空气排放到两排机柜背面中的热通道,通过热通道上方布置的回风口回到空调系统,使整个机房气流、能量流形成对流,从而使冷热气流流动通畅。

简单来讲,就是设备在热通道布局区域,按照背靠背方式部署; 在冷通道布局区域,设备按照面对面方式部署。这样可以保证设备间不断地有冷、热空气循环,从而消除由于温度造成的设备故障风险。

对于目前数据中心内广泛存在的高密度热点区域,如刀片服务器区域,此方案为有效的布局方式。

3. 尽量减少或消除下地板布线

数据中心应尽量减少或消除下地板布线。如果实在无法避免,就使用导线、电缆托架和其他结构的方法进行布线。这样,就最大限度地减少了线缆之间的壁垒,带来更有效的空气流动和优化冷却系统的效率。 为了更有效地制冷,数据中心多采用上布线方式。

4. 液体冷却技术受宠

为迎接刀片服务器和高密度计算环境的挑战,更多的IT系统需要有效的冷却和热管理解决方案。越来越多的用户将液体冷却系统纳入其基础设施,以达到更好的冷却效率。

液体冷却系统是用空气-液体换热器作为界面,与周围环境进行热交换,从而提供有效的冷却和热交换分离。目前,液体冷却技术正逐步应用于现有的暖通空调(供暖、通风和空调)系统。一些IT设备主要制造商也正在努力研究解决液体冷却问题。

由于水的热容量(Heat Capacity)是空气的4倍多,密度大概是空气的1000倍,此外,水的导热性(Thermal Conductivity)比空气大30倍左右,而且水也有低得多的传热阻力(Heat Transfer Resistance),这些数字表明,水是一个很好的导热剂。但在采用液体冷却技术的同时,又要保证IT数据中心设施中的许多湿度敏感计算设备的有效运行。应对时可以采取以下几种方法:

●  侧面换热器采用封闭的外壳,能够提供从侧面的冷却,保证良好的制冷效果。

●  选择芯片级冷却或在底部安装换热器,使用一种自下而上的换热器,比侧面换热器组件相对安全,确保不会发生水泄漏。

●  柜门单元方面,可用充满冷却水的密封管新型柜门取代标准的服务器机架的大门。

●  采用集成的机架型液体冷却技术,即以机架为基础的架构,集成UPS电源配电和冷却用制冷分布单元(Cooling Distribution Unit)装置,通过CDU抽取水,使其在铝/塑管中循环进行设备冷却。

在完成了供电(Power)和制冷(Cooling)两个基础的核心要素设计后,才应进一步考虑利用高性能计算、虚拟化等发挥现有IT系统的处理、运算能力,使服务器、存储、网络设备等IT资源得到最大限度利用,建设真正意义上的绿色IT数据中心。

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/7699723/viewspace-605799/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论

注册时间:2007-12-07

  • 博文量
    332
  • 访问量
    312474