ITPub博客

首页 > Linux操作系统 > Linux操作系统 > 绿色数据中心的气流组织设计

绿色数据中心的气流组织设计

原创 Linux操作系统 作者:Java_simon 时间:2009-07-02 09:57:57 0 删除 编辑
根据全球数据中心资料显示,如果不提高数据中心的效率,以现有的数据中心的发展趋势发展下去,那么数据中心的电费和用电需求将在未来不到10年的时间内翻倍,由于能源价格的上涨,未来数据中心的电费将大于数据中心的硬件投资。数据中心需要越来越多的电力消耗,能源问题正渐渐地成为数据中心发展的最大障碍。
  随着全球对绿色环保要求的提高,数据中心绿色化已势在必行,在未来的10年里,全球一半左右的数据中心将受电力和空间的约束。低能耗、高效率的绿色数据中心将有很大的发展前景。
  为使数据中心更绿色节能,数据中心从以下三个方面来降低能耗,提高数据中心效率:
  第一,采用新的数据中心热量指南标准,放宽服务器的使用环境要求,提高服务器在高进风温度下的可靠性。提高数据中心的效率。
  第二,服务器厂商从芯片入手,降低服务器能耗,从软件入手,提高服务器利用率。提高数据中心的效率。
  第三,优化数据中心的气流组织,提高制冷效率。减少空调容量和数量,提高数据中心的效率。
  在2008年美国暖通工程师协会(ASHRAE)发布了新的2008版数据中心热量指南,新的数据中心热量指南与2004版数据中心热量指南相比,把进入服务器的进风温度从20~25℃的范围放宽到了18~27度,把进入服务器的相对湿度要求从40%~55%改为露点温度5.5℃~15℃(或相对湿度60%),通过放宽进入服务器的温度,和放宽相对温度的要求,要求服务器厂商提供的服务器在这样的环境下具有高可靠性。通过新的数据中心热量指南,旨在提高数据中心的效率。
  在绿色数据中心领域,惠普、IBM、Sun、Dell四大主要厂商在绿色数据中心方面提出通过提高每瓦特功耗与性能,降低服务器能耗;通过将多种应用集成在服务器上;通过大幅度提高服务器的利用率,自动关闭闲置系统来实现服务器的节能。
  目前的数据中心,尽管采用了最新的服务器,高效的UPS,高效的空调系统,机柜排冷热通道布局,但数据中心的效率往往还是只有35%至40% ,数据中心的能源效率PUE只有2.4至2.8,数据中心能耗普遍较高。与绿色数据中心的差距较大,绿色数据中心要求数据中心的效率大于55%,数据中心的能源效率PUE值小于1.8。
  为什么尽管采用了最新的服务器,高效的UPS,高效的空调系统,机柜排冷热通道布局,现在的数据中心效率还是很低,能耗偏高,不能达到绿色数据中心的要求。主要原因是数据中心的送、回风的气流组织不好造成的,数据中心冷热风的混合相当严重,数据中心空调送出的冷风低于50%部分的冷风送到了IT设备,高于50%的大部分送到数据中心机房冷却环境或直接返回到空调机组需没有被有效利用。现有数据中心每1KW的热负荷需要配置2KW以上的制冷量空调的来满足制冷的需求,只有2KW制冷量的风量才能满足1KW热负荷的制冷需求,造成空调配置容量大,从而导致数据中心效率偏低。
  数据中心采用地板下送风,机柜下的高架地板开有地板出线孔时,由于地板出线孔的不密封将导致大量的冷风泄漏。在地板下静压为0.075吋水柱压力的情况下(约20Pa) ,一个240 x 170mm开孔漏风量 410 CFM, 或 2.56kW的制冷能力。而一个25%开孔率的地板出风口,在20Pa的静压下,最大送风量约500CFM或3.125KW制冷能力。假设每只机柜前面有一块地板送风口,每只机柜下有一只240 x 170mm出线孔,这样空调的送风有45%的冷风漏到了机房,只有55%的冷风送到了机柜的前面,而送到机柜前面的冷风也没有完全进入服务器机柜,有一部分冷风又直接被空调机组吸回,这样实际进入到机柜的有效冷风就小于50%,空调有送风利用率很低,而造成数据中心效率低。
  如果在地板下静压为0.075吋水柱压力的情况下(约20Pa) ,一个 240 x 170mm 开孔漏风量 410 CFM, 或 2.56kW。在同样的条件下,使用地板出线孔密封件对出现孔进行密封, 出线孔的最大漏风 33 CFM, 或 0.205kW,只有不到总风量的4%的送风量泄漏,这样更多的冷风被送到机柜的前面,这部分冷风也有部分被空调机组吸回,但更多的冷风被利用,可以减少空调的容量和数量。另采用地板出线孔密封还能增加地板下送风静压,提高送风口的送风量,提高机柜制冷能力;消除机房热点,延长IT设备使用寿命;帮助冷热通道发挥更大的作用,防止冷热风混合;增加已安装空调机组的制冷效率,降低运行费用。
  机柜中没有安装服务器的空U空间,服务器排出的热风从空U返回到服务器的前部进风口,造成热点。降低机柜冷却能力。机柜中所有的空U空间安装盲板后,防止机柜出现热点,提高机柜制冷能力。由于每个厂商提供的盲板不尽相同,有的盲板之间有空隙,还是会出现少部分的热风返回,同时每个厂商提供的机柜的U立柱与机柜侧板间有空隙,也会导致部分热风返回而混合
  数据中心机柜布局为冷热通道,地板下送风空调安装在机柜排侧的热通道,地板出线孔密封,所有空U的机柜空间安装盲板,还是会出现冷热通道的冷热风通过机柜顶部进行混合,约有20%的冷热风会产生混合,另还有部分的冷风被空调机组吸回,同样也会降低空调制冷效率。如果把两排机柜中间的冷通道进行封闭,95%左右的冷风可以直接送到冷通道内而进入服务器机柜,所有机柜排出的热风被空调机组吸回,热风不再进入到机柜的前面。
  数据中心机柜采用以上地板出现孔密封件、盲板、冷通道封闭系统,对数据中心的送、回风进行气流组织,每1KW的热负荷将不需要2KW的制冷量来进行制冷,每1KW的热负荷将只需要1.2~1.3KW的制冷量来进行制冷就能满足数据中心的需求。同时还可提高机柜功率密度,减少空调容量和数量,提高冷风利用率,提高回风温度来提高空调制冷效率,最终可以大大提高数据中心的效率,满足绿色数据中心的要求。

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/7699723/viewspace-608120/,如需转载,请注明出处,否则将追究法律责任。

请登录后发表评论 登录
全部评论

注册时间:2007-12-07

  • 博文量
    332
  • 访问量
    313398