未来水世界:让数据中心凉快起来

互联网 | 编辑: 杨雪姣 2008-08-20 10:40:00转载 返回原文

第一页

随着企业机房里的服务器数量持续增加,如何排放由此产生的多余热量日益成为企业面临的严峻考验。

“过去我们的机房里每平方英尺如果容纳消耗50瓦特功率的硬件设备就已经非常密集了;但是时至今日我们的机房每平方英尺容纳的服务器的能耗达到了200-300瓦特,硬件系统的配置也愈发紧凑”纽约市的数据中心咨询公司Syska Hennessy集团高级研究员Vali Sorrell专门从事数据中心冷却的研究,他表示“这让我们的基础架构在处理数据中心冷却的难题时面临更多的压力”。

热排放已经成为限制数据中心扩建的主要因素。

“5年前,我因为担忧数据中心空间的局限会阻碍我们数据中心业务的正常发展而时常夜不能寐”位于美国威斯康辛州密尔沃基市和麦迪逊市的企业级数据中心管理服务供应商CDW Berbee的数据中心经理Wayne Rasmussen这样说道“但随着空间形态的因素逐渐淡化,目前我更关心的是数据中心的热排放和密度”。

随着提高冷却效率的压力不断增大,水冷技术的回归似乎也是意料之中。如今数据中心的系统设计渐趋紧凑性和模块化,IT经理人可以在系统不产生多余热量的前提下实现更多的计算能力。

水冷技术的回归

电影《水世界》在票房上遭遇落败,而水冷技术回归数据中心却是非同凡响。水冷技术具备两方面优势--其一它可以将散热剂直接作用于热源,其二水冷技术每单位的热传导能力是空气制冷的3,500倍。

总部位于纽约市的国际高科技咨询公司Shen Milsom & Wilke负责人罗伯特.麦克法兰表示“数据中心面对空前的热负荷,我们必须采取更为有效的方法排出机房内多余的热量,这就意味着要让冷却尽可能的靠近热源,水或者冰箱是制冷的有效途径”。

让我们回顾一下今年四月IBM公司的一项声明,他们宣布最新的System p5 575将采用在处理器上直接放置水冷铜板来排放热量。这样蓝色巨人就可以在一个机箱上放置多达448个处理器核心,计算性能可以达到早期版本的5倍,而电力消耗却仅为早期版本的60%。

IBM公司还有两款采用水冷技术的产品。大规模应用--数据中心水存储解决方案(Data Center Stored Cooling Solution)是在温度和能源价格都比较低廉的时候将非高峰时期的水冷藏,在数据中心在高峰时段有更多制冷需求时发挥作用。小规模应用--Rear Door Heat eXchaner是在服务器机架背面安装一个4英寸高的制冷装置,最高冷却值能达到50,000 BTUs。

其他厂商也在他们的产品中采用了类似的水冷装置。举例来说,爱默生网络能源公司的Liebert XD系统就是采用水冷制剂来对服务器机箱进行冷却;冷却系统厂商Knurr AG的CoolTherm是在服务器机箱地板上安装一个水冷散热器;Egenera公司的CoolFrame技术是将Liebert's XD系统与Egenera自己的BladeFrame EX设计相结合。为了让制冷更加接近处理器,ISR公司的SprayCool M系列是在服务器内部配置模块,直接向中央处理器喷射冷却剂。

第二页

趋向模块化

另一个发展就是模块化的日益普及,全面封闭的服务器系统经常与水冷技术密切相连,诸如SUN公司的模块化数据中心S20(就是之前的Project Blackbox),Rackable System的ICE Cube和Verari公司的Forest这些箱式计算系统。微软公司也宣布将斥资5亿美元在芝加哥地区筹建数据中心,届时这个数据中心将容纳150到200个箱式计算系统(被称为C-blocks),每个系统能容纳1,000到2,000台服务器,从而向这一领域更进一步。

现有的数据中心也采用了类似的做法,比如使用Power Conversion公司或者Liebert的机箱。举例来说,位于斯坦福大学工程学院的高性能计算中心就需要安装一台新的内置1,800个核心,每秒钟浮点运算能力达到14万亿次的超级计算机。

高性能计算中心经理史蒂夫.琼斯表示“校园里目前的数据中心能为我们提供的服务器数量和系统冷却能力都十分有限,我们需要更为密集的计算系统,但目前的计算机无法满足我们的需求”。

考虑到数据中心扩建所需的时间和费用问题,琼斯目前接手了一家未能充分利用的计算机实验室并采用了Power Conversion公司的InfraStruXure系统,能在机箱内充分利用能量和冷却。校园设备集团将冷却水管和电源与实验室内安装的APC,戴尔和Clustercorp供应的服务器相连接。从设备安装到位到集群开始运转的整个过程只花费了11天。

CDW Berbee在扩建他们占地12,000平方英尺的数据中心时也采用了类似的做法。为了减少热排放,他们安装了8个20kW Liebert XDH水平排列式冷却器和160KW的Liebert XDC的制冷器。

Rasmussen表示“目前我们所有的系统都一个制冷级别上工作,温度保持在72oF左右”。

麦克法兰认为虽然他们安装了水冷设施,但也面临与CDW类似的问题“我接触的主要是小型数据中心,整个数据中心都采用水冷技术是可行的,但是当大型数据中心要使用成百上千的制冷装置时,要实现水冷散热依然任重而道远”。

打开你的窗户

目前将服务器环境封闭的趋势有所增长,反对意见也应运而生。举例来说,位于美国弗吉尼亚州的美国埃施朗公司生产的Millennium Series Chiller Optimizer采用的就是外部空气节约装置来限制冷却器或者空气制冷装置的需求。这些装置能对内外部的环境状况进行监控来决定使用多大比例的外部空气能实现冷却效率的最优化。

Sorrell认为“如果设备的设计方案可行,外部温度将比热通道返回的空气更适宜利用。用户可以选择对外部空气转换和保留制冷系统运行,或者随着外部温度下降后,用户甚至可以通过关闭制冷系统来节约更多的金钱”。

虽然外部空气需要进行过滤,但通常外部空气的质量足够清洁来满足数据中心的需求。使用外部空气优化器也能在制冷系统故障时为数据中心提供备份的制冷解决方案。

Sorrell表示“如果由于某种原因用户无法使用制冷装置,就可以随时启用外部空气进行散热,即使外部空气的温度达到90度,数据中心的设备也不至于失灵”。

返回原文

本文导航

相关阅读

每日精选

点击查看更多

首页 手机 数码相机 笔记本 游戏 DIY硬件 硬件外设 办公中心 数字家电 平板电脑