第二页
趋向模块化
另一个发展就是模块化的日益普及,全面封闭的服务器系统经常与水冷技术密切相连,诸如SUN公司的模块化数据中心S20(就是之前的Project Blackbox),Rackable System的ICE Cube和Verari公司的Forest这些箱式计算系统。微软公司也宣布将斥资5亿美元在芝加哥地区筹建数据中心,届时这个数据中心将容纳150到200个箱式计算系统(被称为C-blocks),每个系统能容纳1,000到2,000台服务器,从而向这一领域更进一步。
现有的数据中心也采用了类似的做法,比如使用Power Conversion公司或者Liebert的机箱。举例来说,位于斯坦福大学工程学院的高性能计算中心就需要安装一台新的内置1,800个核心,每秒钟浮点运算能力达到14万亿次的超级计算机。
高性能计算中心经理史蒂夫.琼斯表示“校园里目前的数据中心能为我们提供的服务器数量和系统冷却能力都十分有限,我们需要更为密集的计算系统,但目前的计算机无法满足我们的需求”。
考虑到数据中心扩建所需的时间和费用问题,琼斯目前接手了一家未能充分利用的计算机实验室并采用了Power Conversion公司的InfraStruXure系统,能在机箱内充分利用能量和冷却。校园设备集团将冷却水管和电源与实验室内安装的APC,戴尔和Clustercorp供应的服务器相连接。从设备安装到位到集群开始运转的整个过程只花费了11天。
CDW Berbee在扩建他们占地12,000平方英尺的数据中心时也采用了类似的做法。为了减少热排放,他们安装了8个20kW Liebert XDH水平排列式冷却器和160KW的Liebert XDC的制冷器。
Rasmussen表示“目前我们所有的系统都一个制冷级别上工作,温度保持在72oF左右”。
麦克法兰认为虽然他们安装了水冷设施,但也面临与CDW类似的问题“我接触的主要是小型数据中心,整个数据中心都采用水冷技术是可行的,但是当大型数据中心要使用成百上千的制冷装置时,要实现水冷散热依然任重而道远”。
打开你的窗户
目前将服务器环境封闭的趋势有所增长,反对意见也应运而生。举例来说,位于美国弗吉尼亚州的美国埃施朗公司生产的Millennium Series Chiller Optimizer采用的就是外部空气节约装置来限制冷却器或者空气制冷装置的需求。这些装置能对内外部的环境状况进行监控来决定使用多大比例的外部空气能实现冷却效率的最优化。
Sorrell认为“如果设备的设计方案可行,外部温度将比热通道返回的空气更适宜利用。用户可以选择对外部空气转换和保留制冷系统运行,或者随着外部温度下降后,用户甚至可以通过关闭制冷系统来节约更多的金钱”。
虽然外部空气需要进行过滤,但通常外部空气的质量足够清洁来满足数据中心的需求。使用外部空气优化器也能在制冷系统故障时为数据中心提供备份的制冷解决方案。
Sorrell表示“如果由于某种原因用户无法使用制冷装置,就可以随时启用外部空气进行散热,即使外部空气的温度达到90度,数据中心的设备也不至于失灵”。
网友评论