第二页
乔治亚理工学院(Georgia Institute of Technology)正在应用一种新技术,可以使冷却系统与计算机热源的距离更近,这样每年可以节约160万美元使用成本。学院的系统生物研究中心主任杰夫瑞•斯考尼克(Jeffery Skolnick)见证了该中心价值850万美元的超级计算机的安装过程,其中服务器布局设计和电力分配方案至关重要。中心将IBM刀片服务器系统的1,000节点服务器集群安装在12个机柜中,而且利用IBM的后门热交换器(Rear Door Heat eXchanger,编者注:又名“酷蓝”散热系统),通过冷水直接在服务器后面进行冷却。
这家数据中心面积为1,300平方英尺,去年部署了酷蓝散热技术。利用酷蓝,该中心取得了多方面的效果。比如,中心所需要的空调制冷量要比当初预计的减少了一半,即从160吨降低到了80吨,同时由于空气流通量减少还降低了噪音。未来几个月内中心还将增加4只机柜,斯考尼克希望,芯片直接散热技术能够帮助中心节约更多的电力成本。他说:“目前,我们认为酷蓝是最可行的技术。但是,每一次技术升级都会带来标准和规则的变化,所以你必须考察哪些技术比较可靠。”
在数据中心里利用水或其他液体进行散热降温的想法吓坏了一些IT员工,他们认为液体会毁坏计算机元件,并造成短路。他们总是想象着水管爆裂和喷头偏离目标等场景。
科林森公司(Callison)的助理主管莱昂那多•拉夫(Lenonard Ruff)说:“除了液体散热,也许没有更好的选择了。”该公司专门从事数据中心的规划设计,目前已经开始测试液体喷射芯片直接散热技术M系列,他们认为芯片直接散热技术十分有效,以致于固定数量的服务器消耗的电能再增加一倍,散热设备也能胜任,数据中心的服务器也不会过热,而且还增加了285%的处理运算能力。这家公司正在向其客户大力推广这种新技术。
市场调研机构顾能公司(Gartner)研究员卡尔•克劳奇(Carl Claunch)预测:“尽管一些数据中心经理毫无道理地反对液体散热技术,但是仍然会有越来越多的企业将在其数据中心采用这些技术。”他还建议企业在筹建新的数据中心时,应该将液体散热系统的基础设施考虑进去,即使企业不准备马上购置并安装液体散热系统的设备。
其他散热方法
过去2年中,力博特、惠普、IBM以及美国电力转换公司(American Power Conversion)等电力管理和散热设备制造商,都相继研发出一系列数据中心散热产品,包括空气调节设备以及添加到服务器机柜上的液体和冷却设备等。
日前,IBM发布了PowerExecutive增强版。它可以自动管理能耗,向需要电能较多的地方输送更多的电能,而那些即将过热的地方则少输电或不输电。IBM的温度诊断工具Thermal Diagnostics,可以监控数据中心中潜伏的“热隐患”,并会通过PowerExecutive采取必要措施防止情况恶化。
当然,并非所有的数据中心都需要液体散热冷却技术,其实还有其他方法也能够解决部分散热问题。虚拟主机商INetU Managed Hosting公司刚刚建成第四座数据中心。该中心靠近宾西法尼亚州的阿伦敦(Allentown),面积1,500平方英尺。中心采取了抬高地板和防潮墙体等措施来减少湿度,并在服务器机柜后边和旁边增加风机以提高通风率,另外增加空调设备来扩大制冷量。
公司总裁戴夫•强查尼(Dev Chanchani)说,其他数据中心所面临的散热问题都可以通过扩大中心规模得以避免。如公司需要更强的数据处理分析能力,公司会再建一个数据中心来满足要求。强查尼还表示,如果只能在现有数据中心中增加更多的服务器,正如大多数企业现有处境那样,他就会考虑新型散热技术。“如果你只能在一个狭小的空间增加服务器密度,我想新技术可能会格外有帮助。”强查尼补充说道。
网友评论