通常认为1945年是现代电子计算机的发明年,而按照中国的习俗,60年为一甲子,也就是是一个轮回。实际上,60年后看来,代表计算机技术创新核心的服务器技术,的确经历着一个技术与应用的新轮回。
CPU篇
从计算机被发明之日开始,工程师和用户对计算性能的追求就从未停止,虽然在2004年由于功耗、制程和材料等问题造成了一些停滞,但随着新工艺、新材料和多核架构的出现,缓解了上述矛盾,于是2006年里,我们将能看到从CPU、服务器系统到高性能计算机性能的再次跃升。
从AMD和英特尔的2006年技术蓝图上可以看到,在x86架构上的服务器CPU性能竞争愈演愈烈。
虽然AMD直到2007年才会推出四核的皓龙处理器,但2006年它们也会对皓龙进行一些相对较小的改动,例如增加对DDR2内存的支持;还有一种叫做M2的新型接插技术,该技术所使用的针脚结构与皓龙目前使用的939针插座有较大的区别,这也意味着,未来的皓龙插口与现在的不同,会带动服务器主板厂商的研发与销售。此外,2006年推出的Opteron还将引入AMD的Pacifica虚拟技术及Presidio安全技术。由于采用了专用的晶体管,Pacifica技术(上期的回顾介绍了一些Pacifica的资料,但目前该技术的细节不多)可以改善虚拟硬件的性能,而Presidio则可以创建出一个受保护的区域,专门供处理器存储一些关键的数据。
英特尔2006年的计划看起来很明显,即进一步增强在制造工艺和产量上的优势。英特尔在除成功进入65纳米制造工艺领域外,还正加紧对45纳米及32纳米工艺的产品研发工作,其中一些新产品开发代码已被外界曝光。英特尔正在其俄勒冈州芯片工厂加紧新产品开发活动,并认为该公司目前正在研制多款基于65纳米、45纳米工艺的处理器,总量达21款,其中17款将于2006到2008年期间投放市场。一些正被考虑的开发代码可能为Kentsfield、Penryn、Yorkfield等。至强平台由于秋季IDF上宣布的改版,在2006年并没有太大的动作,而推迟到明年中的Montecito由于缺乏更新信息,只能观望了。不过个人对于英特尔的跳票倒是没什么“额外”的联想,毕竟第一次设计高端的双核,难度之大是超乎想象的,就例如IBM的Power4,1999年便发布,但真正上市是2001年。不过自从那次的跳票后,Power家族就一帆风顺起来,不知道安腾2能否靠着双核的完美设计来摆脱目前的窘境?
不过明年最值得业界关注的CPU,应该是IBM的Power6处理器。
将于2006年2月5日到9日召开的“国际固态电路年会”上,IBM的三位工程师将宣读关于Power6的论文,笔者从会前的文章摘要中看到,Power6将采用微处理器全局时钟分配网络(Microprocessor Global Clock Distribution Networks),即将处理器的内部时钟频率分配到各个设备(如随机存储器等)以确定其运行速率的内部网络架构技术,实现5GHz的超高频率和5.6GHz 64KB的双通道片上缓存。Power6还具备在任务周期的执行过程中进行实时修正,修正的结果也可以实时反映出来,无须等待该周期结束后再修正。不过最令人惊奇的是,有消息称Power6将是单核的(如此高的频率,做多核恐怕散热成问题)。如果Power6真是单核高频的模式,那就意味着在CPU的技术方向上,还有另外的道路可以选择――看起来Power6的设计者具备相当的幽默感,尤其是在其他厂商大肆宣传多核的背景下。
硬件系统篇
毫无疑问,Sun在11月份提前发布UltraSPARC T1无论从CPU制造技术上还是CPU的SPEC性能上,都能极大地吸引技术爱好者眼球。那么,2006年全线上市的Niagara系列服务器性能上能否与其他家族抗衡?
根据笔者了解, Niagara系列的前两款产品是Sunfire T1000与Sunfire T2000,这两款产品也可根据需要,对CPU上的核心进行配置,最高配置的T1000(1GHz /8核心/16GB)与T2000(1.2GHz /8核心/32GB)售价分别是10995美元与25995美元,两者完全沿用Galaxy系列架构设计,两款产品将在2006年1季度发布,Sun目前正在对两款产品进行内测。
它们的性能如何?11月份中旬,在Sun的土耳其分公司网站上可以看到SPEC.org对Erie和Ontario所做的SPEC_web2005的测试结果。
从Web服务性能的测试来看,配置1颗8核UltraSPARC T1的Sunfire T2000基本上已接近双Power5+的IBM p5 550,但值得Sun的fans们高兴的是,UltraSPARC T1的最大功耗是79W,而两颗Power5+的最高功耗是360W,所以从价格和耗电量来看,T2000似乎占了点上风。不过笔者也要提醒这些fans们,会有多少人买p5 550和Sunfire T2000来当Web Server呢?所以还是等到TPC-C或TPC-H的测试结果出来后,再下结论不迟。
还有一个值得用户注意的细节,就是Niagara的系统性能相当倚赖高容量的内存,这从T1000和T2000的性能差距可以看出――内存翻番,性能增加50%。如果预算充足的用户将内存配置到Niagara系列的上限值128GB,系统性能应该可以再增加100%左右。
另外值得关注的趋势则是高性能计算机的低成本化。在11月30日到12月2日举行的国际计算机创新大会(CI6016)上,来自中科院计算所、IBM、HP、微软、美国陆军部和美国能源部阿拉贡实验室的发言人都表达了相似的意思,即高性能计算的成本在逐渐降低,而且将进一步降低,其中最为乐观的微软发言人甚至表示,5年后,1万美元将能买到1Tera Flops/s的高性能计算机,而目前实现相同性能的HPC,大概需要数十乃至数百万美元。
而且HPC成本降低的趋势也能从IBM Blue Gene/L的研制看出,2000年IBM开始Blue Gene/L研制,项目成本预算是5亿美元造出峰值计算能力到360Tera Flops/s的超级计算机,现在IBM实现了目标,但总花费大概在2亿美元左右,比计划减少60%。从某种程度上来看,Blue Gene/L的成功增强了开源软件在高性能领域的优势―全球几乎85%以上的HPC都运行着各种Linux。
除了低成本化,HPC对于性能的追求也在2006~2007年间实现突破,除了美国国防部和能源部的高性能计算机计划,日本Riken高性能计算中心和NEC也将推出新的专有HPC系统――蛋白质探索者―这一对外宣称用于分析蛋白质分子作用的专用机(实际上也可用于核爆模拟),将很可能成为世界上第一个千万亿次(Peta Flops/s)量级的系统。
对于国内的HPC用户而言,2006年值得关注的除了HP、IBM、曙光、联想等占据较大份额的传统优势厂商,今年底新进入中国市场的Linux Networx或许不可忽视。Linux Networx尽管成立没几年,但在北美的HPC市场上享有较好声誉,是一个专业的Linux高性能供应商―而且在石油物探、生命科学、环境科学和可视化计算上颇有经验,这和上述厂商的优势颇有重合,相信明年的集群市场的竞争会更加激烈。
网友评论