美人鱼“娜露”养成大事记

互联网 | 编辑: 2004-10-25 13:00:00 返回原文

“Nalu” 娜露是nVIDIA新一代显卡GeForce 6800的代言人,DEMO中主角娜露(Nalu)——大海的女儿,正从深海缓缓游向水面。该DEMO展示了3D图像处理过程中,在对由娜露(Nalu)的长头发和她的皮肤所产生的柔和的阴影进行渲染时,GeForce 6800所能展现的惊人效果。

娜露——大海的女儿

“Nalu” 娜露是nVIDIA新一代显卡GeForce 6800的代言人,DEMO中主角娜露(Nalu)——大海的女儿,正从深海缓缓游向水面。该DEMO展示了3D图像处理过程中,在对由娜露(Nalu)的长头发和她的皮肤所产生的柔和的阴影进行渲染时,GeForce 6800所能展现的惊人效果。

娜露(Nalu)浓密的头发是由一种叫“深度阴影”的技术实时生成的。头发的上部由于光照而发亮,头发的下部则处于黑暗状态;娜露(Nalu)的皮肤被从水面透过的光线所照亮。在她游动时,她的身体和头发产生了柔和的阴影;通过应用“渲染至纹理”的处理技术,从水面透过的柔和的光线,以及娜露(Nalu)身体所产生的阴影都可以很好地表现出来;娜露(Nalu)的高清晰度的皮肤由高表现度的着色技术来生成,而这种高表现度的渲染技术也可用于生成皮肤所产生的柔和的阴影。相关的着色技术让人物图像表现出更明显的凹凸、彩虹以及发光效果;在最后一步的图像处理中,还应用了一束柔和的光线,这束光线让她的头发和皮肤在屏幕上表现出闪闪发光的效果。

小试牛刀,NV1逆境求生存

小试牛刀,NV1逆境求生存

nVIDIA的第一代产品应该是在1995年推出的NV1。虽然NV1是nVIDIA公司的第一代产品,但此款芯片在当时来说技术规格是相当抢眼的。与3dfx的第一款产品—VOODOO不同,NV1拥有完整的2D/3D的图形显示核心(不象VOODOO那样需要一块2D显卡来辅助),最特别的是是其居然整合了一个具有350MIPS(MIPS=每秒百万条指令)性能的声音处理核心,同时还包括I/O处理器,因此NV1应该属于一款多功能芯片,而不仅仅是一款显示芯片。

由于当时很多3D应用的基本标准还没有被确定下来,比如说多边形—现在的3D显卡都是通过生成很多小多边形来构成光滑的3D图像,不过这种技术在当时还没有成为3D游戏的标准,所以nVIDIA选择了二次材质贴图(Quadratic Texture Maps)来实现游戏的的3D效果,这种方式是利用多边形的曲线来计算的,好处是能够让NV1用更少的计算量来显示更光滑的3D物体。

渲染3D物体的材质存储在系统的主存中,当需要时通过PCI或着VESA总线调用。不过,也正是因为这一特点导致了NV1最终是一款失败的产品。因为当时羽翼丰满的微软(Microsoft)在WIN95系统开发中制订了Direct3D API规范—这是一个以多边形填充为基础的3D加速方案,使用多边形、三角形成像技术,允许开发人员编写代码使得它能够在默认的芯片上运行,完全不同于nVIDIA所采用的二次材质贴图。

由于NV1与主流规范不兼容,因此当时诸多的显卡生产厂商中,只有帝盟选择NV1并推出相应的产品。那时候,尽管NV1产品纷纷大降价销售,但是没有得到什么成效。而nVIDIA的工程师不可能第一时间内重新设计出支持Direct3D标准的产品,致使公司进入艰苦奋斗的阶段。此变故对当时刚刚创建两年多的nVIDIA来说简直就是灭顶之灾。

由于当时的Direct3D还没有大规模流行开来,特别是没有在日本推广,这就使nVIDIA有了喘息调整的机会。从95年开始,世嘉Sega成为nVIDIA的合作伙伴,NV1就被用在出名的Sega游戏机上,而且Sega游戏机的游戏设计正是使用正方形成像,使得NV1的正方形成像效果有着出人意料的表现力,比最初的多边形成像更为出色,在日本大为流行。这样,nVIDIA才得以继续在业界立足。


值得一提的是,NV1作为一款显示芯片败于显卡市场,却成功在声卡市场。由于NV1整合350MIPS(MIPS=每秒百万条指令)的声音处理核心,其音频核心拥有32条16位CD音质的并行音频通道和简单的硬件支持3D定位音效,而且它的MIDI部分使用了6MB音效库并全放在容量比较大的系统内存里。这在当时几乎是最先进的做法,NV1几乎就是奠定了PCI声卡的DSL标准。

与NV1同期推出的还有一款STG2000产品,其与NV1一样是一块完善的多媒体加速卡正式发布。两种卡的区别就是在于NV1使用了当时性能更好的VRAM显存,而STG2000使用了DRAM做为显存,其它一样。

NV2引领NV进入历史转折点

NV2引领NV进入历史转折点

nVIDIA的第二代产品是NV2,不过其从未在市场上流通。由于在游戏机方面得到Sega的支持,nVIDIA得以生存下去,并且为Sega的游戏机Dreamcast开发了NV2芯片。原本SEGA世嘉计划在下一代游戏主机(Dreamcast)中采用NV2作为其显示芯片,但nVIDIA却抱定了其二次图像填充技术而不愿意在去开发新的支持三角形技术显示核心,于是二者最终谈判破裂,SEGA最终选择了PowerVR作为其显示芯片,二者的蜜月也宣告结束。NV2无疾而终,也没有用在任何PC显示卡上,从此之后,nVIDIA开始专注于PC显示芯片的设计了。

经过痛定思痛后,nVIDIA意识到虽然二次图像填充技术技术在理论上非常具有优势,但是它并不是一个公认的标准,因此很难指望它得到开发商的支持,而离开了开发商的支持在先进的技术也毫无意义。而当时每个主流图形芯片公司都有自己的API,比如3dfx的Glide、PowerVR的PowerSGL、ATI的3DCIF,但nVIDIA并不打算自主开发专用的API,它决定了要做第一个没有自己的专利权的3D显示芯片公司,并且最终在1996年3月,nVIDIA宣布支持Microsoft通过的API—Direct3D。

这在当时可以看作是一个至关重要的决定,因为在选择Direct3D后,nVIDIA所有的产品都有微软的强大支持,这样通过微软的提携可以给nVIDIA带来巨大的市场。而且nVIDIA决定放弃多媒体芯片的开发,全身心投入2D/3D芯片的研究。致力与开发单芯片的2D/3D电脑图形加速芯片,这无疑会为nVIDIA的研究降低成本。

同时nVIDIA决定采用在那时看来是令人难以置信的每六个月更新一次产品的计划,这样的决定不仅能让公司更快的恢复元气也能避免一个小小的失误就可能葬送整个公司的这个弊病。可以说这些决定造就了nVIDIA历史的一个转折点,由此nVIDIA的发展进入了另一个阶段。

锋芒初显—NV3横空出世(RIva 128)

锋芒初显—NV3横空出世(RIva 128)

在1995年11月,3DFX发布了Voodoo显卡,让人们第一次领略到3D世界的魅力,自此开始几乎所有的3D显卡市场都被3DFX所垄断,其他芯片厂商不是体力不支倒下就是退而避其锋芒。而nVIDIA却初生牛犊不怕虎,在沉寂两三年之后、于1997年的秋天发布了他的新一代图形显示芯片NV3—RIVA 128。

Riva 128是一款具有128bit的2D、3D加速图形核心,采用0.35微米生产工艺,核心频率为60MHz,其内只有一条单材质处理单元的像素管线,也就是说每个时钟周期只能处理一个单纹理的像素—所以它的最大像素填充率是60 Mpixels/s,材质填充率也是60 Mtexel/s。

几何处理器每秒可以进行5亿次浮点运算,生成120万个三角形—这一点也是当时nVIDIA极力宣传的买点,所有三角形全部由内置的硬件三角形处理引擎生成。因为nVIDIA设计这款显示核心主要针对主流市场的,为了降低显卡的生产成本这款核心最大显存容量仅仅支持4MB SDRAM/SGRAM(显存运行频率为100MHz,显存带宽为1.6GB/s)。

当时的3D加速卡市场已由3DFX的Voodoo卡统治的。Voodoo是一块3D PCI子卡,需要配合一块2D显卡才能使用,但是3D加速能力非常优秀,加上3DFX的Glide API,尽管测试得分不及RIVA128,但是在画面质量上还是领先的,兼容性也较好。RIVA 128虽然在Voodoo图形芯片相比,在3D图形质量上稍逊一筹,但低廉的价格和高性能的2D/3D加速,使之成为OEM厂商的最爱。

而Riva128也是当时最早的支持AGP1x规范的显示芯片之一,因为1997年的8月底Intel正式发布了支持第一款支持AGP1x的LX芯片组,将AGP规范引入了主流,这次nVIDIA做出的选择非常明确。1997年底,Dell、Gateway和Micron相继使用了RIVA 128显卡。零售市场上,Diamond、STB、ASUS、ELSA和Canopus等等都相继推出了基于此芯片的产品。久战不胜的nVIDIA也在NV3的带领下取得了一场难得的胜利,而当时如日中天没有人认为会有别的厂商能超过的3Dfx却依然固守着PCI和GLIDE。

但是Riva 128显示核心最大仅仅支持4MB显存,这一点使得它的最大3D分*率只能支持960x720或者800x600。为此在六个月之后,nVIDIA推出了NV3的加强版本—RIVA 128ZX。与NV3相比增强版本的RIVA 128ZX在于这颗芯片所支持的帧缓冲从4MB增加到8MB,增加了对OpenGL的支持,并开始支持2x AGP模式,整合了250MHz RAMDAC所以可以最大支持真彩1280x1024分*率桌面。从总体性能上,RIVA 128ZX同Riva 128依然处于同一个水平,因此,当时的Voodoo、Voodoo2、Verite 2x00和i740还是有一定差距的。

但正是这款NV3使nVIDIA抢占先机,也正是凭借着NV3的出色性能,nVIDIA得以走上正轨为后来的发展奠定了资本基础。

引爆TNT炸药—NV4挑战VOODOO(TNT)

引爆TNT炸药—NV4挑战VOODOO(TNT)

在推出RIVA 128ZX一个多月后,nVIDIA再接再厉发布了其下一代显示芯片—RIVA TNT。这款芯片依然采用了0.35微米工艺制造,核心频率为90MHz(原计划是125Mhz,因设计问题被降为110Mhz,然后又降到90Mhz),真的具有两条渲染管线,两个材质处理单元,但是峰值填充率只有180MPixel/s。

除了大幅度提高了Riva TNT芯片的性能之外,这款芯片的的3D图像质量也有了大幅度的提高。除了提供真彩色支持和 24-bit Z-buffer( 8-bit stencil)支持外,这款芯片还支持各项异性过滤和每像素 MIP贴图,并且最大显存容量提升到16MB。

虽然这款显示芯片没有达到当初设计的标准,但是其性能已经向世人证实了强劲的3D性能不仅仅是3dfx的专利。TNT具有同VooDoo2相近的性能但是却有着更高的图像质量(这里指的是32bit色深具有表达更精细画面的能力,而不是指的TNT的画质在观感上真的超过了Voodoo2)。

不过,TNT发布的时候Voodoo2已经投放市场了,所以在时间上TNT失去了先机。而3dfx也意识到来自nVIDIA的威胁,后来发布了Voodoo Banshee来与TNT抗争。Banshee 的时钟频率为100Mhz,性能和TNT非常接近,不过TNT缺乏的软件兼容性,而Banshee可以和所有为Voodoo系列编写的应用软件兼容。

虽然这款TNT显示芯片没有达到当初设计的标准,但是其性能已经向世人证实了强劲的3D性能不仅仅是3dfx的专利。因此Riva TNT依然得到了其它厂商的热情支持,比如当时的华硕、艾尔莎、华硕都推出了不错的产品。

当然,在之后的半年里nVIDIA还是对于TNT进行了一些改进,相继发布了RIVA 128 TNT stepB和RIVA 128 TNT Ultra两个版本,它们同TNT的最大区别就是核心频率进一步提高了,而且峰值填充率也达到250MPixel/

超越3dfx—NV5完成宿命之争(TNT2)

超越3dfx—NV5完成宿命之争(TNT2)

在TNT发布六个月之后,nVIDIA挟TNT之余威推出了其的新一代显示芯片—NV5,这就是TNT2。从命名之上也可以看出,这是TNT的改进版本,采用了0.25um工艺制造,标准版本运行于125MHz频率,支持32MB显存,支持32bit帧缓冲,支持DVI输出接口,峰值速度250Mpixels/Sec。

RIVA TNT2说不上太多的优点,但是从技术上来说,TNT2充分代表了新一代显卡的特色:128位核心、支持AGP4X、支持32M显存,而且nVIDIA通过和Intel的合作,使得产品兼容性方面有了很大的提高。

TNT2除了支持32bit真彩渲染之外,最大材质贴图也达到了2048x2048,而Voodoo3的仅仅支持256x256。另外,3dfx似乎还是对于PCI总线情有独钟,虽然已经开始采用AGP接口,但是充其量还是一款试用AGP接口的PCI显卡-而当时TNT2已经开始对于AGP4x提供了支持,虽然当时Intel支持该规范的Camino(i820)芯片组还没有正式发布,不过也充分体验了nVIDIA在技术上领先。

3dfx从Vooodoo3开始对于市场开始了细分,分别推出了Voodoo3 2000/3000/3500,而且还有面向OEM市场的Velocity 100/200。nVIDIA也许受此启发,也对于自己的产品进行了细分,先后自己最新图形芯片TNT2划分几个档次分头出击,以争取高中低市场全面开花的结果—先推出TNT2 Ultra、TNT2和TNT2 M64三个版本的芯片,后来推出PRO和VANTA两个版本。

3dfx公司的voodoo 3只是在16位色的3D加速渲染上和TNT2系列打个平手,而在TNT2 Ultra中,nVIDIA更是保证了填充率能达到300Mpixels/s,面对这样的数据3dfx公司可以算是败局已定了。

由于TNT2的出现,使得nVIDIA和3DFX之间的霸主之争出现了命运转折点。由于3dfx公司的voodoo 3只是在16位色的3D加速渲染,而Direct3D和OpenGL的广泛使用也使3DFX的Glide摇摇欲坠,Voodoo系列显卡似乎不在像以前那样辉煌了,3DFX精心构筑的显卡王朝也开始土崩瓦解。

在1999年中,采用TNT2系列芯片的显卡几乎抢占了近80%的显卡市场。虽然凭借TNT2,无论从技术还是市场效应上nVIDIA公司首次超过了3DFX,但nVIDIA还是没有满足,仍在马不停蹄的研发最新的图形芯片以给予敌人最致命的一击,于是乎业界史上具有革命性的章节终于到来了。

GPU时代的来临—NV10(GeForce 256)

GPU时代的来临—NV10(GeForce 256)

在1999年8月,nVIDIA推出了历史上意义重大的显示芯片GeForce 256。最初的开发代码为NV10,GeForce256带来了3D图形的一场革命。从这款芯片开始,nVIDIA将自己的图形芯片称为GPU(图形处理器),从名称上看nVIDIA已经把自己的产品提升到了同CPU相同的级别。这款芯片的研发代号是NV10,它采用了更精细的0.22微米的生产工艺,集成了大约2300万的晶体管—经过与AMD Athlon处理器和Intel的Coppermine核心的pentium III处理器的集成的晶体管数相近。

GeForce256是一款256bit的处理器,支持DDR和SDR SDRAM(最大容量128MB)。它是第一款集成了硬件T&L功能的显示核心,这个功能实现,把CPU从繁重的浮点运算中解放出来,可以从事更加侧重于游戏的AI等方面的工作,也就是说GPU可以承担部分原来由CPU承担的工作了。

在GeForce256核心拥有4条渲染管线,核心频率为120MHz,芯片理论上全速可以达到480Mpixels/Sec。另外,Geforce256还支持多种特效,比如立方环境映射、Dot3凹凸映射和HDTV动态补偿和硬件alpha混合。在显示接口方面,GeForce256率先开始支持AGP4x快写模式,这种方式在理论上比单纯的AGP4x模式会提高30%—这个功能如同AGP4x一样也是非常超前的。

当时Intel和VIA都还没有支持这种模式的芯片组问世。GeForce256在当时已经可以轻松的击败G400 MAX,同ATI RageFury Pro性能相当,而Voodoo3500只有在使用专用Glide API才能超出GeForce256,在D3D和OpenGL API中根本不能同GeForce256相比。

因此GeForce 256无疑是当时最好的显示卡,它带来了最为真实的成像效果,硬件T&L等显示特性无人能敌。在当时的其它主流卡如S3的Savage2000和3dfx的Voodoo4/5都远不是它的对手。随着Geforce256的推出,2000年是图形加速芯片技术水平得到大幅度提高的一年,T&L使显示卡对CPU的依赖减少,显示芯片被称为GPU;FSAA也开始进入实用阶段,可以显著提升3D画面的效果。

值得一提的是,因为NV10所具有的硬件T&L引擎在建模/动画渲染方面具有相当的优势,所以在NV10在基础之上(1999年11月),nVIDIA发布其第一款面对专业图形工作站的显示芯片—Quadro。由于当时市场上的专业级显卡都是采用了多芯片解决方案(比如光栅处理器、几何处理器、RAMDAC甚至显存控制器都是独立的),而Quadro却可以通过一个芯片来实现所有的功能,所以凭借Quadro低成本、性能超群的优势,nVIDIA从此走入了高级专业图形工作站的显示芯片市场。而以后nVIDIA每发布一款新的显示芯片,都会相应推出针对专业图形工作站的显示芯片—Quadro。

傲视群雄—NV15一统江湖(GeForce2 GTS)

傲视群雄—NV15一统江湖(GeForce2 GTS)

按照其六个月的产品周期,在2000年4月底nVIDIA再次投放了一颗“炸弹”,推出了NV10的接班人—NV15,也就是GeFroce2 GTS。除了保留GeForce 256的先进性能,GeForce2 GTS首次采用了0.18微米制程,工作频率达200Mhz,将搭配32MB 166Mhz DDR SDRAM内存, GeForce2与上一代比起来最大不同的地方在于:增强T&L引擎达30%,填图速度增加到1.6GTexel/s,填图速度增加的原因是因为GeForce2的管线能每图素通过2个材质,GeForce共有4条管线,所以200Mhz x 4 x 2=1.6GTexel/s。同时GeForce2 GTS增加了新的视觉效果,如S3TC、FSAA、Pixels Shaders和硬件动态MPEG-2动态补偿的功能。

FSAA当时可是热门话题,FSAA可以大量的改善画质,去除难看的锯齿,甚至是旧游戏也可以让它变得更光滑好看,此前只有3dfx的双VSA-100芯片Voodoo5支持。GeForce2 GTS也可以用硬件FSAA,它的方式是用SuperSampling,但是SuperSampling FSAA只能使用在低分*率,像是640x480和800x600,很显然的,nVIDIA的SuperSampling方式比3dfx的MultiSampling的效率还要差,另外nVIDIA驱动程序没有DirectX的FSAA功能,这有点不太妥当。

GeForce2 GTS除了增加核心频率外,并增加管线来增强填图速度,GeForce256只提供480MPixel/s, 新的GeForce2 GTS已经增加到800MPixel/s。当每个图素用两个材质时,它需要使用两个管线,结果就是能输出双材质图素,如果图素需要3个材质,那么GeForce2 GTS需要2周期完成运算,理论上,Fill-Rate会降到120MPixel/s, 基本上GeForce2 GTS的每个管线有专用的2个材质单元。

由于GeForce2 GTS引入对DirectX7中的Pixels Sharders的支持,使得其能非常精确的控制图素层次,能够各自改变图素的特性像是高度,光影,透明度……等等。当用传统方式,光影效果使用顶点光源技术处理,每个三角顶点收到光源数值,会根据位置改变光源和方向,它主要的优点是速度快容易使用,但是无法控制图素层次。

GeForce2 GTS可以使用单图素双材质而不会造成效能上的损失,就算是跑全屏幕图素阴影也不会有问题,实际上,它比需要3材质的环境曲面贴图效果略为逊色。在当时只有ATI Radeon256能够跑环境曲面贴图而不会造成效能太大的损失,而从此时开始ATI走上和nVIDIA正面抗衡的道路。

其后,nVIDIA在GeForce2 GTS的基础上,通过提升频率的方式延伸出5种产品,具体情况是这样的:后来频率提升到200/400MHz的称为GeForce2 Pro,而提升到250/460MHz的称为GeForce2 Ultra,最后,在2001年9月推出的GeForce2 Ti是频率达到250/400MHz的产品。

由于GeForce2 Ultra的市场定位很高,所以销售数量不大,而GeForce2 Ti的性能与价格都比较适合市场,导致几度脱销,为了承接市场,nVIDIA又在GeForce2 GTS产品中筛选了一批频率能都达到200/366MHz以上水平,又达不到250/400MHz的产品作为GeForce2 Ti VX进行销售。

而针对低端显卡市场,nVIDIA则推出了NV15的精简版本—NV11(即GF2 MX),在核心速度不变的基础上减少了图形渲染流水线,只有GF2 GTS一半,全速运行的时候图像填充率最高只有700Mtexel/Sec和350Mpixels/Sec,而内存接口的带宽也只有64位。MX芯片的部分功能虽然减低了性能,但也降低了他的生产成本和耗电量,大多MX显卡都无须加装额外的风扇,稳定性还是很好的。

加入了数字振动控制(DVC),TwinView(双头显示)功能,而且GF2 MX超频性也不俗,使MX成为了当时性能比最佳的显卡。之后,GeForce2 MX延伸为两个型号,GeForce2 MX200和GeForce2 MX400,GeForce2 MX200保持了原来GeForce2 MX的核心频率175MHz,显存位宽限制到GeForce2 MX的一半,只有64bit,而且nVIDIA官方声称GeForce2 MX200只支持SDR显存,所以GeForce2 MX200的性能在高分*率下受到比较大的限制。

而GeForce2 MX400是在保持GeForce2 MX的显存位宽的情况下将核心频率提升到200MHz,GPU的多边形生成率等指标有一些提升。而在2000年末, nVIDIA推出了自己的第一款用在移动电脑上的产品-GeForce2 GO。完全基于GeForce2 MX设计而成的显示芯片,支持GF2 MX所支持的特性,但是仅能支持到720P分*率的HDTV,芯片的核心速度也比较慢,所以图形填充率只有286Mpixels/Sec,纹理填充速度只有572Mtexels/Sec。

随着NV15的推出,当时很多显示芯片业的对手几乎已经是面对nVIDIA毫无还手之力,而且2000年11月nVIDIA收购了末落的3dfx,从此nVIDIA达到了高手寂寞的境界。不过,此时另一个强大的对手也正在倔起,随着ATI发布RADEON(第一款支持DirectX8的GPU),ATI成为了nVIDIA最强大的挑战者。

延续辉煌—NV20(GeForce 3)

延续辉煌—NV20(GeForce 3)

在了2000年,nVIDIA以卓越的3D性能称霸3D显示芯片市场已经有将近2年的时间了,从技术观点而言,nVIDIA的芯片一向都很超前。不过,ATI在2000年7月份所发布的Radeon芯片后,nVIDIA首次感到来自ATI的威胁。

ATI的Radeon 绘图芯片所包含的技术有:画面间插补(keyframe interpolation),四组矩阵贴皮(four-matrix skinning),环境景观贴图(environment bump mapping),特有的3D纹理(3D-textures)和HyperZ等。这些技术,在GeForce 2上可没有。

而且最突出的是Radeon支持Microsoft(微软)的DirectX 8里的几项新的特性而nVIDIA旗下的 GeForce 2 只支持 DirectX 7 的规格。终于在2001年2月,nVIDIA在Macworld Expo Tokyo 2001上发布其第八代显示芯片—支持DirectX 8的NV20(即GeForce3)。

GeForce 3首次采用0.15 微米技术、集成了5700百万个晶体管,是GeForce 2的两倍多,每秒可以进行8000亿次运算和760亿次浮点操作,完全支持DirectX 8和AGP 4x总线。NV20芯片核心频率是200MHZ,仍然采用4条像素流水线,每个像素每个周期可同时处理两个纹理,内存接口仍然是128位,频率为460MHZ DDR,像素填充率达到了8亿/秒。

还采用了优化显存带宽的光速存储结构(Lightspeed Memory Architecture),将每秒贴图像素处理速度飙升至32亿。而最令人睹目的应该是GeForce 3引入了一个高度可编程的动画和效果引擎—“nfinite FX”引擎,从而使GeForce 3成为第一款具有完全可编程能力的GPU。

nfiniteFX引擎的像素阴影(Pixel Shaders)处理和顶点阴影(Vertex Shaders)处理使得程序开发者可以“肆无忌惮”地实现丰富的特效和视觉效果。开发者再也不用桎梏于从硬件编码的调色版择色,搭配出一些千篇一律的图象效果;Geforce3将允许他们随意地制造独有的效果来。借助于nfiniteFX引擎,游戏和多媒体应用将展现惊艳绝伦的视觉效果。

此外,在GeForce 3上nVIDIA还采用了更先进的反锯齿技术,如超采样抗锯齿、多点采样抗锯齿 、五点梅花抗锯齿。其中五点梅花抗锯齿是nVIDIA独创的反锯齿技术。五点梅花抗锯齿其实也是一种超采样抗锯齿技术,其先对5个像素进行过滤运算,产生出一个像素。五点梅花抗锯齿运算出来的抗锯齿画面效果非常不错,同4倍分*率的抗锯齿类似,的速度要比后者快很多。同时nVIDIA的工程师看到Radeon凭借HyperZ技术带来了很大的性能提升,所以在GeForce 3中加入了类似的设计如Z轴压缩、Z轴啮合剔除,从而提高了渲染效率。

与GeForce2 GTS一样,GeForce 3后来按其核心频率和显存频率的差别,发展成以下几个型号:GeForce 3、GeForce 3 Ti 200、GeForce 3 Ti 200 128MB、GeForce 3 Ti 500、Geforce3 Ti500/128M。

GeForce 3让nVIDIA再次领先于对手,但随着ATI发布Radeon 8500,终于两强相争时代再次来临了。

危机初显—NV25(GeForce 4 TI)

危机初显—NV25(GeForce 4 TI)

2001年ATi就发表其第2代的Radeon 8500显卡,在最初发表时的逻辑运算功能问题影响解决之后,它便开始挑战nVIDIA的霸业,并在市场上连续发生过几次口水战。而nVIDIA的霸业仍未曾动摇,而最好的时候,8500亦仅止于与nVIDIA打得势均力敌─虽然仍是不小的成就。

到最后,GeForce3在数方面证明其优于对手的实力。紧接而来GeForce3 Ti产品线的快速发表,用意仍是巩固nVIDIA领先的地位,让该公司能有休息的机会。步入2002年,面对步步紧*的ATi,这时位于圣克拉拉的GPU研发者又一次领先的时候到了。

在此前这段时间,nVIDIA是很幸运的,因为在3D绘图的状况是不同于我们在处理器业界所看到的状况,在3D的领域,情况比较好。如果你看了最新的3D显卡,你将会知道还有很多可以改进的空间。于是,nVIDIA根据这个理念,发布了其第九代产品—NV25(GeForce4 Ti),将3D显卡的“写实主义”发展到另一个阶段。

研发代号为NV25的GeForce4 Ti在当时主要是针对高性能图形市场推出的GPU图形处理器。GeForce4 Ti芯片内部包含的晶体管数量高达6千3百万,绝对要比GeForce3复杂得多,它仍使用0.15微米工艺生产,但采用了新的PBGA封装,运行频率达到了300MHz,配合超高频率的325 Mhz DDR显存提供的10.4GB/秒的显存带宽,可以实现每秒49亿次的采样。

GeForce4 Ti虽然是nVIDIA第九代产品,但它从架构上来说并不算一个全新的产品,而是在GeForce3的基础上发展升级而来的。它仍是4条渲染流水线,每条流水线包含2个TMU(材质贴图单元),但GeForce4 Ti是依靠其他方面的改进和增强来实现提高性能的目的。

GeForce4 Ti在T&L单元方面拥有nfiniteFX II引擎,它是从GeForce3时代开创的nFiniteFX引擎改进而来的。在GeForce3中只有一个顶点着色引擎,而GeForce4 Ti配备了两个。两个平行的顶点着色引擎是可以在同一时间处理更多的顶点。

两个单位都是多线程与多线程处理,并在芯片上执行的,因此可以通过应用程序或API来获得性能上的好处。指令的分配是由NV25所处理的,但是那必须去确认每个顶点着色引擎处理的是不同的顶点,这样才会使平行处理变得较实用。顶点着色引擎是从GeForce3内的原始版本所优化而来的,因此降低了指令的延迟。

总而言之,你可以简单的说GeForce4 Ti可以处理三倍于GeForce3 Ti的顶点数量,因为它有两倍的顶点着色引擎,并且也更先进,同时也以更高的频率在运作。不过,两个顶点着色引擎配置在同一片芯片上并不是全新的设计,因为nVIDIA提供给Microsoft的Xbox所使用的芯片也配备了两个顶点着色引擎。NV25是源自于一个较先进的版本。 同时nVIDIA也改进了GeForce4 Ti像素着色引擎的功能,支持像素着色引擎1.2与1.3,但是不包含ATi的1.4扩展指令。

此外,GeForce4 Ti也同时引入了LightSpeed Memory Architecture II(LMA II)光速显存构架II技术,通过优化渲染过程及数据压缩等技术,大大节省了显存带宽,提升了显卡的性能表现。在全屏反锯齿方面,GeForce4 Ti采用了新的Accuview AA技术。

nVIDIA使用「新的取样位置」来改善AA的品质,因为可以减少错误堆积,特别是使用Quincunx AA的情况下。新的过滤技术会在每次(多重)取样时被一起执行来产生反锯齿的帧,并且省下了完整的帧写入,这样可以大幅改善AA的性能。基本上,Accuview应该可使AA看起来更好看,并且跑的更顺。

GeForce4可以把nVIDIA特有的「Quincunx」-AA执行像一般2x-AA一样快。除此之外,nVIDIA增加了额外的模式,叫做「4xS」。这个模式应该看起来会比4x AA模式好很多,因为增加了50%的子像素覆盖范围(不过这个模式只支持Direct3D游戏,不支持OpenGL)。通过采用新的取样方式并优化执行过程,GeForce4 Ti在这方面的速度是GeForce3的2倍,它保证了高分*率下的运行速度,取得了性能和画面品质之间的平衡。此外,为了保证在高分*率下全屏反锯齿对显存容量的需求,GeForce4 Ti都配备了128MB的显存。

象GeForce 3一样,GeForce4 Ti按其核心频率和显存频率的差别,也分有几个型号的产品:GeForce4 Ti4600、 GeForce4 Ti4400、GeForce4 Ti4200。不过针对最新的AGP8X规范,由于NV30迟迟不能上市,为了填补这个空当,nVIDIA在NV25的基础之上推出了NV25的AGP8X版本—NV28。

由于NV28图形芯片除了支持AGP8X,仅仅是核心频率和显存频率略有提升,其他相比NV25并没有什么大的改变。NV28也有三个型号的产品:GeForce4 Ti4200-8X和GF4 TI4800SE和GF4 TI4800。GeForce4 Ti4200-8X和GF4 TI4800SE和GF4 TI4800可以看成是GeForce4 Ti4200、GeForce4 Ti4400、GeForce4 Ti4600的AGP8X版本。

在此期间,nVIDIA也推出了GeForce2 MX的后继者—GeForce4 MX(研发代号为NV17)。GeForce4 MX并不是源自GeForce4 Ti的核心而源自于GeForce2 MX所采用的NV11图形核心。与GeForce2 MX相比,GeForce4 MX最主要的改良是拥有较高的频率与两段交错式内存控制器的LMA II(GeForce3与GeForce4 Ti有四段),可以增加可利用的内存带宽。

内存带宽的缺乏,在前一代的GeForce2 MX中会导致性能的剧减,而GeForce4 MX的情况则要好得多。GeForce4 MX系列的芯片频率为250—300MHz ,显存频率166—550 MHz。GeForce 4 MX系列除了GeForce 4 MX 420 采用SDR显存外,GeForce4 MX440SE既有采用SDR显存的,也有采用DDR显存。其他的都采用的是DDR显存。和GeForce4 Ti一样,GeForce 4MX系列后期也出现了改良的AGP8X版本—代号为NV18。

随着GeForce4 Ti发表,让nVIDIA的实力看来锐不可挡,成功的保住了3D显卡性能第一的宝座、在对抗中再次占了上风。但好景不长,nVIDIA的恶梦终于到了。ATI这们挑战者这时候改变了战略—它们放弃在8500系列上做修改(这是nVIDIA所采用的方式)。这家加拿大公司集中全力研发新一代的产品。

在2002年7,ATi正式发表旗下最新、采用全新架构设计的R300。R300作为第一款支持DirectX 9和采用256bit显存控制器的显示核心,一出场就引来万众瞩目。它也使AIT第一次在性能上全面超越nVIDIA。至此ATi不只在游戏环境中为自己拿下王位宝座,亦成为这个技术领域中的领导者,nVIDIA也面临了自收购3dfx后的严重生存危机。

但是,坐上性能王位并不等于就是市场老大,况且nVIDIA也并非当年的3dfx那样只有单一的3D显示芯片业务,它在移动图形芯片、专业绘图芯片、游戏界甚至主板芯片等领域等都有着不俗的业绩。老练的nVIDIA通过降低GeForce4 Ti/GeForce4MX系列的售价仍牢牢地占据着主流中低端显卡市场,并加紧推出一下代新品!

失败之作—NV30(GeForce FX)

失败之作—NV30(GeForce FX)

面对着R300强劲的挑战,nVIDIA唯有加快NV30的开发进程,但是一直以六个月为产品开发周期的nVIDIA却偏偏在这个节骨眼上跟不上自己制定的步伐。原计划在2002年秋季发布的NV30一拖再拖,直到11月份才发布芯片,这与当年3dfx发布与GeForce系列相抗衡的Voodoo5难产真的颇有“形似”的迹象。

NV30作为第一款支持DDRII显存的产品,一推出就令人著目。Geforce FX5800 Ultra是业界第一种能在台式机上对图形和特效提供实时渲染,效果可达到电影级别。该系列GPU具有nVIDIA引以自豪的CineFX引擎并支持CG等高级编程语言,可在短时间内制造出相当大片的视觉效果。其上带有的晶体管数量差不多是上代NV25的两倍。

而最为引人注目的莫过于它实现了对基于DirectX 9核心的Pixel Shader 2.0、Vertex Shader 2.0等技术特性的完整支持,在技术和性能上反超竞争对手对于现在的nVIDIA来说是至关重要的,尽管这仅是相对于半年前问世的R9700Pro而言。此外FX还拥有同是8条,但在单个时钟周期运算速度较R9700Pro更快的渲染流水线。

Geforce FX最值得自豪的莫过于“CineFX”的引擎架构,支持OpenGL、DirectX 9.0的Pixel Shader 2.0+与Vertex Shader 2.0+ 全兼容的实时渲染,号称可以提供达到电影级别的游戏画面给游戏玩家。硬件级别的Shader引擎和CG语言的结合让游戏开发人员可以轻易的写出画质优秀的程序,而且图形渲染流水线内置128-bit颜色精度,红,绿,蓝以及Alpha值各分配32bit,色彩的精度达到了前所未有的丰富。

随后,于是今年在3月6号,nVIDIA在日本正式推出了针对主流的中低端显卡市场、NV30的精简版本系列显卡中的NV31、NV34来取代主流的GeForce4 Ti和GeForce4 MX。

不过GeForce FX 5800 Ultra面临着显卡结构复杂导致生产困难、成品率较低的困扰,而且128bit的显存带宽严重制约了其性能的发挥,GeForce FX 5800 Ultra仍不能让nVIDIA摆脱竞争对手的追击。与此同时ATi很快就在2003年4月推出了采用R350核心的新产品Radeon 9800 Pro,毕竟他在Radeon 9700 Pro推出后也并没有闲着,本来Radeon 9700 Pro与GeForce FX 5800 Ultra相比就只是略处下风而已,所以由它改进而来的Radeon 9800 Pro尽管进步不算很大,但仍足以使ATi在竞争中再度占据优势。

返回原文

本文导航

每日精选

点击查看更多

首页 手机 数码相机 笔记本 游戏 DIY硬件 硬件外设 办公中心 数字家电 平板电脑