2000年的PC图形市场竞争并不比CPU市场上AMD与Intel之间的竞赛逊色,包括了3dfx、nVIDIA、ATI、PowerVR等大牌图形芯片厂商都各自推出了新一代显示卡产品,势必要在庞大的图形卡市场各捞一笔,竞争的结果之一就是提高了图形产品的性能,另外产品种类的丰富也使用户有了更多的选择余地。下面就向大家介绍一下2000年显示卡产品的新技术、选购策略以及展望未来的图形技术。
一、2000年3D图形技术发展
1.T&L
T&L(Transform and Lighting,多边形转换与光源处理)是3D图形运算过程中非常关键的一步,在nVIDIA推出GeForce 256之前,几乎没有任何人谈论到T&L的重要性。当芯片制造商发现多像素和多纹理己不能满足人们需要的时候,只好重新把注意力集中到T&L上。与游戏机比较,电脑CPU的T&L能力相当差,毕竟PC不是纯粹拿来玩游戏的,为了补足这个缺陷,nVIDIA把新的图形芯片设计成为GPU(Graphics Processing Unit,图形处理器),增加了T&L功能,大大减轻了CPU的负担,从而在很大程度上提高了3D处理的整体速度。
由于现阶段大部分游戏都是应用大型纹理以提高画质,因此T&L所强调的小多边形处理并无太大用处,游戏性能的升幅不算惊人。所以说,T&L是面向未来游戏的,随着分辨率和纹理尺寸的不断增加,小多边形的用途一定会受到人们的重视。特别是在光源处理方面,纹理和光线的结合将使游戏变得更加漂亮。
像素填充率对光源处理也有一定影响,如果填充率不足,开启多个光源处理时,会抢占显示芯片资源。因此在购买显卡时,我们一定要看清光源处理是以硬件还是用软件方式实现,只有硬件光源处理才会防止多光线应用时总体性能下降。许多人误认为OpenGL游戏可以自动加入硬件T&L,其实是否支持T&L是由游戏本身决定的,如果游戏不能调用GPU上的T&L并作出优化,再好的显卡也是无济于事。因此,T&L的应用还需要更多软件的支持。
T&L代替了CPU的大部分3D处理工作,但并非表示我们不需要强力的CPU。硬件T&L比软件处理需要更多的带宽,如果CPU、芯片组、内存、总线的速度跟不上,显卡只有等待其它设备,T&L就不能完全发挥其效能。
T&L是非常复杂的3D图形加速技术,它增加了运算的过程,为我们带来了更真实的3D效果。
2.T-Buffer
3dfx在VSA-100芯片上采用了T-Buffer技术,T-Buffer技术包括了全景抗锯齿、动作模糊Motion Blur、景深Depth of field等特殊的3D效果。
动作模糊(Motion Blur):类似电影中使用“残像身影”的特别效果,以几幅图像(子帧)组成一帧画面,然后以30~70帧/秒之间的速率进行播放(60帧/秒是一个比较好的速度),所以能够令人对移动中的物体产生一种飘拂不定的感觉。而且只需要刷新变动过的物体,无须重画整个场景,就能产生动作模糊的效果。
多重境深(DOF:Depth of Field):多重境深与人眼聚焦相似,当你近看某一固定物体时,其它物体都是糊模的,反之亦然。抗锯齿大家则熟悉得多了,但T-Buffer的抗锯齿又与普通的不同,它是在子帧中添加了特效,并使子像素产生糊模现象。可以说,多重境深是糊模的一种应用,把移动物体的各个位置图案分别保存在多重缓冲区后,再组成一幅图像,你的焦点就会随图像的变化而移动,产生聚焦的特殊效果。
全景抗锯齿(FSAA,Full Scenc Anti-alasing):抗锯齿,故名思义,就是为了防止图像出现锯齿状边缘的处理技术。实现的方法并非想象中简单,最廉价的办法是不断增加像素数量到人眼看不见的程度即可,只要分辨率越高,图形所用的像素越多,画面上的锯齿就越少。但这并不是一种好的办法,T-Buffer的全景抗锯齿技术不用增加分辨率,就能使图像边沿的锯齿变得平滑,它使用了特别的图像处理算法。
各家所用的抗锯齿方法:
3dfx采用的抗锯齿方法:T-Buffer采用前所未有的算法完成抗锯齿的功能,大大减轻了3D芯片的工作量。在T-Buffer中,抗锯齿可以看成是特殊的多重境深,它用子像素来代替旧式的着色抗锯齿,把几个子像素存储于多重缓冲区中,并合成一个完整的像素,样图的分辨率取决于子像素的分辨率,而与实际画面无关,因为用高分辨率数量的像素来描绘一幅低分辨率的图片,3D物体的边缘当然变得更加平滑啦。
我们来看看GeForce 256和GeForce2 GTS使用的抗锯齿处理方法“超级采样”(Super-Sampling),通过上行采样3D场景中的坐标,先确定水平和垂直方向,用简单的坐标和像素通过运算计算出上行采样结果。接着对所有上行采样几何物体进行渲染,在非屏幕缓冲做完抗锯齿之后,像素回复它原来的分辨率大小。其实nVIDIA采用的这种超级采样抗锯齿方法,是3D图形工业界一直以来采用的顺序栅格超级采样OGSS(Ordered Grid Super-Sampling),使用这种超级采样方法,虽然一定程度上解决了锯齿现象,但也有一些缺点:
- 由于抗锯齿简单的来说是要填充成倍的像素,这势必是要以大量填充作为前提,对于显示卡的填充能力来说是个不小的考验,经两次采样的要比普通图象多两倍的填充像素。
- 纹理和多边形的位置决定了像素的色彩需求信息,对于显存带宽要求高;
- 在某些情况下,使用OGSS采样方法会失掉了两个灰度级过度颜色,削减了画面的平滑过渡效果,通常称之为BAC(Bad Angle Case,边角损坏采样)。
填充的像素要求提升,对于填充能力来说是个考验,当你在800×600分辨率下使用4x采样进行抗锯齿处理,结果你会发现运行的速度跟在1600×1200分辨率下差不多。同样的情况都出现在3dfx的Voodoo5中,3dfx芯片在1280×1024@32分辨率下不能使用FSAA。而且OGSS抗锯齿方法对于画质的提升不明显,与3dfx采用的RGSS(Rotated Grid Super-Sampling,旋转栅格超级采样)处理方法相比,OGSS处理的效果不及RGSS。4x OGSS抗锯齿画面效果只等于2x RGSS。
一副原始分辨率为100×10的画面,提升为150×15然后再缩小为100×10,结果我们可以看见边缘部分的锯齿现象果然有所改善。要注意的是,这时候需要填充的画面约为原来的两倍,当逐渐提升分辨率到200×20、300×30、400×40,需要填充的画面已经变为原来的400%、900%和1600%,nVIDIA称之为2x、4x、9x和16x超级采样。
3.双显示技术
双显示输出技术包括了Matrox公司在G400上使用的DualHead、nVIDIA在GeForce2 MX上使用的TwinView技术,两种技术名称不同,功能性质是一样的。
G400通过Windows 98多屏显示功能,能利用双头显示技术达到两块显卡同时工作的效果。双头显示技术可以将两个同时发生但各自独立输出的图像显示到两个不同的显示设备上,这些设备包括两台普通CRT显示器、一台CRT和一台电视机,或者是一台CRT和一台LCD显示器等。由于两路视频具有独立的处理及数模转换功能,所以将信号输出到电视时可独立调节各设备上的刷新率、分辨率及色彩深度。其中第二个屏幕最高支持1280×1024@32bit/60Hz的模式。G400 Max由于使用了360MHz的RAMDAC,因此显示效果更好,避免了画质下降的情况出现。
4.Beyond-AGP 4x
AGP图形加速端口发展到AGP 4x,图形数据传输带宽已经达到了1GB/s,但是在日益剧增的大型3D应用程序面前仍然显得力不从心。开发和制订AGP标准的Intel最近又开发出改进的AGP 2.2规范——Beyond-AGP 4x(超越AGP 4x)。
Beyond-AGP 4x采用改进的设计,可以提升图形性能,支持现有的AGP标准和未来的协议,符合Beyond-AGP 4x标准的显示卡可以使用在目前的AGP 4x主板上。同样,主板厂商也可以很容易地设计出既支持AGP 4x又支持Beyond-AGP 4x的主板,这样可以保证用户在无需大升级也能同样享受到图形性能提升的好处。
Beyond-AGP 4x就是未来的AGP 2.2标准协议,具有几种超越AGP 4x的改进设计:
- 它维持现有的AGP卡接口,板卡的电路设计和元件用料将类似现有的AGP显卡产品;
- 用新的更有效的信号安排,可实现两倍于AGP 4x带宽所需要的运行速度;
- 以避免更多的成本消耗,因为Beyond-AGP 4x使用目前已经存在的AGP软件基层设计;
- 为了保证各方采用Beyond-AGP 4x,该接口的成本花费接近上一代AGP,另外,Beyond-AGP 4x消耗的电量将维持AGP和AGP Pro的标准。
Beyond-AGP 4x的重大改进莫过于提升图像总线的传输率,在过往,虽然所有的显示卡厂商都生产基于AGP接口的显示卡产品,但是AGP 4x只有1GB/s的图形数据带宽是远远不足使用。如今采用DDR显存的显示卡本地显存带宽已经达到了5.3GB/s,但是花费也昂贵。在平衡价格与性能之间的差距,Beyond-AGP 4x体现出重大的价值。更重要的是,Intel声称要升级到Beyond-AGP 4x图形系统无需要换整个系统,起码我们不需要把主板换掉。
显示芯片厂商在2000年推出各种各样的3D图形技术,除了使其产品增强了竞争力,也使用户能获得更实用的功能。T&L、T-Buffer和全景抗锯齿技术无疑是最能体现新一代显示卡产品所拥有的新功能,虽然目前它们的应用还比较缺乏软件的支持,但是显示芯片厂商终于意识到,单纯提升分辨率以及提升显示芯片、显存工作速度只是幼稚的做法。
网友评论