• 阅读5576
  • 回复50

显卡风云录:回忆曾经的经典之作

[复制链接]
发表于 2006-2-17 08:02 | 显示全部楼层 |阅读模式

当前第1页:写在最前面的话

显卡是电脑中很有特点的一个主要部件,而且对于大多数的游戏玩家而言,它的重要性甚至比电脑心脏(CPU)都要大得多。原因是:电脑必须将由CPU处理完的数字信号转化为模拟信号才能被人们识别。对于影像,完成这一转换功能的部件就是显卡。当前的桌面显卡市场已经成为一个群雄割据的大陆,各个厂商都在竭力推崇自己芯片的板卡,这使得板卡的更新速度越来越快,许多当年叱咤风云的显卡厂商早已隐退江湖,于是我们决定制作一篇桌面显卡的完全参考手册,将近些年来优秀的200多种显卡分类的评测数据进行整理,并对10个品牌的显卡的历史进行评述,希望能够给那些对市场上不同桌面显卡感兴趣的朋友们得到更大的参考和帮助!

六安论坛
 楼主| 发表于 2006-2-17 08:03 | 显示全部楼层
当前第2页:nVIDIA-从失败开始的NV1、NV2 本文共 50 页


谈起nVIDIA公司,很多人都会想到当代显卡市场的霸主,但是你是否知道,曾经的nVIDIA公司只是一个无名小卒,从失败到成功,到底nVIDIA公司是如何励精图治达到顶峰?让我们来真正的体会一下nVIDIA公司的那段不寻常的故事!

1.从失败开始NV1、NV2

谈起nVIDIA公司的历史,那么至少要追溯到1993的1月,当时nVIDIA的总裁兼首席执行官Jen-Hsun Huang还是LSI Logic的“system-on-a-chip”的核心软件主管。nVIDIA的首席技术长官Curtis Priem则是构建过第一块 PC 图形处理器,IBM专业图形适配器的技术师。而Chris Malachowsky,硬件工程副总裁,则是 Sun Microsystems 的资深高级工程师,也是GX图形体系的核心设计者。三个人在当时3D显卡刚刚兴起的时代一拍即合,开始努力研发nVIDIA的第一款3D图形加速芯片。

经过2年多的不懈努力,在1995年5月,nVIDIA的第一代产品NV1终于推出,这也是nVIDIA第一次开始向3D芯片领域进军。在当时,许多3D标准尚未建立,多边形还没有成为3D游戏的标准,nVIDIA选择的3D实现方式是二次方程纹理贴图而不是多边形。就是这样,它还是拥有了完整的2D/3D核心,而且nVIDIA的第一件产品NV1也不只是一个单纯的图形加速器,它整合了一个具有350MIPS的声音“单放”处理核心,这使得它有 32 路并行音频通道,16位CD音质和实现简单的 3D音效的硬件相位调整,NV1实际上比许多第一代PCI声卡更加引人注目。 并且首次在显卡上采用VRAM做显存储器。NV1的游戏端口远远胜过传统的15针游戏端口,它直接支持世嘉土星游戏手柄和游戏操纵杆,可以用在支持直接输入的游戏中。

但是由于当时微软在Windows 95系统开发中制订了Direct3D API规范(一个以多边形填充为基础的3D加速方案,使用多边形、三角形成像技术),允许开发人员编写代码使得它能够在默认的芯片上运行。要命的是nVIDIA采用了和Microsoft的Direct3D API不同的标准,虽然 NV1 拥有透视画法、二次方程纹理贴图等出色的技术,但是它还是无可挽救的被宣判了死刑。不管 nVIDIA 和 Diamond 怎么努力,开发者都不再愿意为 NV1 开发产品了。为了争取用户,Diamond 大幅度消减了 Edge 3D 的价格,并且捆绑附送一个世嘉的游戏手柄,但一切都无济于事。 又因为运作开发方面的原因,它没能打开主流市场。不过其中提供的二次方程纹理映射功能还是给我们留下了深刻的印象,从那时候起,nVIDIA逐渐在很多人心目中树立起技术派先驱的形象。

  由于微软的Direct3D,nVIDIA差一点就扼杀在初始阶段。兵器PC OEM厂商也拒绝接受不兼容Direct3D的芯片,这时的nVIDIA清楚,他们短时间内不可能拿出一件全新的支持 Direct3D 的图形加速器投放市场。公司从公众热点中撤退了,被迫解雇部分员工。

  nVIDIA不得不把希望寄托在世嘉的土星游戏机芯片制造上,由于世嘉公司的资助,nVIDIA公司开始研制NV2芯片。这个芯片促进了世嘉土星游戏机附件的销售,世嘉的程序员也熟悉了二次方程曲面。更重要的是,Direct3D 还不是非常流行,只要能获得更好的性能,许多日本游戏机程序员都打算并乐意采用非传统的二次方程曲面。在这个时期当中,世嘉斥资用于NV2的研究工作,这一点对 nVIDIA 来说其意义之重大,是我们现在不能想象的,也许,如果没有世嘉对NV2的支持,nVIDIA也活不到今天。但是,世嘉最终放弃了 NV2,并和PowerVR签订了合同,NV2彻底失败了!


不幸失败的NV1

六安论坛
 楼主| 发表于 2006-2-17 08:03 | 显示全部楼层
当前第3页:nVIDIA-初显身手的NV3-RIVA128 本文共 50 页

2、初显身手的NV3-RIVA128

  NV1、NV2的失败使得nVIDIA公司元气大伤,是继续延续与游戏机厂商的合作,还是转向pc图形芯片的研究,成为了当时nVIDIA公司不得不仔细考虑的一件大事,而这也成为了公司成功的转折点!公司最终选择了后者,于是,nVIDIA将精力全部投入到pc图形芯片的研制当中。不久之后,工程师开发出了针对DirectX的NV3也就是后来为大家熟知的RIVA 128。这也是第一个提供硬件三角形引擎的图形芯片,虽然RIVA 128的图像质量比不上3dfx Voodoo,但是凭借100M/秒的像素填充率和优良的性价比RIVA 128还是迅速赢得了用户和OEM厂商的心。

而且Riva128也是当时最早的支持AGP1x规范的显示芯片之一,因为1997年的8月底Intel正式发布了支持第一款支持AGP1x的LX芯片组,将AGP规范引入了主流,这次nVIDIA做出的选择非常明确。1997年底,Dell、Gateway和Micron相继使用了RIVA 128显卡。零售市场上,Diamond、STB、ASUS、ELSA和Canopus等等都相继推出了基于此芯片的产品。久战不胜的nVIDIA也在NV3的带领下取得了一场难得的胜利,而当时如日中天没有人认为会有别的厂商能超过的3Dfx却依然固守着PCI和GLIDE。

  但是Riva 128显示核心最大仅仅支持4MB显存,这一点使得它的最大3D分辨率只能支持960x720或者800x600。为此在六个月之后,nVIDIA推出了NV3的加强版本—RIVA 128ZX。与NV3相比增强版本的RIVA 128ZX在于这颗芯片所支持的帧缓冲从4MB增加到8MB,增加了对OpenGL的支持,并开始支持2x AGP模式,整合了250MHz RAMDAC所以可以最大支持真彩1280x1024分辨率桌面。从总体性能上,RIVA 128ZX同Riva 128依然处于同一个水平,因此,当时的Voodoo、Voodoo2、Verite 2x00和i740还是有一定差距的。

  但正是这款NV3使nVIDIA抢占先机,也正是凭借着NV3的出色性能,nVIDIA得以走上正轨为后来的发展奠定了资本基础。

nVIDIA公司在RIVA 128上的成功立刻激起了全体员工的斗志,于是,一项宏大的计划就此开始了,在发布RIVA 128的升级版RIVA 128ZX仅仅一个月之后,nVIDIA公司向公众透露了其下一代产品RIVA TNT的部分细节,传说中的TNT拥有双像素32位色深引擎的产品,可以一次给一个像素使用2种纹理,或者每个时钟周期处理2个像素,填充率也提高到了180M/秒。并且提供了24位Z-缓冲,支持各向异性过滤和逐点映射贴图等新特效,而显存也增加到16MB,晶体管的数目也让人感到吃惊。事实证明,TNT的确像烈性炸药一样把市场搅了个天翻地覆。


RIVA128(NV3)

六安论坛
 楼主| 发表于 2006-2-17 08:03 | 显示全部楼层
当前第4页:nVIDIA-惊天的炸药NV4、5-TNT、TNT2 本文共 50 页

3、惊天的炸药NV4、5-TNT、TNT2

TNT(TwiN Texel) 引擎是一个双像素 32 位色深流水线,它可以让 TNT 一次给一个像素使用两种纹理,或者每个时钟周期处理两个像素,填充率提高到 250M 像素/秒。 除了性能之外,RIVA TNT 还有一个显著的特点就是图象质量有了质的飞跃。除开支持真彩色,24 位 Z-缓冲,这个芯片还支持各向异性过滤和逐点映射贴图,显存增加到 16M,晶体管的数目直逼 Intel Pentium II。三月底,nVIDIA在兴奋的余热中宣布了新产品,但板卡的发售还要等到秋天。最后,TNT的时钟速度降到了90MHz,填充率也减到了180M像素/秒。

nVIDIA的TNT2向世界证明了高性能的3D芯片不再是3Dfx独领风骚了,由于TNT的性能接近于VooDoo,图像质量也更高,达到了32bit色深,虽然VooDoo占领的绝大部分市场,但是TNT还是从OEM厂商身上做了不少文章,它甚至成为了职业玩家联盟(PGL)的正式3D图形技术。

  6个月之后,在1999年3月的游戏开发者论坛上,nVIDIA发布了两款新的产品,TNT2和经济型的Vanta。最初,TNT2是NT级的0.25 微米的变种,拥有更高的时钟频率。芯片的表现比预期的还要好。从800万个晶体管到1000.5万个晶体管,从TNT到TNT2的发展,其复杂程度甚至超过了从Pentium II到Pentium III跃进。除了把显存扩展到32M,TNT2还提供了对数字平板的支持。其变种TNT2 Ultra的填充率甚至达到了300M像素/秒。为了避免发生在 TNT 上的事再次重演,基于TNT2的显卡将在两个月后的五月份发布,及时赶在了3dfx的Voodoo 3 之前。

  TNT2可以说是nVIDIA和3dfx之间的战争的转折点。虽然说Voodoo 3可能在纯粹的帧率上要比TNT2稍微快一点点,但两者的性能差距却并不明显,于是许多人都因为TNT2对32bit色深的支持而选择了它。大多数开发人员都转向了D3D和OpenGL接口,3dfx的Glide优势正在一点点的丧失怠尽。

  TNT2是nVIDIA发展历程中最富有标志性的事件。这时候的一些老牌生长厂商像Trident、S3、3D Labs等也已经纷纷退出了主流桌面市场显示卡的争夺,而ATI、Matrox、3dfx等厂商虽然也推出了自己的一些产品,但是对于nVIDIA的侵略也只能显得软弱无力,因为TNT2实在是太过强大了!


Riva TNT


nVidia TNT2芯片

六安论坛
 楼主| 发表于 2006-2-17 08:04 | 显示全部楼层
当前第5页:nVIDIA-GeForce时代到来—NV10 本文共 50 页

4、GeForce时代到来—NV10(GeForce 256)

在TNT的光环之下,在1998年的8月份,有一款有划时代意义的显示芯片出炉了,这就是新一代的GeForce 256!开发代码NV10。从NV10开始3D图形市场又一次经历了新的洗礼,nVIDIA将自己的图形芯片成为了图形处理器,可以说当时的nVIDIA已经不甘心制作普通的芯片,而是将自己开发的芯片抬高到了和CPU平行的位置之上了。

GeForce 256采用了最新的0.22微米生产工艺,集成了约2300万个晶体管,这样大规模的集成甚至赶上了AMD和Intel当时的处理器集成的晶体管数目,让人叹为观止!GeForce 256是一款256bit显示芯片,支持最大128MbDDR或SDRAM内存;而且他也是第一款集成了硬件T&L功能的显示核心,这项技术的引进使得CPU终于不用再因为以往繁重的浮点运算而累得疲惫不堪了。

  在渲染方面,GeForce256核心拥有4条渲染管线,核心频率为120MHz,芯片理论上全速可以达到480Mpixels/Sec。另外,Geforce 256还支持多种特效,比如立方环境映射、Dot3凹凸映射和HDTV动态补偿和硬件alpha混合。在显示接口方面,GeForce 256还率先开始支持AGP4×快写模式。

  GeForce 256的出现使得更多的人开始认识nVIDIA,逼真的成像效果,最新的硬件T&L性能,使得当时其他主流显卡望尘莫及。可以说NV10是这一年当中的霸者。

另外值得一提的是,因为NV10所具有的硬件T&L引擎在建模/动画渲染方面具有相当的优势,所以在NV10在基础之上(1999年11月),nVIDIA发布其第一款面对专业图形工作站的显示芯片—Quadro。由于当时市场上的专业级显卡都是采用了多芯片解决方案(比如光栅处理器、几何处理器、RAMDAC甚至显存控制器都是独立的),而Quadro却可以通过一个芯片来实现所有的功能,所以凭借Quadro低成本、性能超群的优势,nVIDIA从此走入了高级专业图形工作站的显示芯片市场。而以后nVIDIA每发布一款新的显示芯片,都会相应推出针对专业图形工作站的显示芯片—Quadro。


承启的GEFORCE256显卡

六安论坛
 楼主| 发表于 2006-2-17 08:04 | 显示全部楼层
当前第6页:nVIDIA-无人可敌!-NV15(GeForce2 GTS) 本文共 50 页

5、无人可敌!-NV15(GeForce2 GTS)

  从GeForce2,nVIDIA开始了每六个月推出一款新产品的定律,在2000年4月底nVIDIA再次推出了新品,这一次的产品代号NV15,也就是我们熟悉的GeFroce2 GTS。除了保留GeForce 256的先进性能,GeForce2 GTS首次采用了0.18微米制程,工作频率达200Mhz,将搭配32MB 166Mhz DDR SDRAM内存, GeForce2 GTS与上一代比起来最大不同的地方在于:增强T&L引擎达30%,填图速度增加到1.6GTexel/s,填图速度增加的原因是因为GeForce2的管线能每图素通过2个材质,它共有4条渲染管线,所以200Mhz x 4 x 2=1.6GTexel/s。同时GeForce2 GTS增加了新的视觉效果,如S3TC、FSAA、Pixels Shaders和硬件动态MPEG-2动态补偿的功能。

在当时,FSAA技术已经开始兴起,FSAA可以大量的改善画质,去除难看的锯齿,甚至是旧游戏也可以让它变得更光滑好看,此前只有3dfx的双VSA-100芯片Voodoo5支持。GeForce2 GTS也可以用硬件FSAA,它的方式是用SuperSampling,但是SuperSampling FSAA只能使用在低分辨率,很显然的,nVIDIA的SuperSampling方式比3dfx的MultiSampling的效率还要差,另外nVIDIA驱动程序没有DirectX的FSAA功能,这使得拥有FSAA技术的GeForce2 GTS并没有得到很好的改善画质的效果。

  GeForce2 GTS除了增加核心频率外,还以增加管线来增强填图速度,GeForce256只提供480MPixel/s, 新的GeForce2 GTS已经增加到800MPixel/s。其后,nVIDIA在GeForce2 GTS的基础上,通过提升频率的方式延伸出5种产品,具体情况是这样的:后来频率提升到200/400MHz的称为GeForce2 Pro,而提升到250/460MHz的称为GeForce2 Ultra,最后,在2001年9月推出的GeForce2 Ti是频率达到250/400MHz的产品。

  由于GeForce2 Ultra的市场定位很高,所以销售数量不大,而GeForce2 Ti的性能与价格都比较适合市场,导致几度脱销,为了承接市场,nVIDIA又在GeForce2 GTS产品中筛选了一批频率能都达到200/366MHz以上水平,又达不到250/400MHz的产品作为GeForce2 Ti VX进行销售。

  而针对低端显卡市场,nVIDIA则推出了NV15的精简版本—NV11(即GF2 MX),在核心速度不变的基础上减少了图形渲染流水线,只有GF2 GTS一半,全速运行的时候图像填充率最高只有700Mtexel/Sec和350Mpixels/Sec,而内存接口的带宽也只有64位。MX芯片的部分功能虽然减低了性能,但也降低了他的生产成本和耗电量,大多MX显卡都无须加装额外的风扇,稳定性还是很好的。

  加入了数字振动控制(DVC),TwinView(双头显示)功能,而且GF2 MX超频性也不俗,使MX成为了当时性能比最佳的显卡。之后,GeForce2 MX延伸为两个型号,GeForce2 MX200和GeForce2 MX400,GeForce2 MX200保持了原来GeForce2 MX的核心频率175MHz,显存位宽限制到GeForce2 MX的一半,只有64bit,而且nVIDIA官方声称GeForce2 MX200只支持SDR显存,所以GeForce2 MX200的性能在高分辨率下受到比较大的限制。而GeForce2 MX400是在保持GeForce2 MX的显存位宽的情况下将核心频率提升到200MHz,GPU的多边形生成率等指标有一些提升。而在2000年末, nVIDIA推出了自己的第一款用在移动电脑上的产品-GeForce2 GO。完全基于GeForce2 MX设计而成的显示芯片,支持GF2 MX所支持的特性,但是仅能支持到720P分辨率的HDTV,芯片的核心速度也比较慢,所以图形填充率只有286Mpixels/Sec,纹理填充速度只有572Mtexels/Sec。

  随着NV15的推出,当时很多显示芯片业的对手几乎已经是面对nVIDIA毫无还手之力,而且2000年11月nVIDIA收购了末落的3dfx,从此nVIDIA达到了高手寂寞的境界。不过,此时另一个强大的对手也正在倔起,随着ATI发布RADEON(第一款支持DirectX8的GPU),ATI成为了nVIDIA最强大的挑战者。


维硕Geforce2 GTS

六安论坛
 楼主| 发表于 2006-2-17 08:04 | 显示全部楼层
当前第7页:nVIDIA-GeForce3辉煌登场 本文共 50 页

6、GeForce3辉煌登场

  时间到了2000年,nVIDIA以卓越的3D性能称霸3D显示芯片市场已经有将近2年的时间了,从技术观点而言,nVIDIA的芯片一直领先于任何一个对手。但是,自从ATI在2000年7月份所发布的Radeon芯片后,nVIDIA第一次感到来自ATI的威胁。ATI的Radeon 绘图芯片所包含的技术有:画面间插补(keyframe interpolation),四组矩阵贴皮(four-matrix skinning),环境景观贴图(environment bump mapping),特有的3D纹理(3D-textures)和HyperZ等。这些技术,在GeForce 2上可没有。而且最突出的是Radeon支持Microsoft(微软)的DirectX 8里的几项新的特性而nVIDIA旗下的 GeForce 2 只支持 DirectX 7 的规格。终于在2001年2月,nVIDIA在Intel开发者论坛上发布其第八代显示芯片—支持DirectX 8的NV20,这也是nVIDIA最新的旗舰产品GeForce3。这款图形处理器每秒可以进行8000亿次运算和760亿次浮点操作。采用0.15微米制造,核心时钟速度200MHz,采用230MHz的DDR SDRAM,显存带宽达到了7.36GB/s。渲染引擎有4条流水线,每个都可以同时处理2个纹理,像素填充率达到了8亿/秒。

  从芯片本身来说,过去RIVA 128集成了7百万个晶体管,而TNT2有1500万,到GeForce2的时候这个数字已经上升到了2500万。而作为参照目前ATI的最新产品Radeon由3000万个晶体管组成,而Intel的Pentium4处理器则是4200万个。但是这些都不算什么,GeForce3居然总共集成了5700万个晶体管。这实在不能不说是个奇迹。

  虽然GeForce3同它的前辈GeForce2 GTS同样拥有分别带2个纹理单元的4条像素流水线。但两者还是有本质上的区别,GeForce3的纹理流水线可控制性更强。比如在GeForce2 GTS中处理一个带有4个纹理的像素,必须分2次进行。而GeForce3中则可以在2条流水线配合下一次完成,当然此时每个时钟周期就只能完成2个像素了。虽然这样的设置并不能带来更多的性能提升,但是它为开发者表现更多效果提供了大好机会。

  从前面提供的基本数据中,我们可以快速地计算出GeForce3理论上像素和纹理像素的填充200MHz(核心频率)×4(像素流水线)= 800Mpixels/s ,200MHz(核心频率)×4(像素流水线)×2(每条流水线两个纹理单元)=1600Mtexels/s

  虽然这个数据或者并不能让大家特别满意,因为相比过去提升并不算巨大。但是NVIDIA自有一番道理。由于今天内存带宽已经构成了严重的瓶颈,把核心芯片做得更快似乎没有必要。他们要把精力更多投注在其他方面。我们来看看它值得骄傲的地方。

首先值得一提的是光速存储结构(Lightspeed Memory Architecture),在高分辨率下,即使当时最快的DRAM模组也无法满足新一代的图形芯片这个事实已经不再是什么秘密。就因为这个原因ATI开发了HyperZ技术,它可以解决许多在存取数据和消除Z缓冲中浪费掉的带宽。它属于一种无损的压缩算法(即减小了数据量,但不降低画面精度)。nVIDIA的LMA结构的出发点和ATI十分类似,他们希望通过优化显存带宽的方法来达到最大限度利用板载230MHz DDR显存的目的。其中首要的创新是多路交叉显存控制器(Crossbar Memory Controller)。我们知道128位的DDR显存在一个时钟周期内可以同时传递2次数据,换句话来讲就是一次可以传递256位的数据包。但问题就出在这里:如果一个数据包的容量只有64位,也会占用一个数据传送周期,也就是在硬件端发送数据时仍然被当做256位来看待的,所以这里带宽的利用率实际上就只有25%非常低下。现在GeForce3改变了这个情况。它提供了并行工作的4个显存控制器,这些装置能够在与GPU通讯的同时互相联系,具体一点就是4个控制器分别掌管64位数据带宽,在遇到大数据包时(>64位)可以整合在一起工作,遇到小的数据包时各自为战。这样的处理方式极大地提高了显存带宽的利用率。

  在LMA架构中的第二项技术是无损的Z轴数据压缩算法,这个改进思想来源于ATI RADEON。由于芯片处理每个像素的时候要考虑到它们在三维场景中的深度坐标,所以Z缓冲是显存和芯片之间数据传递的关键部分,带宽占用的分量最重。nVIDIA已经开发了一个可以将Z轴数据压缩四倍的算法,在不会带来任何精度丧失的同时,也节省了许多不必要的带宽浪费。 nVIDIA称之为光速显存架构亦可以称为VS(Visibility Subsystem,可见子系统)。它和隐藏表面去除(Hidden Surface Removal)有着密切的关系,这是一种在PowerVR和Mosaic芯片设计中得到大量论述的关键技术。如果没有这种技术,一块图形芯片必须处理CPU传送来的每个3D对象,甚至那些在最终图像中被临时遮蔽的对象。采用了

六安论坛
 楼主| 发表于 2006-2-17 08:05 | 显示全部楼层
当前第8页:nVIDIA-失手—NV25 本文共 50 页

7、失手—NV25

  nVIDIA的失手来源于2001年,在这一年ATI发布了其第2代的Radeon 8500显卡,至此,ATI开始全面进攻nVIDIA的阵地。虽然nVIDIA并没有失去宝座,但是即使这样,8500和nVIDIA打得势均力敌还是一个不小的成就。

研发代号为NV25的GeForce4 Ti在当时主要是针对高性能图形市场推出的GPU图形处理器。GeForce4 Ti芯片内部包含的晶体管数量高达6千3百万,这比GeForce3复杂得多,它仍使用0.15微米工艺生产,但采用了新的PBGA封装,运行频率达到了300MHz,配合超高频率的325 Mhz DDR显存提供的10.4GB/秒的显存带宽,可以实现每秒49亿次的采样。

  GeForce4 Ti它仍采用4条渲染流水线,每条流水线包含2个TMU(材质贴图单元),但GeForce4 Ti是依靠其他方面的改进和增强来实现提高性能的目的。在T&L单元方面拥有nfiniteFX II引擎,它是从GeForce3时代开创的nFiniteFX引擎改进而来的。在GeForce3中只有一个顶点着色引擎,而GeForce4 Ti配备了两个。两个平行的顶点着色引擎是可以在同一时间处理更多的顶点。两个单位都是多线程与多线程处理,并在芯片上执行的,因此可以通过应用程序或API来获得性能上的好处。指令的分配是由NV25所处理的,但是那必须去确认每个顶点着色引擎处理的是不同的顶点,这样才会使平行处理变得较实用。顶点着色引擎是从GeForce3内的原始版本所优化而来的,因此降低了指令的延迟。

  此外,GeForce4 Ti也同时引入了LightSpeed Memory Architecture II(LMA II)光速显存构架II技术,通过优化渲染过程及数据压缩等技术,大大节省了显存带宽,提升了显卡的性能表现。在全屏反锯齿方面,GeForce4 Ti采用了新的Accuview AA技术。

  nVIDIA使用「新的取样位置」来改善AA的品质,因为可以减少错误堆积,特别是使用Quincunx AA的情况下。新的过滤技术会在每次(多重)取样时被一起执行来产生反锯齿的帧,并且省下了完整的帧写入,这样可以大幅改善AA的性能。基本上,Accuview应该可使AA看起来更好看,并且跑的更顺。

  GeForce4可以把nVIDIA特有的「Quincunx」-AA执行像一般2x-AA一样快。除此之外,nVIDIA增加了额外的模式,叫做「4xS」。这个模式应该看起来会比4x AA模式好很多,因为增加了50%的子像素覆盖范围(不过这个模式只支持Direct3D游戏,不支持OpenGL)。通过采用新的取样方式并优化执行过程,GeForce4 Ti在这方面的速度是GeForce3的2倍,它保证了高分辨率下的运行速度,取得了性能和画面品质之间的平衡。此外,为了保证在高分辨率下全屏反锯齿对显存容量的需求,GeForce4 Ti都配备了128MB的显存。象GeForce 3一样,GeForce4 Ti按其核心频率和显存频率的差别,也分有几个型号的产品:GeForce4 Ti4600、 GeForce4 Ti4400、GeForce4 Ti4200。不过针对最新的AGP8X规范,由于NV30迟迟不能上市,为了填补这个空当,nVIDIA在NV25的基础之上推出了NV25的AGP8×版本—NV28。

  由于NV28图形芯片除了支持AGP8×,仅仅是核心频率和显存频率略有提升,其他相比NV25并没有什么大的改变。NV28也有三个型号的产品:GeForce4 Ti4200-8X和GF4 TI4800SE和GF4 TI4800。GeForce4 Ti4200-8X和GF4 TI4800SE和GF4 TI4800可以看成是GeForce4 Ti4200、GeForce4 Ti4400、GeForce4 Ti4600的AGP8×版本。

  在此期间,nVIDIA也推出了GeForce2 MX的后继者—GeForce4 MX(研发代号为NV17)。GeForce4 MX并不是源自GeForce4 Ti的核心而源自于GeForce2 MX所采用的NV11图形核心。与GeForce2 MX相比,GeForce4 MX最主要的改良是拥有较高的频率与两段交错式内存控制器的LMA II(GeForce3与GeForce4 Ti有四段),可以增加可利用的内存带宽。

  内存带宽的缺乏,在前一代的GeForce2 MX中会导致性能的剧减,而GeForce4 MX的情况则要好得多。GeForce4 MX系列的芯片频率为250—300MHz ,显存频率166—550 MHz。GeForce 4 MX系列除了GeForce 4 MX 420 采用SDR显存外,GeForce4 MX440SE既有采用SDR显存的,也有采用DDR显存。其他的都采用的是DDR显存。和GeForce4 Ti一样,GeForce 4MX系列后期也出现了改良的AGP8X版本—代号为NV18。

  随着GeForce4 Ti发表,让nVIDIA的实力看来锐不可挡,成功的保住了3D显卡性能第一的宝座、在对抗中再次占了上风。但好景不长,nVIDIA的恶梦终于到了。ATI这们挑战者这时候改变了战略—它们放弃在8500系列上做修改(这是nVIDIA所采用的方式)。这家加拿大公司集中全力研发新一代的产品。

  在2002年7,ATi正式发表

六安论坛
 楼主| 发表于 2006-2-17 08:05 | 显示全部楼层
当前第9页:nVIDIA-再次失败—NV30 本文共 50 页

8、再次失败—NV30

  由于ATI的R300势头强劲,所以nVIDIA不得不加快了NV30的开发进程,但是一直以六个月为产品开发周期的nVIDIA却偏偏无法按期完成自己的计划。原计划在2002年秋季发布的NV30一拖再拖,直到11月份才发布芯片!

GeForceFX与ATI Radeon 9700同样是张符合DirectX 9规格的显卡。微软的新版3D API通过新的浮点运算大幅改善了图形效果的精确度。Pixel(像素着色)与vertex shader(顶点着色)程序的能力也有所增强。现在shader程序中甚至可以进行循环。 nVIDIA并不以DirectX 9而自满,它还提供了更多功能。GeForceFX可以处理更长更复杂的shader程序,也因此能够产生更复杂的效果。为了要创造出这些shader程序,nVIDIA推出了Cg编译器。由于当前并没有任何一款游戏能够充分发挥DirectX 9的能力,所以很难看出用户从这些可扩充程序化功能得到什么东西。但至少这并没有任何坏处。

随后,GeForceFX(NV30)推出了两种款式。除了在本文所看到的GeForceFX 5800 Ultra显卡(核心速度500 MHz,DDR-II速度1000 MHz),还有一块频率速度较慢(核心速度400 MHz,DDR-II速度800 MHz)的“普通版”FX 5800显卡。NVIDIA稍后会推出产品N31和NV34。而在2003年3月6号,nVIDIA在日本正式推出了针对主流的中低端显卡市场、NV30的精简版本系列显卡中的NV31、NV34来取代主流的GeForce4 Ti和GeForce4 MX。

  不过GeForce FX 5800 Ultra面临的是显卡结构复杂导致生产困难、成品率较低的困扰,而且128bit的显存带宽严重制约了其性能的发挥,GeForce FX 5800 Ultra仍不能让nVIDIA摆脱竞争对手的追击。与此同时ATi很快就在2003年4月推出了采用R350核心的新产品Radeon 9800 Pro,毕竟他在Radeon 9700 Pro推出后也并没有闲着,本来Radeon 9700 Pro与GeForce FX 5800 Ultra相比就只是略处下风而已,所以由它改进而来的Radeon 9800 Pro尽管进步不算很大,但仍足以使ATi在竞争中再度占据优势。

六安论坛
 楼主| 发表于 2006-2-17 08:05 | 显示全部楼层
当前第10页:nVIDIA-重夺宝座-NV35 本文共 50 页

9、重夺宝座-NV35

在失手于NV25之后,为了摆脱不利的困境,nVIDIA再次以创纪录的速度、在5月12日发布它的下一代图形处理器NV35,正式名称为GeForce FX 5900/Ultra。这款图形处理器被nVIDIA寄与厚望,来全面代替NV30。FX 5900和FX 5900 Ultra将取代FX 5800和FX 5800 Ultra,成为NVIDIA性能最强大的图形处理芯片。
NV35核心采用了名为CineFX 2.0的架构,与原来的NV30核心相比主要改进了浮点Pixel Shader的运算能力,采用了256位的显存结构,并改善了各项异性过滤的图像质量等。核心则采用全新的0.13微米技术打造。NV35系列芯片的工作频率达到了创纪录的450MHz,核心内部总线为128位带宽,显存带宽为425MHz,显存总线为256位,最大支持256MB DDR/DDR II显存。和FX 5800的16GB/秒数据带宽相比,NV35的数据带宽上涨到了27.2GB/秒。新一代的NV35还支持HCT、CineFX 2.0和UltraShadow等nVIDIA专利技术。

  另外NV35架构的显卡提供了3种不同的版本,GeForce FX 5900 Ultra: NVIDIA NV35图形处理器,工作频率为450MHz,256MB DDR显存,显存工作频率为850MHz,256位显存总线界面。GeForce FX 5900: NVIDIA NV35图形处理器,128MB DDR显存,256位显存总线界面,更低的核心和显存工作频率。以及GeForce FX 5900 Value: NVIDIA NV35图形处理器,128MB DDR显存,256位显存总线界面,更低的核心和显存工作频率。并且所有相关显卡产品将配备DVI-I、D-Sub和视频输出端口。

  而NV35最大的改进是在显存结构上。我们都知道原来的NV30核心采用了128bit位宽的显存控制器设计,这样做的一大弊端就是显存带宽会受到显存位宽的限制,GeForce FX 5800 Ultra即使搭配很高工作频率(500MHz)的DDR II规格显存,在付出了更大发热量和更高成本的代价下,最终实现的显存带宽(16GB/s)仍旧不能与具备256bit显存控制器、搭配较低工作频率(310MHz)DDR I规格显存的Radeon 9700 Pro(19.8GB/s)相比。

  显存带宽对现在的显卡性能发挥有多重要大家早已很熟悉了,128bit的显存结构无疑会影响NV30的性能表现,特别是在对显存带宽需求极大的全屏反锯齿方面,所以在NV35的设计中,nVIDIA也采用了256bit的显存结构,显存工作于425 MHz,并支持256MB的容量;显存位宽的倍增使得NV35尽管在显存工作频率上比NV30有明显下降,但显存带宽方面仍获得了巨大提高,达到了27.2GB/s,从而在这方面占据了优势。

NV35使得nVIDIA以绝对的实力重登显卡市场的宝座。接下来,nVIDIA将会再一次让所有人瞠目!新的NV40时代来临了!


GeForce FX 5900 Ultra


GeForce FX 5900 Ultra芯片

六安论坛
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

侵权举报:本页面所涉内容为用户发表并上传,相应的法律责任由用户自行承担;本网站仅提供存储服务;如存在侵权问题,请权利人与本网站联系删除!举报微信号:点击查看