Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 39 reacties
Bron: nV News

De mannen van nV News hebben een aantal vragen kunnen stellen aan Tony Tomasi en Ujesh Desai van nVidia. Allereerst kwam de vraag wat de belangrijkste factoren zijn voor het performanceverschil tussen de FP16- en FP32-calculaties van de GeForce 6800. Tony Tomasi antwoordt hierop dat FP16 minder opslag gebruikt dan FP32. De GeForce 6800 ondersteunt FP16 texture filtering en frame buffer blending, wat kan zorgen voor een aanzienlijk performanceverschil in applicaties uit de high dynamic range. Als tweede stelt nV News een vraag over benchmarkresultaten van X-bit Labs, waaruit bleek dat de GeForce 6800 Ultra meer dan 32 z-pixels per clock cycle kon produceren wanneer de color writes uitgeschakeld zijn, iets dat theoretisch boven zijn performancegrens ligt.

Opnieuw antwoordt Tony Tomasi; hij geeft aan dat het mogelijk is om meer dan 32 pixels te meten, afhankelijk van de impact van occlusion culling. De Z-ROP-hardware in de GeForce 6800 is echter in staat tot het produceren van 32 pixels per clock van z/stencil-only rendering; hogere snelheden zijn het resultaat van andere factoren die hierin meespelen. Een derde vraag gaat over de problemen die de nieuwe videokaart heeft met het spel Far Cry. Ujesh Desai geeft aan dat het team van nVidia samenwerkt met de ontwikkelaars van het spel om de problemen op te lossen. Een deel van de problemen zit in de drivers van nVidia, een deel ervan zit echter ook in de programmatuur van het spel.

Crytek zal hiervoor een patch uitbrengen, waarna met betere drivers de problemen zouden moeten zijn opgelost. Als laatste wordt aan de nVidia-mannen gevraagd wat zij het meest aantrekkelijke kenmerk van de GeForce 6-serie vinden. Ujesh Desais antwoord is duidelijk: hij vindt dat nVidia de technologische leider in het marktsegment is en moet blijven en is vooral blij met het ontwikkelen van Shader Model 3.0. Tony Tomasi is het eens met deze keuze, maar voegt daaraan toe dat hij floating point texture filtering en frame buffer blending minstens net zo belangrijk vindt.

GeForce 6800 Ultra perspic
Moderatie-faq Wijzig weergave

Reacties (39)

Ujesh Desais antwoord is duidelijk: hij vindt dat nVidia de technologische leider in het marktsegment is en moet blijven en is vooral blij met het ontwikkelen van Shader Model 3.0. Tony Tomasi is het eens met deze keuze, maar voegt daaraan toe dat hij floating point texture filtering en frame buffer blending minstens net zo belangrijk vindt.
ik vind dat Ati technologische leider is zeker met al die mooie features die ze hebben:

1. True form
2. Temp AA
3. 3Dc
3Dc
Wat is 3Dc?
3Dc is een manier om het gebruik van 'normal maps' te versnellen. Normal maps worden tegenwoordig door veel spellen gebruikt om bv low polygon 3D objecten veel gedetailleerder te laten lijken (Far Cry) en super high resolution modellen te maken van objecten. Een groot probleem van normal maps is echter dat het een zeer groot gedeelte van het videogeheugen in beslag kan nemen.
Bij deze generatie is het stuk moeilijker om te zeggen welke te beste is. Ze zijn beide zeer snel en ze hebben beide veel features. Persoonlijk wacht ik op een artikel op anandtech.com dat de beeldkwaliteit gedetailleerd zal vergelijken. PS 3.0 zal misschien wel innovatief zijn, maar als ze het niet in games zullen gebruiken, dan help het nvidia wel niet. Kijk maar naar Matrox en Displacement mapping, een zeer goede en efficiente techniek, maar niet gebruikt in games (ok in Earth & beyond, maar voor de rest geen). Dan heb je een nutteloze functie op je videokaart zitten. Spijtig trouwens
Nvidia produceert haar chips al een jaar op 130nm, Ati vooralsnog op 150nm.

Nvidia's 6800 heeft 222 miljoen transistors ipv 160 voor Ati

Nvidia's 6800 ondersteund PS 3.0, iets wat Ati pas in hun volgende generatie chips gaat inbouwen.

Wie is er dan technologisch leider? Juist Nvidia. Onder sommige omstandigheden zal de nieuwe Ati kaart misschien meer frames per seconde halen, maar ga je gebruik maken van PS 3.0, dan moet Ati bakzeil halen.

De denkfout die jullie maken, maakte 3Dfx een paar jaar geleden ook. Die dachten ook dat nieuwe functies (toen 32bit kleur) geen donder uit maakte en dat framerate King was. Nou, dat bleek ook niet het geval te zijn. Nvidia's 6800 is veruit de meest geavanceerde chip, dus dat hij in sommige gevallen iets minder scoort qua framerate's, doet daar zeer weinig aan af.

Maar dat neemt natuurlijk niet weg dat de nieuwe Ati X800 een geweldige chip is.
@ SCRAP

Liever geen drog argumentaties....

ATI produceert ook al een jaar op 130nm. En zij doen dat ook met low-k, hetgeen NVidia niet doet.

En hoog aantal transistoren is net als een hooge stroomverbruik geen indicatie voor technologisch leiderschap.
Komt nog bij dat ATI en Nvidia het aantal transistoren niet op dezelfde manier tellen.
@SCRAP
De denkfout die jij maakt is dat nieuwe features geen donder uitmaken totdat ze in spellen gebruikt worden.

Wat heb je aan PS3.0 als geen enkel spel het gebruikt.
Wat heb je aan PS3.0 als zelfs Nvidia nergens een demo kan laten zien waaruit het voordeel tov PS2.0 blijkt?

Nvidia geeft zelf toe dat spellen met PS3.0 niet mooier zullen worden, maar dat het met PS3.0 in bepaalde gevallen mogelijk is om shaders effficienter (lees: sneller) uit te voeren.
Maar dat effect is dus nogal betrekkelijk wanneer de PS2.0 kaart domweg sneller is dan de PS3.0 kaart.

Dat gold niet voor PS2.0 tov PS1.3. Er was voor iedereen duidelijk dat PS2.0 veel mooier was voor dezelfde snelheid. Bovendien zijn er toch relatief snel spellen gekomen die er gebruik van maakten.

Daarom was dus de PS2.0 ondersteuning voor de R300 wel interessant, en is de PS3.0 ondersteuning voor de 6800 voorlopig niet interessant.
Dat valt op zich wel mee. <BENADRUKT!!!> Theoretisch </BENADRUKT!!!> ondersteunt Nvidia veel en veel meer instructies die stuk voor stuk benut kunnen worden. En waardoor een applicatie die geschreven is volgens al die instructies te benutten een spel of grafische applicatie te maken die op de Nvidia kaart sneller draait.

En om de graphics te brekenen moeten de Nvidia kaarten veel meer werk verrichten om het op het beeld te brengen.

Of dat ook uiteindelijk meeweegt in de uiteindelijke performance van de kaart tov de anderen is echter per spel verschillend want als simpelle vergelijking kan je geven dat wanneer je twee kaarten hebt waarvan kaart a 1000000 instructies kent en kaart b er maar 200. Maar er vervolgens een spel op gespeeld wordt welk ong 180 instructies gebruikt van kaart b en maar 20 van kaart a is kaart b zowiezo al sneller in dat spel.
Ik denk dat ATI veeleer op dit moment de technologisch leider is vanwege hun visie, en de mogelijkheid die te realiseren.

Laten we wel wezen, de enorme shader revolutie die we met SM2.0 en DX9 is ontstaan, is volledig door ATI gepushed. NVidia heeft zich daar compleet in misgerekend, en flink bakzeil moeten halen.

Dat noem ik technologisch leiderschap. Niet het aantal (ongebruikte) features op de kaart.
Welke vernieuwende dingen heeft ati dan toegevoegd? Zij hebben enkel de performance verhoogd en een extra aa filter.

<quote>de enorme shader revolutie die we met SM2.0 en DX9 is ontstaan</quote>

Wie kwam er met shaders aanzetten in het begin?

<quote>Dat noem ik technologisch leiderschap.</quote>

Voortborduren op bestaande features om die te verbeteren is dan zeker een goede ontwikkeling maar om daarvoor de kroon "technologisch leider" te krijgen?

Kijk naar het verleden, wanneer kwam ati met iets vernieuwends? Bij mijn weten niet. Dat hun kaarten op dit moment beter presteren wil niet zeggen dat zij technisch beter zijn. Een ford v8 uit 1980 heeft meer vermogen dan een mazda met rotatie motor maar maakt dat de ford technisch superieur?

Mijn ervaring is dat ati brakke instabiele drivers levert, iets dat ik nog nooit met een nvidia kaart heb gehad.
Als jij nog denkt aan brakke drivers bij ATI, en goede bij NVidia, dan vraag ik me toch af waar jij de afgelopen twee jaar geweest bent....

Anyway... zoals ik al aangaf, het gaat mij NIET om de gimmicks.

Shaders waren er inderaad al voor SM2.0 en DX9. En kon je ze zinvol gebruiken? NEE. Idem dito voor bumpmapping e.d. De techniek/feature was er dan wel, maar het was vrijwel niet toepasbaar, door een veelheid aan redenen.

Ben je dan een technologisch leider? Wanneer je features in je kaarten hebt zitten, die niemand gebruikt?

Tot de R300 werden videokaarten volgestopt met gimmicks. Zogenaamde technische hoogstandjes, die in de praktijk niets voorstelden. En daar maakte iedereen zich schuldig aan. NVidia, Matrox, ATI.
En er veranderde dus ook maar heel erg weinig op grafisch gebied.

ATI heeft samen met MS gezorgd voor iets wat NVidia voor onmogelijk hield. Namelijk het omvormen van pixels shaders als een onbeduidende feature, tot het belangrijkste onderdeel van een grafisch engine.

En als direct uitvloeisel daarvan: de GPU omgetoverd van een fixed function systeem met proprietary features, waar de programmeur beperkt wordt door de hardware, tot een ongelooflijk flexible software (shader) based systeem waar de GPU uitvoert wat de developer 'm vertelt.

De revolutie van dit moment, is dat de game developers als ze iets grafisch willen weergeven, dit gewoon programmeren. Ze zijn niet meer afhankelijk van proprieatary features die een fabrikant erin stopt.

Kijk naar de verschillende virtuale displacement mapping shaders die er nu komen. Naar radiosity implementaties. Allemaal bedacht en uitgevoerd door de game developers. Toegespits op de eisen van hun spel.
Ondenkbaar zonder de flexibilteit van PS2.0 en de prestaties van de R300 om het uit te voeren.

Er wordt op een compleet andere manier nagedacht over het genereren van de beelden die je voor je neus krijgt. Dat is een revolutie die we niet meer gezien hebben sinds de eerste Voodoo...

DAT is technologisch leiderschap. Niet het aantal gimmicks...

Wat betreft de toekomst... SM3 komt wederom van ATI en MS. Het wordt alleen door ATI als 'te vroeg' beschouwd om er nu al mee te komen. Omdat het op dit moment alleen maar een nutteloze gimmich zou zijn.

En wie dacht je dat er DirectX Next aan het vaststellen waren?
Ik begrijp die reactie van de man ook niet helemaal. Ik ga volgende week een Radeon 9800pro en dr is nog niemand geweest die mij kon vertellen waarom ik voor nv zou moeten kiezen. Kwaliteit en snelheid liggen op dit moment toch hogen bij ati terwijl de prijs weer lager ligt..
Mijn eigen ervaring is;
NVidia drivers zijn stabieler.
NVidia heeft veel betere Linux drivers.
3D-modeleer tools (3DSMax, Maya, Bleder enz) draaien net iets lekkerder met NVidia kaarten.

Ik koop dus rustig een iets duurdere of tragere NVidia kaart omdat ik weet dat de driver naar wens is.
Als je alleen Windows draait en je kaart alleen voor games gebruikt, neem dan rustig een ATI.
daarom dat ze al pathes moete uitbrenge voor far cry .....
het tijdperk waar Ati s drivers niet optimaal waren is voorbij .
Linux doe ik niet aan en aan modelleren ook niet. Games onder XP dus weer wel en het 2d beeld van de ati is beter dan die van nv (moet toegeven dat het voor een groot deel ook te maken heeft welke filters etc. door de verschillende fabrikanten gebruikt wordt want ik heb wel eens een hele goede nv gezien en een brakke ati) Bovendien maken de ati's volgens mij een stuk minder herrie maar dat is op te lossen via een zalman hp over het algemeen
Ook al weet ik dat deze post tot flame of troll wordt bestempeld wil ik SuperNull graag bijstaan.

Zie immers mijn systeem specs bij mijn profiel.

Ik sluit mij geheel bij SuperNull aan omdat ik eigenlijk pcies dezelfde dingen doe.

Linux.
Stabiellere drivers vooral bij de spellen die IK DOE.
IL2 Sturmovik. De bug bij Perfect Mode is al meer dan 1,5 jaar bekend en nog steeds niet opgelost.
Hoewel er elke keer nieuwe patches door ATI zijn uitgebracht is het nog steeds niet opgelost.

Maar ieder zijn voorkeur toch.

Echter denk ik dat het onzin is om zoals het grootste gedeelte van de meute hier doet op t.net is van : Ooooooooow weet je hoeveel 3D marks hij haalt???
OOOOO WAAAUW DAN MOET IK HEM OOOOOOK!!!!!!!!!
En dan vervolgens kiiiiijjjjk die kaart is 2 fps langzamer. K*T KAART :(.

Erg overdreven. Maar ga eens bij jezelf na. Zo is het wel :+.
Ook de modellen die 2 slots innemen zijn ook uit den boze...
ZUCHT hoe vaak moet het nog verteld worden!? NIEMAND wil dat slot naast de AGP gebruiken om de volgende redenen:

1. AGP slot deelt IRQ met het 1e PCI slot en daar houden de moderne video kaarten niet van
2. er wordt zoveel warmte afgegeven dat je er los van IRQ share zowiezo geen kaart plaatst als je je grijze massa gebruikt
3. alles zit op de moderne mobo`s onboard en meer dan genoeg ruimte voor uitbereiding zonder het 1e PCI slot te gebruiken

daarnaast zorgt een extra slotplaat ervoor dat je meerdere aansluitingen erop kan plaatsen, 3 DVI/VGA aansluitingen en video in & out past niet op een enkele bracket, tevens zit de kaart dan ook beter en stabieler voor een groter koellichaam

edit: -1 first post ??????????????????
ZUCHT hoe vaak moet het nog verteld worden!? NIEMAND wil dat slot naast de AGP gebruiken om de volgende redenen...
Toekomstgericht kijken kan geen kwaad (ook niet voor u) met PCIExpress in het vooruitzicht. AGP is dan weg en één PCIExpress slot wegspelen lijkt me niet zo aantrekkelijk meer...

1x PCIExpress slot (16x):

-Grafische kaart

4x PCIExpress slot (1x):

-oeps, deze is reeds bezet... :'(
-Gigabit ethernet
-SAS controller
-Geluidskaart

De rest moet dus maar op de oude PCI-sloten die nog aanwezig zullen zijn...

In tijden van PCIExpress wens ik uiteraard geen oude PCI meer te gebruiken.
...als je je grijze massa gebruikt
Jij ook, please?
gigabit ethernet en geluidskaart zitten al onboard...
wat is een sas controller? serial ata? is toch ook al onboard?
Hoeveel mobo's ken jij met een onboard geluidskaart met EAX4 support?
(We hebben het toch immers over machines waar spellen op gespeeld worden?)

Verder ga ik niet alleen voor een gigabit nic een nieuw mobo kopen als dat nog prima voldoet.

Serial ata onboard? Ja 2 of 4 poorten. Maar een raid5 controller zit nooit onboard.

We hebben het immers over power users machines?
Inderdaad, deze zitten reeds onboard. Maar dit noem ik geen kwaliteitscomponenten. Ik zou het liefst van al een moederbord zonder extra features hebben, dus geen ethernet en geluidskaart.

Ik heb al genoeg pc's gezien/gehoord waarvan het geluid (onboard) een fractie van een seconde blijft hangen (geeft een krakje) bv tijdens opstarten, omdat de cpu/schijf zo intens bezig zijn...

Losse ethernetkaarten en geluidskaarten belasten je systeem minder en lopen stabieler.

SAS is Serial Attached SCSI, de opvolger van Parallelle SCSI.
Bij PCI Express komen de kaarten volgens mij met de andere kant boven te zitten en heb je dus geen last van grote coolers (iig niet mbt je andere sloten)
Nee, dat is met BTX en heeft niks met PCI-express te maken.
Jij hebt nog nooit een BTX bord gezien volgens mij. Dan kan de grafische kaart geen andere slot meer in beslag nemen omdat het koelelement dan naar boven steekt en hij geen andere sloten meer in de weg zit.
1. AGP slot deelt IRQ met het 1e PCI slot en daar houden de moderne video kaarten niet van
Op veel moederborden is dat wel zo, maar echt niet op allemaal. Daarnaast kun je ook bij veel moederborden in het BIOS aangeven welk PCI slot welk IRQ krijgt.
Toekomstgericht kijken kan geen kwaad (ook niet voor u) met PCIExpress in het vooruitzicht. AGP is dan weg en één PCIExpress slot wegspelen lijkt me niet zo aantrekkelijk meer...
hoezo met PCI express hebben ze voor zover ik weet gezorgd voor extra ruimte tussen het PCI 16x slot en de normale PCI / PCI express sloten :Z
Het is uitermate jammer dat de strijd voor snelste CPU/GPU zich uit in hoog stroomverbruik (piekvermogen).

En toch kan het anders, kijk maar naar ATI: de 800XT verbruikt minder dan zijn voorganger, de 9800XT, nl 65W (wat ook al veel is...)

NVidia doet er nog een schepje bovenop en kan ATI enkel bijbenen door 110W door de kaart te sturen. Ook de modellen die 2 slots innemen zijn ook uit den boze...

NVidia mag in dat opzicht nog een fractie sneller zijn, dan nog zou ik opteren voor een ATI (heb nog nooit een ATI gehad trouwens, enkel een TNT2 Ultra/32MB en een GeForce4MX440 64MB DDR, AGP 8x).

Hetzelfde geld voor de CPU\\\\\\\'s: weeral is bewezen dat het kan! De nieuwe mobile CPU Pentium M \\\\\\\'Dothan\\\\\\\' verbruikt minder (21W) dan zijn voorganger \\\\\\\'Banias\\\\\\\' (24.5W). Daarbij komt ook nog eens dat deze krachtige CPU aan 2GHz met hoge IPC, een Pentium IV EE (+-100W?) aan 3.4GHz verslaat in de meeste zoniet alle benchmarks (indien overclocked naar 2.4GHz)! Zalig!

Prestatie meet zich dus niet in GHz. Dat bewijst zich in de processornummering van de \\\\\\\'Dothan\\\\\\\'. Intel keert zijn kar.

Hopelijk wordt deze processor ook naar de desktop gebracht. Voor mij in elk geval nooit een PIV. Intel heeft zich een beetje verslikt op dat vlak... De opvolger van de Prescott (+Xeon) ging 160W gebruiken, gelukkig is dat plannetje geschrapt...

Computers zouden zuiniger moeten worden (en kunnen dat ook) in plaats van meer te verbruiken...
Er is in elk geval bij Intel en ATI een goede stap gezet.
In jou vergelijking slurpt de 6800 bijna 2 keer zoveel als de X800XT dit klopt niet. De 6800 gebruikt 19 a 20 watt (dit is ook al veel) meer als de X800XT niet 45 watt zoals jij nu zegt.
erg nuttige info... het zo een stuk interresanter geweest zijn wanneer er opkomende kaarten werden besproken.

wat maakt het de fanatiekeling uit dat hun shader model 3.0, texture filtering en frame buffer blending helemaal geweldig vinden
Specifiek welke info vind jij dan zo nuttig?
Ik zie wat algemene info, wat pr praat, en verder eigenlijk niets bijzonders.
Ik ben echt nog niet wakker vandaag, ik las het als 'Interview met nVidia over BMW 6-serie'

|:(
Echt veel hadden ze niet te melden als ze het woord games al moeten verbergen als "applicaties uit de high dynamic range" om het verhaal enigzins interessant te doen lijken.
sja en High Dynamic Range ondersteunt de Ati hardware al vanaf de R300 (aka 9700)...
Ben ik de enige die de helft van de termen in de tekst niet snapt? Ik ben geen n00b, maar van die stippellijn-onderstreepte woorden hadden hier wel op hun plaats geweest.
haha nu er weer een topic over videokaarten is kan ik mededelen dat bij mijn onze leverancier zojuist de X800 pro is aangekondigd.

naar mijn berekening gaar deze rond de 480 ¤ kosten

deze is van het merk club 3d
Ach wat maakt het uit, straks kun je EN een Ati kaartje EN een Nvidia kaartje in je pc stoppen. Kun je van beide snelheden/ features profiteren ;)

http://www.tweakers.net/nieuws/32411

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True