nVidia GeForce 7800 GTX op de testbank

nVidia heeft vandaag zijn nieuwste videokaart, de GeForce 7800 GTX, officieel aangekondigd. Op het web gonsde het al vele maanden van de geruchten over deze kaart, maar vandaag is de NDA gevallen en schieten de reviews ineens als paddestoelen uit de grond. Het algemene oordeel over de core is positief, maar iedereen houdt natuurlijk een slag om de arm tot het moment dat ATi zijn antwoord - de Radeon X900 - presenteert. Het lijkt erop dat de G70 relatief snel in de winkels zal liggen - het bedrijf claimt dat de kaart per direct te koop is, en in onze pricewatch zijn de eerste vermeldingen al verschenen - dus nVidia zal in ieder geval tijdelijk de prestatiekroon mogen dragen. De hoge prijs van het topmodel (599 dollar, op dit moment 564 euro in de Tweakers.net Pricewatch) zal wellicht veel mensen afschrikken, maar de wat meer betaalbare afgeleiden van de core, waaronder in ieder geval een GeForce 7600 en een 7200, zullen waarschijnlijk niet lang op zich laten wachten.

* Specificaties G70

Eind mei lekten de definitieve specificaties van de GPU al uit, en het is dan ook geen echte verrassing meer dat de vandaag geïntroduceerde G70-core is opgebouwd uit 24 pixel pipelines en 8 vertex shaders. De chip telt maar liefst 303 miljoen transistors, klokt 430MHz en wordt op 0,11 micron gebakken. De basis van de architectuur is identiek aan die van de vorige generatie, maar het is wel duidelijk dat er overal kleine en grotere verbeteringen en optimalisaties zijn aangebracht, die allemaal bij elkaar opgeteld de nieuwe core een stuk efficiënter maken. Zo zijn de vertex shaders van de G70 opnieuw ontworpen om minder bandbreedte te slurpen, en zijn de pixel shaders beter geworden in het omgaan met floating point textures.

Een paar specificieke functies zijn bovendien op het niveau van de hardware geoptimaliseerd om de prestaties flink te verhogen. De veel gebruikte instructie MAD haalde op de GeForce 6800 Ultra bijvoorbeeld 54 gflops, terwijl dat op de GeForce 7800 GTX maar liefst 165 gflops is. Zelfs als het effect van de extra pipelines en hogere klok wordt weggecijferd, komt het er op neer dat de G70 deze instructie twee keer zo snel uitvoert dan zijn voorganger. Ook het blenden en filteren van de pixels gaat op de G70 sneller, zodat HDR-effecten met meer frames per seconde op het scherm getoverd kunnen worden. De verbeterde shader engine is in marketingtermen CineFX 4.0 gedoopt.

nVidia GeForce 7800 GTX GPU (G70 - voorkant en achterkant)

De architectuur van de G70 vertoont overigens zeer grote overeenkomsten met de RSX die in de PlayStation 3 komt te zitten. Er zijn maar twee belangrijke verschillen aan te wijzen. Het eerste is dat de console gebruik maakt van XDR DRAM. Hoewel de GeForce 7800 GTX voorzien is van een 256 bit brede bus met 1,2GHz GDDR3-chips, zal het Rambus-geheugen toch sneller zijn. In totaal claimt nVidia een bandbreedte van 44,4GB/s uit het geheugen en via PCI Express (AGP wordt in principe niet meer ondersteund door de G70). Het XDR van de PlayStation levert 47,4GB/s. Een ander belangrijk verschil is dat de PlayStation-GPU op 90nm gebakken zal worden en daardoor bijna dertig procent hoger klokt: 550MHz. Hoewel nVidia voor de G70 om de een of andere reden nog niet voor 90nm-productie heeft gekozen, is dat in ieder geval een erg gunstig vooruitzicht voor de toekomst (G80).

* Features

Omdat de architectuur eigenlijk alleen maar een gestroomlijnde versie is van wat er nu al op de markt is, zijn er weinig echt nieuwe features te melden. Toch heeft het bedrijf nog een aantal verbeteringen aangebracht. Onder de noemer Intellisample 4.0 wordt een verbeterde vorm van anisotropic filtering geïntroduceerd en komen er tegelijkertijd twee nieuwe manieren om te anti-aliasen bij: TSAA (transparant dynamic ultra sampling) en TMAA (transparant dynamic multi-sampling). Beide zijn bedoeld om het verlies van kleine details dat kan ontstaan bij normaal AA tegen te gaan, door gebruik te maken van het Alpha-kanaal (transparantie).

nVidia GeForce 7800 GTX - Transparancy AA
Links: Normaal AA | Rechts: Transparancy AA

Verder ondersteunt de G70-core het drivermodel van Windows Longhorn en de features die door Windows Graphics Foundation 1.0 vereist worden om de toekomstige 3d-desktop te kunnen tonen, waaronder multithreading en gedeeltelijke ondersteuning voor virtualisatie. Ook is er betere ondersteuning voor het WMV9-formaat in de videodecoder gestopt en is er een nieuwe SLI-mode bijgekomen: AFR2. Al deze extra features worden geactiveerd door de ForceWare 75.xx-serie, maar het is nog niet duidelijk in hoeverre dit ook voor de oudere videokaarten geldt.

* Prestaties

Het mag duidelijk zijn dat de GeForce 7800 GTX een beest van een videokaart is, die de vloer aan kan vegen met welke andere op dit moment verkrijgbare GPU dan ook. Het probleem is alleen dat er ook een beest van een processor nodig is om de G70-core bij te houden. In veel benchmarks blijkt dat er op 'lage' resoluties (1024x768) nauwelijks een merkbaar verschil is tussen de G70 en de huidige generatie videokaarten. In veel gevallen laat de kaart pas met wat meer extreme instellingen zijn tanden zien, en doet het dan ook meteen goed:

Unreal Tournament 2004 (1600x1200, 4xAA, 16xAF)
nVidia GeForce 7800 GTX 169
ATi Radeon X850 XT 103
nVidia GeForce 6800 Ultra 51
nVidia GeForce 6800 GT SLI 46
Half-Life 2 (1600x1200, 4xAA, 16xAF)
nVidia GeForce 7800 GTX 124
nVidia GeForce 6800 GT SLI 112
ATi Radeon X850 XT 99
nVidia GeForce 6800 Ultra 72
Far Cry (1600x1200, 4xAA, 16xAF)
nVidia GeForce 7800 GTX 61
nVidia GeForce 6800 GT SLI 55
ATi Radeon X850 XT 53
nVidia GeForce 6800 Ultra 35

* Koeling en overklokken

Wat direct opvalt aan de kaart is het feit dat de koeler slechts één slot in beslag neemt. Volgens de reviewers is de GeForce 7800 GTX opvallend stil (24dB) en bovendien niet al te warm (55 graden celcius onder volle belasting). Tenminste twee sites hebben de kaart al zonder problemen kunnen benchmarken met de core overgeklokt naar 500MHz. Er zijn dan ook al meerdere fabrikanten die van plan zijn om hun hun kaarten standaard wat hoger te klokken dan normaal. Zo heeft XFX al een een 450MHz-versie aangekondigd en komt BFG met een 460MHz-versie. De bekende overklokker Oppainter pakt het allemaal nog iets extremer aan, en heeft met behulp van een watergekoelde SLI-opstelling van GeForce 7800 GTX-kaarten al de nodige 3DMark-records aan stukken gehakt.

nVidia GeForce 7800 GTX

* Reviews

Door Wouter Tinus

22-06-2005 • 13:36

176

Submitter: XWB

Bron: nVidia

Lees meer

Reacties (176)

176
174
116
28
4
30
Wijzig sortering
Als ik zo eens rondkijk op lanparties dan zie ik dat bijna iedereen een 17" TFT scherm heeft tegenwoordig en de resolutie daarvan is vrijwel altijd 1280x1024. Dan heeft die nieuwe kaart niet echt veel nut als je al een 6800 of een X800 hebt. De niet gamers hebben aan dit soort kaarten zowiezo al niets.
Waarom zouden mensen daar niets aan hebben? Dat de benchmarks in 1600x1200 worden uitgevoerd, hoeft nog niet te betekenen dat die kaart geen lagere resolutie's ondersteunt :?
Test met resoluties van 1600x1200 staan heel stoer maar zeggen in de praktijk niets
Tuurlijk zegt dat in praktijk wel iets. Die 1600x1200 pixels, moeten wel gerenderd worden en hoe hoger de resolutie hoe duidelijker er naar voren komt hoe een kaart presteerd.
Dat laatste is zoiets als een Ferrari kopen voor stadsgebruik. De hardware is er, alleen de spellen absoluut niet en het tempo waarin de ontwikkeling gaat zal het domme 'mijne is sneller dan jouwe'-spelletje dat nu met videokaarten wordt gespeeld eindelijk eens ophouden.

Ik ben niet tegen betere hardware; ik ben wel tegen zinloze 3D-mark scores en nóg hogere framerates, van een klein aantal spellen godbetert, die zo hoog zijn dat je monitor het niet eens kan laten zien, laat staan dat je het *zelf* ziet. Of hebben gamers een beduidend sneller oog dan het 25 Hz-exemplaar waar de gewone man mee is opgescheept? Het wordt eens tijd dat kaarten zich op andere fronten onderscheiden.
Ontwikkelaars van games hebben best al de hardware ter beschikking voor het spel er is. Je had geen Doom 3 of Half-Life 2 verkocht gekregen in het Geforce 2 tijdperk. Ok da's overdreven maar je moet nu eenmaal eerst de hardware hebben, dan volgt de software. Unreal Engine 3 zou vlot draaien op deze kaart maar het duurt nog een jaar of twee eer je een voldoende grote markt hebt van kopers met Geforce 6/7/8 generatie hardware.
Maar kijk nou eens naar hoeveel spellen er per jaar uitkomen die echt gebruik maken van al die moderne foefjes en snelheid. Zet dat eens af tegen de enorme ontwikkelkosten en vaak vernietigende reviews die de uitgever en producent financiële nachtmerries bezorgt zonder dat ze er ook maar íets aan kunnen doen. Oude concepten worden telkens opnieuw opgewarmd zodat men weet dat het spelidee in ieder geval geen kopers zal afschrikken. Er wordt ontzettend veel 'backwards compatible' geprogrammeerd; de interviews met John Carmack over 'rendering code paths' die afhankelijk van het 'shader model' dan zus en dan weer zo moesten lopen zijn berucht. (Vooral omdat de fanboys weer een extra excuus hadden om hun toch-al-niet-zo-erg-gevulde hersenpan nog verder in elkaar te meppen.)

Het moraal van het verhaal: tegen de tijd dat iedereen een Shader Model 3.0-compatible videokaart heeft die naar huidige maatstaven uitstekend presteert, zit de elite al lang en breed te geilen op Shader Model 5.0 en is 3.0 al lang en breed gepasseerd station; sterker nog, de games die destijds werden geroemd om hun ondersteuning van 3.0 worden niet eens meer gespeeld of serieus genomen.

Daarom blijf ik bij mijn standpunt dat ik ook al eerder heb uitgesproken: je betaalt héél véél geld om een kunstmatig tellertje een hoger getalletje te zien weergeven. Dat is dus precies gelijk aan 'de mijne is groter dan de jouwe'. Maar dan zonder het risico dat de ander zich kromlacht over de grootte van jouw, ahem, apparaat.
Ja kijk dit is de entertainment-industrie he. Je betaalt bakken geld voor een beetje lol of opschepperij. Is daar iets mis mee? Een wagen is ook vaak te duur voor wat je hem echt nodig hebt. Luxe kent geen maten. Ik ga er dan ook niet over oordelen (niet dat het iets uitmaakt)...

Zowiezo is het aantal top-end kaarten zoals deze slechts aan een fractie van de bevolking toebestemd. Anderzijds is het vaak zo dat als die kaart het goed doet dan is de mid-end en low-end ook van goede kwaliteit. Kopers kijken naar het beste dat een bedrijf te bieden heeft en baseren daarop hun beslissing.
Er wordt ontzettend veel 'backwards compatible' geprogrammeerd; de interviews met John Carmack over 'rendering code paths' die afhankelijk van het 'shader model' dan zus en dan weer zo moesten lopen zijn berucht.
Dit was een bewuste keuze van Carmack. Hij kon even goed de standaard shaders gebruikt hebben maar dan was zijn spel niet zo snel en had hij op effecten moeten besparen en verkocht het wellicht minder. Vergeet niet dat Quake I onmogelijk was geweest zonder Pentium-specifieke optimalizaties op het instructieniveau. Dat is nu eenmaal waardoor hij zich onderscheidt van de rest.

Maar lang niet alle spellen hoeven zo cutting-edge te zijn. Nieuwe features en performantie maken het makkelijker om applicaties te ontwikkelen. Vroeger had je ingewikkelde algoritmes nodig om zo min mogelijk geometrie naar de grafische kaart te sturen. Nu gaan de scenes bijna reschtreeks van de artisten naar de grafische kaart. Voor ietswat geloofwaardige effecten moest je een genie zijn om ze te ontwikkelen en vlot op het scherm te krijgen, en nu kopieer je de juiste shaders uit een goedkoop boek.
kan ook dat die 17'' special is mee genomen omdat het makkelijk is op een lan.
Dan moet je inderdaad geen GTX kopen. Een GTX is gericht op mensen die superieure beeldkwaliteit willen, zijnde 16x12 4xAA. De nieuwere TFT's ondersteunen ook hogere resoluties.
Mijn 20.3 inch tft doet uitsluitend 1600x1200 of 800x600
Ga jij nou maar niet bepalen wat goed is voor gamers he.
Leuk dat jij het geld er voor over hebt, maar vaak zijn de 20"(1600 x 1200) veel duurder dan de 17" en 19"(1280x1024) dus voorlopig draaien veel mensen niet hoger dan 1280x1024.
Je zou natuurlijk ook aan de crt-mensen kunnen denken, maar dan vraag ik me nog steeds af wie zo'n 21"bak op zijn bureau heeft staan.
Volledig mee eens. Het merendeel van schermen die verkocht worden zijn op het moment 17 inch TFTs, gevolgd door 19 inch TFTs. Zelfs 19 inch schermen gebruiken deze resolutie en in de harde werkelijkheid levert deze nieuwe kaart dus maar weinig op. Test met resoluties van 1600x1200 staan heel stoer maar zeggen in de praktijk niets.
Verder ondersteunt de G70-core het drivermodel van Windows Longhorn en de features die door Windows Graphics Foundation 1.0 vereist worden om de toekomstige 3d-desktop te kunnen tonen, waaronder multithreading en gedeeltelijke ondersteuning voor virtualisatie
Zijn er eigenlijk nog kaarten beschikbaar die het Longhorn-driver-model ondersteunen? Komt er ook ondersteuning voor de Geforce 6800?

Als dat niet het geval is, kan je beter een half jaar wachten totdat er betaalbare kaarten zijn die dit ondersteunen. Anders kan je straks al het lekkers van Longhorn niet draaien.
Het zou me nogal sterk lijken dat de huidige topkaarten wel ongelooflijke complexe werelden kunnen tevoorschijn toveren maar niet de next-generation windows desktop die dezelfde effecten moet tonen die al even in MacOSX zitten en die je onder windows XP ook al kan tonen met windowFX van Stardock.
Je zit een klein beejte fout.
De 6800 moet perfect Longhorn kunnen renderen. Echter is het bijvoorbeeld zo dat 1 applicatie toegang heeft tot de hardware. Om deze samenwerking beter te maken is er extra ondersteuning nodig. De details weet ik niet precies, maar WGF2.0 betekent niet per definitie dat je 2x zo snel kan spelen. Het zijn bepaalde (relatief eenvoudige hardware features) die het voor Windows gemakkelijker en beter moeten maken.

Ter vergelijking:
WGF2.0 op de snelheid van de 6600 zou denk ik al snel genoeg zijn voor Longhorn.
Dat longhorn driver model is gewoon WGF1.0 (Windows Graphics Foundation 1.0) beter bekend als de opvolger van DirectX (9.0c). Dat is dus een hardwarematige implementatie en dus zal de Geforce 6800 nooit ondersteuning krijgen voor WGF1.0 en dus ook niet het mooie van Longhorn kunnen laten zien. Deze kaart kan dat dus wel, en buiten deze kaart zijn er (nog) geen kaarten die het WGF1.0 ondersteunen. Uiteraard zullen de afgeleiden hiervan (7600 en 7200 serie) en de toekomstige Ati R520 dit wél ondersteunen.
De opvolger van DX9 is WGF2.0

WGF1.0 is gewoon DX9 met een paar minieme toevoegingen voor longhorn. Je moet het zien als DX9.0d

Verreweg het grootste gedeelte van de functies in WGF1.0 zal de 6800 dus gewoon hardmatig ondersteunen.
Ik zag toevallig hem al bij Paradigit Arnhem in de winkel liggen... Sjees wat een gaaf ding! Ze hadden er twee stuks (mooi voor SLI...)
en wat vroegen ze dan voor zo'n kaartje ?
Ze vroegen er € 569,- voor....
Altijd dat gezeur van, 'vroeger was alles goedkoper'. Dat is echt niet waar. Volgens mij is de duurste (niet profesionele) videokaart aller tijde nog steeds de GF2 Ultra met z'n 1500 gulden.
De meeste hardware wordt toch echt wel goedkoper. Toen wij een 200 MMX kochten (terwijl de 266 al bestond) koste die pc 3300 gulden zonder "snelle" grafische kaart.Voor een top-of-the-line pc betaalde je al snel 6000 gulden.
Nu kan je al een leuke basis pc samenstellen voor 1000 gulden (€ 450). Het is dus weldegelijk goedkoper geworden.
Anoniem: 50893 @Gin04022 juni 2005 15:48
Vroeger was, bijna, alles goedkoper. Als je dat niet mee krijgt dan denk ik dat je niet in NL leeft, Mars misschien ? :) No flame intended, maar feiten wijzen uit dat in NL bijna alles veel te duur is.
dit noemen we inflatie, mensen verdienen meer, mensen geven meer uit, prijzen stijgen
Dan heb je het nieuws niet gevolgt de inflatie is nog nooit zo laag geweest sinds de €.
Anoniem: 48656 @Gin04022 juni 2005 14:57
Dat is niet helemaal waar.

Kijk maar eens naar de volgende:
http://www.tweakers.net/pricewatch/115923

Een XFX Geforce 6800 Ultra 512MB voor € 741,00 ( * 2,20371 = fl. 1623,95 )
Anoniem: 80450 22 juni 2005 13:43
@gompie :

het is wel omgekeerd he man, bij de 3dmark score ligt de kaart niet zo ver af van een x850xt .

echter in games steekt ie de kaart voorbij als een trein
Misschien ook omdat 3DMark nog niet voorzien is op de nieuwe core ook, en daardoor ook niet alles optimaal renderd. Is net zoals hier al reeds werd aangehaald, in oudere games kan je de kracht niet waarnemen aangezien die voor een oudere generatie GFX geschreven zijn, het is pas in de nieuwe games en benchmarks dat je het verschil pas gaat merken...

FF Off-Topic, als ik goed begrijp zit ongeveer hetzelfde in de PS3 qua GPU? En ik die dacht dat de PC hopeloos achterop zat :p Nu nog de dual core cpu's en we zitten weeral op dezelfde hoogte als de next-gen consoles :D
De ps3 G70 is op 90nm gemaakt en draait aan 550Mhz.
Ligt het aan mij of zie ik weinig verschil tussen de beide vormen van AA?

Op dit moment ontgaat mij het nu dus even. Ik zie bij 1 takje een verschil en dan heb je het al over het dik uitvergroten van het plaatje. Dat betekent niet dat de functie nutteloos is, maar het voorbeeld vind ik niet echt overtuigend.

Voor de rest loopt Nvidia nu voor qua topkaart, over een tijdje loop Ati weer voor met de R520 core. Daarna zal waarschijnlijk Nvidia weer even voorlopen door met een 8800? serie te komen en dus weer even het snelste te zijn.

Ik zie dus totaal niet waarom Nvidia Ati aftroeft. Het is gewoon stuivertje wisselen. Om de beurt vooraan lopen, lijkt het wel.
Anoniem: 77640 @Hann1BaL23 juni 2005 15:26
Zie je niet dat het linkerbeeldje bestaat uit kartelige lijnen en stippellijnen, terwijl het rechts vloeiend is? Dit verschil zal nog heel wat merkbaarder zijn bij beweging (die kartels en stippels bewegen in het rond).
Ik zie dus totaal niet waarom Nvidia Ati aftroeft. Het is gewoon stuivertje wisselen. Om de beurt vooraan lopen, lijkt het wel.
Wat meer kan je verwachten? Zelfde verhaal met AMD versus Intel. De op Dothan gebaseerde dual-core 65 nm CPU zal ook naar alle verwachting moeilijk te evenaren zijn (tot AMD weer een coup pleegt).

't Is wel zo dat deze lancering zeer succesvol is. Daar waar de NV40 en R420 aan elkaar gewaagd waren (je kon niet van "vooraan lopen" spreken) haalt NVIDIA nu een mooie voorsprong voor elke applicatie. Het is ook al de tweede generatie met Shader Model 3.0 en dus qua features liggen ze ook al geruime tijd voor. En de onmiddelijke beschikbaarheid is ook nieuw. Als het waar is dat ATI nog lang op de R520 laat wachten is dat genoeg reden om te zeggen dat NVIDIA ze 'aftroeft'. Tot ATI zich weer van z'n beste kant laat zien... 8-)

Van een afstand bekeken is het inderdaad niet altijd even boeiend. Hate it or love it, dit is Tweakers.net.
Ik vind het vooral sterk dat die 7800 reeds in de winkel ligt.; Dat is nieuw hoor en zeker een goede zet. Ik hoop voor ATI dat ze daar rekening mee hebben gehouden. Als ze dachten van 'het duurt nog wel effe eer die 7800 te krijgen valt; dus we hebben nog even voor onze R520' dan zijn ze mooi gezien (voor een tijdje). Hun nieuwe kindje zal best ook onmiddellijk te krijgen zijn als ze die voorstellen.
Waar komen de grafieken in dit bericht eigenlijk vandaan? Heeft Tweakers zelf getest?
Niet echt denderende score's hoewel die van 3dmark toch erg indrukwekkend zijn, vooral na een overclock. Ik denk dat deze kaart pas echt tot zijn recht komt in toekomstige games, waarvoor hij ook is gemaakt natuurlijk. Het nut om up te graden van een 6800GT of iets dergelijks zou zonde van je geld zijn op dit moment.

Benieuwd wat ATI hier tegen gaat doen B-)
De R520 wordt sneller als de G70, zonder twijfel. Feit is alleen dat deze kaart een stuk voorsprong heeft qua tijd waardoor nVidia's antwoord op R520 sneller komt dan de opvolger van de R520 waardoor nVidia ook daar weer een stukje voorsprong heeft. Feit is nu gewoon dat nVidia eerder klaar is en daardoor ATI aftroeft :)
Anoniem: 77640 @DaWaN22 juni 2005 17:57
De R520 wordt sneller als de G70, zonder twijfel.
Dat is nog niet zo rap te bepalen. Het is wel bijna zeker dat die 32 pijplijnen zal hebben, maar de G70 kan zeer veel shader-instructies per pijplijn uitvoeren. Dus wellicht zal de R520 vrij sterk zijn in texture sampling terwijl de G70 misschien sneller blijft voor shader-intensieve scenes. Een wilde gok natuurlijk.

De R420 was dan ook reeds een R300 architectuur tot het maximum benut, dus de R520 zal heel wat veranderingen (besparingen, optimalizaties, en architecturale aanpassingen) moeten ondergaan om 32 pijplijnen te huizen. Bovendien moet er nog Shader Model 3.0 bij en andere features. Da's bijna even riskant als toen NVIDIA van de Geforce 4 naar de Geforce FX ging. Met de G70 liepen ze weinig risico omdat hij rechtreeks van de NV4x reeks komt (het is NV47 in feite).

Nu wil ik ook niet beweren dat ATI minder zal doen. De twee bedrijven zitten constant tegen de fysische limieten aan nu en zijn minstens even competent. Naar alle waarschijnlijkheid worden ze gewoon elk beter in bepaalde situaties en wordt het afwachten waar de games het meest aan hebben.
Hoop dat ATI wat instructies in zijn R520 stopt om direkt het PC geheugen aanspreekt, dat zou namelijk de PCI-E of AGP bus bottleneck behoorlijk gaan verzachten. Hoe heette dat ook alweer, HyperMemory?
Is dit niet een beetje tegenstrijdig? De PCI-Express bus is geen bottleneck hoor. Anandtech of zo heeft dat eens bewezen door de bandbreedte telkens te halveren. HyperMemory zorgt juist voor meer verkeer over de bus (textures en vertex buffers telkens ophalen uit hoofdgeheugen) en zou dus trager zijn. Enige uitzondering is als het geheugen op de grafische kaart op is. Maar met die high-end kaarten is 256-512 MB toch nog eventjes voldoende. Soit, HyperMemory is welkom natuurlijk, maar ik verwacht er geen wonderen van.

Anderzijds is directe geheugentoegang wel interessant voor GPGPU toepassingen...
@avalOne
Wat je zegt over dat alle Crossfire tests van ATI zelf komen, klopt niet. Een stel overclockers hebben het zelf aan de tand gevoeld. In een voorstadium al zulke performance te halen zegt veel over het eindproduct.

En dat ATI aan paperlaunches doet en nVidia dit keer niet is een keuze van de fabrikant. De producten komen er zeker, en het is gewoon dom om meteen het allernieuwste in huis te halen.

Waar baseer jij je feiten op? Dat een of andere website problemen van ATI opklopt? Dat ze een respin hebben kan goed kloppen maar vergeet niet dat nVidia een typisch amerikaans bedrijf is wat er alles aan zal doen om de concurrenten zwart te maken; erg oneervol. ATI kan dat natuurlijk ook
Dat ze een respin hebben kan goed kloppen maar vergeet niet dat nVidia een typisch amerikaans bedrijf is wat er alles aan zal doen om de concurrenten zwart te maken; erg oneervol. ATI kan dat natuurlijk ook
ATI kan weinig op NV4x/G70 aanmerken hoor, en ten tijde van de Geforce FX hebben ze het zeker niet gelaten om de zwakheden ten opzichte van R300 aan te duiden (eigenlijk terecht).

Ik herinner me ook nog goed dat ATI op de beurzen rondliep met uitdagende T-shirts over hun 'native' PCI-Express oplossing. Uiteindelijk lachte NVIDIA laatst want hun bridge chip werkte prima zonder noemenswaardige overhead.

Dus ze zijn echt geen haar beter wat PR betreft. Maar je moet je daar ook niet op verkijken. Da's maar een klein stukje van een bedrijf en 'oneervolle' PR betekent niet dat hun ingenieurs geen technisch superieur product kunnen leveren.
Wat DingieM bedoeld is dat Nvidia nogal eens de neiging heeft met modder te gooien.

ATI heeft dat een stuk minder.
Met uitdagende T-shirts lopen is namelijk nog wel wat anders dan met modder gooien.

De PR van Nvidia en ATI gelijkstellen is echt je kop in het zand steken.
Ten tijde van de Geforce FX was dat absoluut waar. Zelfs de NVIDIA ingenieurs zelf waren het vaak oneens met de aanpak van het PR team (en die laatste moeten zich ook niet al te gelukkig hebben gevoeld met de extra druk). Zo hebben ze onder andere een ironisch filmpje gemaakt over de Geforce 5800 z'n geluidsvolume.

Ookal kan ik het moreel niet goedkeuren, de PR is wel het enige dat het bedrijf overeind heeft gehouden (buiten ook zeer deftige scores voor DirectX 8 en OpenGL). En vanaf de NV40 kon je zien dat dit ten goede was. Ik kan me dan ook geen 'modder' meer herinneren vanaf dan; ze concentreerden ze zich op de kwaliteiten van hun eigen product.

Laat het me zo stellen: Als ATI ooit in dezelfde positie geraakt gaan ze het niet laten om agressieve PR te voeren. Deze markt is te snel evoluerend om voor iedere generatie je producten voor zich te laten spreken. Die actie met de T-shirts was zelfs eerder kinderachtig te noemen (en ze kregen terecht het deksel op de neus), terwijl NVIDIA vocht voor zelfbehoud...

Soit, we zitten aan de G70 nu en ze hebben het mooi verdiend. Vanaf de R520 zien we wel weer.
MJT: ik raad je aan je eens wat beter te informeren:
http://www.hothardware.com/viewarticle.cfm?articleid=689&page=3#update
"We tried to duplicate the screen shots that ATI supplied to us, and found that ATI seems to have misrepresented the micro-geometry detail of NVIDIA's 8X anti-aliasing method. The screen shots we took on our own with a GeForce 6800 GT, clearly show more detail than the screen shots distributed by ATI in their CrossFire presentation"

http://techreport.com/etc/2004q2/filtering/index.x?pg=2
"Whatever the merits of ATI's adaptive trilinear filtering algorithm, ATI appears to have intentionally deceived members of the press, and by extension, the public, by claiming to use "full" trilinear filtering "all of the time" and recommending the use of colored mip map tools in order to verify this claim. Encouraging reviewers to make comparisons to NVIDIA products with NVIDIA's similar trilinear optimizations turned off compounded the offense. "

Inderdaad echt de kop in het zand steken. Kan je nog meer misleiden dan dit?
Tja, tuurlijk had ik kunnen weten dat een nvidia fanboy als aval0ne hierop moest reageren.
(hoewel zelfs je eeuwige medestander c0d1f1ed het in deze met mij eens is. Zeer eerlijke reactie van hem)

dat hothardware artikel moet ik nog even verder bekijken. Maar wat je wel duidelijk kunt zien in de twee 6800 screenshots is dat de resolutie ontzettend belangrijk is in dit verhaal (in het linker shot zie je bij de antenne's in de linkerkant van het 1024 shot namelijk geen details meer bij de antenne's Helaas zie ik bij hen niet staan op welke resolutie de ATI shots zijn)
Overigens is dat ATI antwoord wel erg slecht. Zowel Nvidia als ATI zullen nooit screenshots tonen die niet daadwerkelijk op die hardware gemaakt zijn. PR afdelingen gaan ver, maar nooit zo ver. (dan krijg je namelijk een rechtzaak aan je broek)
Ze zullen dus altijd kunnen bewijzen dat dat een echt screenshot is. Daarom moeten ze minstens kunnen vertellen in welke omstandigheden het shot gemaakt is.

Slechte zaak dat ze dat hier niet gedaan hebben. (vraag is dan ook wie ze eigenlijk gesproken hebben) Het lijkt er op dat ze nogal overvallen waren door de vraag van hothardware.
Ik zie trouwens geen link naar een discussie over dat artikel. Doen ze daar niet aan bij hothardware? Dat zou wel erg jammer zijn, want zo'n beschuldiging verdient wel wat meer aandacht dan één paragraaf.

Over dat techreport artikel kan ik kort zijn. Die gasten kunnen niet lezen. Dit is een oude koe uit een oude sloot.
Bij PR verhalen moet je altijd heel nauwkeurig lezen wat ze vertellen.
En als je dat niet goed doet, dan begrijp je wel eens wat anders dan wat er daadwerkelijk gezegd is. En daar probeerden ze dan een schandaal van te maken.
Maar alles wat ik zeg negeer je toch altijd, dus ik ga ook niet teveel moeite doen je te overtuigen. Als je de comments op dat artikel bekijkt dan zie je dat het volledig afgeschoten word.
Het essentiele punt word daar door agsilva heel duidelijk verwoord:
The only hole I see is that one has to wonder how ATI can develop a new technique that improves performance without degrading image quality which is what they say they have done (and NO one has proved otherwise). I guess that is what the patent is for. This gets into what WaltC was talking about regarding qulaitative differences. If it isn't a flat out 'straight' trilinear calculation but the image quality is the same is that fair? Well, why not if not?
Zoals je wellicht weet heeft Dave op Beyond3D toen nog blinde tests gedaan met die technique en inderdaad werd vastgesteld dat de kwaliteit niet zichtbaar minder was geworden.
waarom die agressieve toon? Jij doet een statement over nvidia en ik weerleg die met duidelijk en objectieve bewijzen en hun bronnen. Ik verzin die niet. Ik kan mijn beweringen hard maken, dat je daar niet tegen kan ligt niet aan mij.
Noem je dat een aggressieve toon? Dat is de toon die jij altijd aanslaat als het over ATI gaat.

Over die bronnen voor jouw stellingen. De ene is al lang ontkracht en de ander is nog niet goed genoeg onderzocht. Bepaald geen overduidelijke bewijzen en zeer geen objectieve bewijzen. (Dat laatste blijkt ook duidelijk uit de toon van de artikelen)

Maar zelfs als die eerste aantijging blijkt te kloppen dan ligt Nvidia nog steeds straatlengtes voor op ATI waar het gaat om het aantal incident waarbij met modder wordt gegooid.
Mijn stelling blijft dus gewoon staan.
Niet is erger dan een blinde fanboy. ATi heeft toegegeven dat die screenshots 'vergissingen" waren. Ze zijn dus niet ontkracht maar net bevestigd.
Beide marketingafdelingen gooien met modder, dit is nu eenmaal marketing. Ik geef toe dat nvidia het doet maar ATi doet net hetzelfde. En dat is mijn punt. Je doet net alsof ATi heiliger is dan de paus. Het kan er echt bij jouw niet in dat ATi ook maar iets negatiefs doet eh? Ontkenning is de eerste faze zeggen ze wel eens.
Inderdaad hele wilde gok.
ATI is sinds de R300 veel sneller in shader berekeningen geweest dan nVidia en het zou wel eens heel raar zijn die relatief grote voorsprong te verspillen, dus ik zou verwachten dat de zo succesvolle R300 ontwerpers een huzarenstukje kunnen afleveren met hun laatste creatie.
Misschien wilde gok van mij maar ik zou denken dat ATI meer de generiekere weg opgaat met shader-eenheden, tussen de R420 en de Xenox-GPU in.

Hoop dat ATI wat instructies in zijn R520 stopt om direkt het PC geheugen aanspreekt, dat zou namelijk de PCI-E of AGP bus bottleneck behoorlijk gaan verzachten. Hoe heette dat ook alweer, HyperMemory?

Desalniettemin is die nieuwe G70 een duivels snelle kaart, maar vraag me toch af hoe dat zal gaan met dat SLI systeem. Als ATI met zijn Crossfire in het voorstadium van uitlevering al significant sneller is als HET spel voor nVidia's, DOOM3, in SLI mode met 6800Ultras dan vrees ik voor nVidia met R520's in Crossfire.
DingieM: Je kan niet over Crossfire spreken want het ding is niet verkrijgbaar. De crossfire previews waren op basis van maar 4 games en op basis van wat ATI vertelde. Niemand, geen enkele review site, heeft werkende crossfire moederborden of kaarten gehad. Crossfire is een paper launch typisch voor ATi.
De R520 heeft ook problemen, het is genoeg in het nieuws gekomen dat ze aan respin 45632 bezig zijn en dat het dus nog een hele tijd duurt voor die beschikbaar zal zijn. Natuurlijk zal er binnenkort weer paper launch zijn maar verkrijgbaar wordt de R520 niet voor oktober.

Dit zijn de feiten, daarop moet je je baseren. De GTX is echt, die van ATI bestaan enkel op papier.
Je blijft gewoon negeren dat Nvida het in veel grotere mate doet.

ATI doet het 1 keer tegenover Nvidia 10 keer.

En dan doen ze volgens jou hetzelfde en zijn ze beide even erg.
Maar volgens mij zit er dan nog wel aardig wat verschil tussen de bedrijven.

Maar daarover zullen we het wel nooit eens worden.
Ben je de nieuwe nostradamus? Kan jij in de toekomst kijken? Wat de r520 gaat presteren weet niemand, ook al zeggen de ati fanboys dat hij sneller zal zijn.
Ben je de nieuwe nostradamus? Kan jij in de toekomst kijken? Wat de r520 gaat presteren weet niemand, ook al zeggen de ati fanboys dat hij sneller zal zijn.

Newsflash: Zelfs Nostradamus kan dat niet voorspellen! :+
Niet helemaal waar, ik denk dat ze bij ATI wel aardig weten hoe deze gaat presteren.
Wij weten het natuurlijk niet, maar we kunnen wel bedenken wat we kunnen verwachten.
En als ik zie dat het verschil tussen de X850 en de G70, en bedenk dat deze 90nm is en waarschijnlijk ook 24 pipes heeft, dan lijkt het vrij zonnig voor ATI
Dan moet hun 90nm proces natuurlijk wel goed uitpakken, wan als het zo gaat als bij intel, dan hebben ze een probleem.
Tja, nVidia krijgt nu eerder geld binnen en voor de geld-wellustelingen kan er het gevoel van "aftroeven" wel opkomen.
De prestatieverschillen met de voorlaatste kaarten zijn duidelijk maar het kleine verschil met de snelste ATI is geen goed voorteken. Dat ze benchmarks van oude spellen als Unreal 2004 er nog bij halen zegt niets meer omdat de meeste kaarten dit al snel kunnen verwerken.
Als ATI zoals ze zeggen 2x de snelheid van een X850XT PE daadwerkelijk kunnen halen......

Ik vind het raar dat de post het heeft over het in stukken gehakt worden van de 3DMark scores. Zoiets zeg je toch niet vanuit een objectief perspektief? Toch weer die nVidia fanboy-ism?

Berekent de G70 ook ALLES naar een HDTV formaat zoals de X8xx reeks van ATI kan? Als dit zo is wordt de G70 voor mij een stuk interessanter.
Het zal toch een ATI R520 derivaat worden voor mij, als ik het geld er voor heb. :'(
En ga nou niet zeggen dat de X850xt PE in crossfire sneller is dan een enkele 7800; crossfire is nog geen eens uit.

Newsflash de 7800 is ook nog niet te krijgen net als atis crossfire.
Als deze net zo goed leverbaar word als de 6800 GT/ultra en ati`s x800pro / pe dan kun je nog wel een paar maand wachten totdat ie echt in de winkel ligt.
@abraxas
word wakker de 7800GTX is reeds leverbaar.
heb hem vandag in Aken in de handen gehad.

diverse nederlandse webshosp hebben hem ook op voorraad.
het is nog maar een kleine kwestie tot de 7800GTX in elke webshop te koop is zoals nu de 6800 kaarten.
Het nut om up te graden van een 6800GT of iets dergelijks
Niet iedereen heeft een GF6800 hoor.
en olaf van der spek word weg gemod met overbodig?

ik vind wel dat hij gelijk heeft.
iedereen zeurt: nou zo veel sneller dan eeen 6800GT is ie niet dus upgraden heeft geen zin.

ik heb geen 6800GT (of iets in de richting) en ik denk velen met mij.
en als de prisj valt (als de r520 ichterbij komt) dan is de 7800GTX een flink stuk aantrekkelijker dan een 6800GT.

vergeet niet dat in veel benchmarks die veel sites gedaan hebben de 7800GTX zwaar afgeremd word door de gebruikte CPU.
dat is de reden waarom sites zoals anandtech all hun benches op resoluties van 1600x1200 en hoger gedaan hebben.
dit zodat men duidelijk het power verschil kan zien waar een 7800GTX eenvoudig weg een 6800ultra in SLI weg trekt etc.
bei lage resoluties is er geen verschil tussen 6800ultra en 7800GTX omdat de huidige CPUs te langzaam zijn.
dus voor de toekomst met snellere CPus en spellen die gebruik maken van dual core CPUs zal de 7800GTX veruit beter zijn dan een 6800ultra of een x850xt, het is nu gewoon het pech dat de CPus de zaak afremmen.
dit zal ook met de r520 het geval zijn, maar ik ben zeker dat veel mensen dan niet zeggen: o is dit alles? de r520 is maar een beetje sneller dan mijn x850XT, god word wakker en verklaar je zelf het feit waarom veel gerenomeerde sites flink overclockte AMD64 FX CPUs gebruiken.
Als ik je een +2 had kunnen geven, had ik het gedaan.

Er wordt hier veel te veel geouwehoerd over de prestaties van deze kaart t.o.v. andere dure oplossingen. Het wordt pas interresant als NVidia een 7600GT gaat uitbrengen voor <= 300 Euro. Ik ga echt geen 500 Euri betalen voor een nieuwe video kaart. Deze 7800 kaart presteerd in highend (>=1600x1200 resoluties) erg goed t.o.v. van z'n voortgangers.

Z'n voortgangers maakten deze highend resoluties speelbaar. Deze opvolger presteerd zelfs vaak beter dan SLI opstellingen van een 6800 ultra. Alle huidige nieuwe higend kaarten kunnen speelbare resoluties (>60FPS) leveren op hoge resoluties, het draait steeds meer om special effects die de boel vertragen.

Het is dan ook op de special effectsc waarop NVidia verbeteringen in deze core heeft aangebracht, daarom vind ik het ook HEEL ERG JAMMER dat deze benchmarks zich niet meer richten op de 30 t/m 60FPS grens waarop spellen (vooral die met veel special effects) speelbaar worden. Het zal me nl "aan me reet roesten" dat ik UT2004 nu in 170 FPS kan spelen. De vraag zou meer moeten zijn wat voor kwaliteit ik kan hebben op speelbare framerates.

Als ik kijk naar de benchmarks van Anandtech dan zou ik zeggen dat deze kaart vooral voor nieuwe spellen een hele verbetering is,maaaaar dat toch de CPU een bottle neck begint te vormen (vooral voor de phyisics).

Dus al met al lijkt het me interesant op het moment dat games de physics Dual Core hebben draaien en de nieuew ATI kaart ook uit is. Pas op dat moment kunnen we conslusie gaan trekken wie beter is.
Het aantal fps tellen is de makkelijke manier van benchmarken, en iedereen begrijpt dat ook.

Spellen op 60 fps vastzetten en dan de beeldkwaliteit aanpassen is veel lastiger. Ten eerste begrijpen een boel mensen dat niet, en verder krijg je de discussie wat er dan als eerste aangepast moet worden. Ga je eerst FSAA aanzetten of ga je de resolutie verhogen?

Maar HardOCP benchmarkt al een tijdje op die manier, dus die review zou je dan eens moeten lezen.
Ik heb een 6800u en ga me zeker een GTX aanschaffen. Waarom?
- SM3: is sterk verbeterd, we zien enorme performance winsten in Splinter Cell
- HDR: we zien in farcry en riddick dat de performance bij het gebruik van HDR veel beter is
- Nieuwe IQ opties: tranparent, gamma corrected, SS, MS, allemaal nieuwe of betere AA opties die de beeldkwaliteit enorm verbeteren
- power: de kaart verbuikt minder en is verder te overklokken.
Alleen jammer dat HDR en AA niet tegelijkertijd gebruikt kunnen worden.
Dat maakt HDR nogal zinloos.

Vreemde design beslissing. zou HDR + FSAA te zwaar worden voor de kaart?
Ik denk niet dat de 7600 zo'n interresante kaart gaat worden. Waarom? De 6600gt was zo aantrekkelijk omdat die sneller was als de vorige generatie high-end kaarten. Ik denk echt niet dat de 7600 sneller zal zijn dan een 6800gt/ultra, aangezien de 7800GTX al niet zo enorm veel sneller is. En aangezien je straks een 6800 gt voor rond de 200 euro zult kunnen vinden denk ik dat die kaart veel aantrekkelijker zal zijn dan een 7600 die niet veel lager geprijst zal zijn.
Een kaart die koeler en stiller en misschien net evenb sneller is dan de 6800 is altijd een verbetering en vernieuwing
Is het al bekend wanneer de 7600 gaat uitkomen (ongeveer)?

Op dit item kan niet meer gereageerd worden.