Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 183 reacties
Bron: Diverse, submitter: T.T.

Na maanden geleden al te zijn aangekondigd, is het nu dan eindelijk zover; nVidia's GeForce FX is officieel vrijgegeven. Tijdens de aanloop naar de introductie wekten aankondigingen van nieuwe technieken soms erg hoge verwachtingen. Op internet verschijnen nu links en rechts de diverse reviews en benchmarks waar velen naar uitkeken, en die onder andere antwoord moeten geven op de vraag of met de GeForce FX nVidia's poging tot een coup royal ten opzichte van de ATi Radeon 9700 Pro, de huidige koning in graphicsland, geslaagd is. Het antwoord is niet zo simpel te geven, wat op zichzelf al veelbetekenend is. We namen een kijkje bij een paar hardwaresites:

* TecChannel:

Het Duitse TecChannel bijvoorbeeld testte de GeForce FX 5800 Ultra in de gedaante van een Terratec Mystify 5800 Ultra (á 649 euro) op een Pentium 4 3,06GHz systeem, en concludeert dat de GeForce FX 5800 Ultra weliswaar door de bank genomen de Radeon 9700 Pro verslaat, maar slechts met de hakken over de sloot, en moet in sommige benchmarks de Radeon zelfs voor laten gaan. De ATi Radeon 9700 Pro is alweer een tijdje op de markt, en verkrijgbaar voor rond de 400 euro, merkt de reviewer op. Stationair bedraagt het energieverbruik van de GeForce FX 5800 Ultra 31W, van de Radeon 9700 Pro 24W. Bij volle belasting wordt dit respectievelijk 75W en 54W, ten nadele van de FX. De GeForce FX heeft technische innovaties aan boord, maar gameprogrammeurs moeten hiervan nog gebruik gaan maken. Of rijpere drivers nog veel extra perforrnance winst zullen boeken is afwachten geblazen, aldus TecChannel.

* Tom's Hardware Guide:

Tom's Hardware prikte nVidia's en ATi's topproducten in een nForce2 moederbord met een Athlon XP 2700+ voor een vergelijkend warenonderzoek. In de diverse gamebenchmarks met standaardinstellingen (zonder inschakeling van FSAA en anisotropic filtering) kwam bij THG de GeForce FX meestal als best presterende kaart naar voren. Echter, met het opschroeven van de resoluties kromp de voorsprong ineen. Inschakeling van FSAA en AS gaf een gemengd resultaat, in Serious Sam 2 is de Radeon 9700 Pro dan meestal sterker. Dat laatste doet THG vermoeden dat de smallere geheugenbandbreedte van de GeForce FX 5800 Ultra de kaart daarin parten speelt. Ook in de eindconclusie wijst THG de GeForce FX als winnaar aan, maar met de nodige kantekeningen. De FX wint de meerderheid van de tests, maar slechts met een kleine marge, én, zo vraagt THG zich af, tegen welke prijs? Hoge clocksnelheden, hogere voltages, grotere warmteproductie, en hogere koelingseisen enerzijds, maar ook duurdere, complexere technologie anderzijds, zoals DDR-II geheugen, en een twaalflagige kaart als drager.

* AnandTech:

AnandTech meldt dat de GeForce FX 5800 Ultra voor 399 dollar op de schappen zal liggen, vergelijkbaar met ATi's Radeon 9700 Pro, en de GeForce FX 5800 (400/800MHz) zal rond de 299 dollar gaan kosten. Anand verwacht dat de Ultra aanvankelijk nog wat duurder zal zijn dan de ATi Radeon 9700 Pro. Wat natuurlijk opvalt aan de GeForce FX 5800 Ultra is het aangebrachte koelsysteem, wat twee PCI-sloten aan ruimte in beslag neemt. Anand beschijft dat de GeForce FX 5800 Ultra op lagere clocksnelheden werkt (300/600MHz, core/memory), wanneer de 3D-pipeline niet gebruikt wordt (2D-modus). Hierdoor kan in die modus ook het toerental van de fan omlaag, om zo slechts iets meer geluid te produceren dan de ATi Radeon 9700 Pro. Zodra echter in de 3D-pipeline enigerlei activiteit plaatsvindt, worden niet alleen de clocksnelheden opgeschroefd naar 500MHz/1GHz, maar wordt ook de fan op de schouders getikt en verzocht zijn uiterste best te gaan doen. Het resultaat laat zich via voorgaande links bekijken en vooral beluisteren. Anand bemerkte verder dat bij oververhitting (door overklokken bijvoorbeeld ), de GeForce FX automagisch terugklokte naar 2D-modus (300/600MHz), en niet naar de default waardes van de 3D-modus.

GeForce FX 5800 Ultra vs. Radeon 9700 Pro

Anand concludeert dat de performancewinst van maximaal tien procent die de GeForce FX weet te behalen in diverse games ten opzichte van de Ati Radeon 9700 Pro, nogal teleurstellend is gezien de maandenlange vertraging. ATi heeft met haar keuze voor een 0,15 micron procédé deze keer goed gegokt aldus Anand, al waren de problemen voor nVidia met het 0,13 micron procédé niet te voorzien ten tijde dat de keuze ervoor gemaakt werd, ongeveer één á twee jaar geleden. Overclockingtests hebben al laten zien dat de jongste Radeon core nog de nodige doorgroeimogelijkheden heeft, en Anand verwacht dat zelfs een getweakte GeForce FX weinig kans maakt tegen een nieuwe ATi R350 core. Dat belooft dus nog wat.

nVidia GeForce FX logoConclusie:

Al met al dus goed of minder goed nieuws, afhankelijk van hoe je het bekijkt. Het minder goede nieuws is dat de GeForce FX 5800 Ultra geen meedogenloze killerkaart is die zijn concurrentie ver achter zich laat, zoals sommigen misschien verwacht of gehoopt hadden. nVidia's nieuwste wint in veel gevallen met een neuslengte verschil en produceert daarbij een grote stofwolk; met name achter de pc waarin hij naar adem hapt om zijn overwinning te behalen. De vraag is of dit een overwinning is waar je erg blij mee moet zijn. Waarschijnlijk wel; een gevecht waarin twee concurrerende producten zo nek-aan-nek strijden om de eindzege, kent meestal een lachende derde winnaar . Met de komst van goedkopere bread-and-butter varianten zal nVidia dit jaar in ieder geval weer de nodige omzet weten te behalen. Ondertussen is het wachten op games met DX9 features.

Overzicht reviews:

Gerelateerde content

Alle gerelateerde content (34)
Moderatie-faq Wijzig weergave

Reacties (183)

1 2 3 ... 10
Ik vraag me af hoe het zit met de 3d kwaliteit. Zoals bekend heeft de XF foating point preciesie. Deze is eigenlijk bedoeld voor DX9 games, maar ik vraag me af of je er ook al wat van in de huidige games in gaat terugzien.
Ook de Radeon9X00 serie heeft floating-point ondersteuning (96 bit). Dit zal je niet terugvinden in huidige spellen, wat je wel terug zal zien is AA (anti-aliasing, dus minder kartelrandjes) en AF (Anisotropic filtering, scherpere textures in de verte).

In de Anandtech review kun je heel goed zien dat AA er op de Radeon9700 veel beter uitziet. Bij Hard|OCP hebben ze daar ook een vergelijking tussen:
GeForceFX en Radeon9700Pro
Het beeld van de GeForceFX ziet er een stuk minder mooi uit (vooral de AA valt tegen).

Overigens heeft ook Hexus een review gemaakt.
de ATi ziet er idd beter uit dan de nvidia met die 2 pics, maar kijk ook eens naar de FPS die in beeld staan: 62FPS voor ATi en 27FPS voor nvidia!! Erg groot verschil bij een zelfs minder beeld....
AA is een stuk intensiever om te berekenen dus die 2x meer AA op de nVidia verklaart de FPS prima....
Dat maakt niet zo heel erg veel uit. Zoals je al hebt aangegeven is 8xAA van nV vergelijkbaar met 6xAA van ATi. Maar zelfs al zou nVidia op 6xAA werken, dan is de performancedrop nog gigantisch. Kijk maar eens op de tests van HardOCP en Anandtech.

6xAA bij nVidia = 39% performance
6xAA bij ATi = 60% performance

Dat wil zeggen dat de compressiemethoden bij ATi veel effectiever zijn dan die van nVidia. En het feit dat 6xAA er net zo goed (of zelfs beter) uit ziet en stukken sneller is dan 8xAA bij nVidia, is alleen maar het bewijs dat ATi superieur is wat betreft AA-technieken.
Ik wil wel een render zien van een 6xAA 16xAF nVidia...
Ik ben bang dat je dan een enorme performancedrop zult zien bij nVidia als de kaart 16xAF had aangekund. En aangezien het hier om de FPS-en ging, zal nVidia nog verder weg zakken. Draai het eens om. Als de ATi-kaart op 8xAF had gedraaid, dan had het er nog beter uit gezien dan op een FX en dan waren de FPS-en nog hoger...
niet heel raar ook, dat het beeld beter is op de ATI en dat de ATI ook nog eens hogere FPS heeft
De nVidia draait 8xAA en de ATI 6X, het verschil zit hem duidelijk in de wat verderweg gerenderde omgeving, wat af hangt van je AF, die bij ATI op 16!!!x staat en bij nVidia op 8x, AA is een stuk intensiever om te berekenen dus die 2x meer AA op de nVidia verklaart de FPS prima....

conclusie lijkt me dat voor die 2 renders het een beetje scheef vergelijken is, ik weet niet of de nVidia 16xAF kan...
maar wat in iedergeval duidelijk is is dat 6xAA niet onderdoet aan 8xAA en ik moet nog zien of 4x aan 6x onderdoet...
wat wel; duidelijk is is dat de 16xAF heel erg veel uit maakt ten opzichte van de 8xAF...
Ik wil wel een render zien van een 6xAA 16xAF nVidia...
ik blijf benieuwd naar de resultaten, gewoon omdat we nu 'het beste van' tegenover 'het beste van' testen, waar het natuurlijk ook over gaat, maar ik durf te beweren dat de kartelige randjes in de achtergrond bij de nVidia render, liggen aan de AF en weinig te maken hebben met de AA, als je namelijk naar alles wat dichterbij is kijkt is er nergens een kartel randje te vinden, logies, met een 8xAA, en het verschil op de lange afstand komt door de AF, die met 16x tegenover 8x niet 2 keer zoveel is maar een factor nogwat :)

mijn conclusie daar uit is dat de AF een belangrijkere factor is in de renders dan dat de AA is dan wel 6x dan wel 8x maakt weinig uit, zou je de ATI op 8x zetten of de nVidia op 6x zal weinig uitmaken in je render, het verschil is namelijk al niet waarneembaar, het verschil zit hem in de verte, en dat is een kwestie van AF
Ik weet dat de nieuwe ATI's ook Floating point verwerking hebben, maar het zou kunnen dat de Nvidia drivers voor DX8 games de zooi omzetten naar floating point's zodat het mooiter is...

Dit bedoel ik nu dus:
http://www.tomshardware.com/graphic/20030127/geforce_fx-11.html
(Z-buffer problemen, moet bij gezegt worden dat dat meer een probleem is van de Z-buffer instelling van het geteste spel, en dat je dat zelf kunt instellen)
Ja, in donkere stukken zie je evtl vloeiendere overgangen. Serieus merken doe je het pas als men meer textuurlagen gaat gebruiken.
De 9700/9500 heeft trouwens ook floating point TMU's.

@Beun_de_Haas: 3D! 2D is verourderd ;)
Dus jij kijkt altijd naar 3D ? ook windows/linux/etc... en je word applicaties, browsen, noem maar op.....

2D is zoveel ook mee te doen, zeker zoveel als 3D. Dus ik zou niet zeggen dat 2D verouderd is.
Onder OS X is dit wel het geval. Daar wordt alles in openGL gerenderd.
Elk window bestaat uit polygonen en heeft de inhoud als texture. Lees maar.
Here?s how it works. Quartz uses the integrated OpenGL technology to convert each window into a texture, then sends it to the graphics card to render on screen.
pdf
Alleen wellicht de window open/close anims, maar een 2D glyph wordt echt niet met OpenGL commands op het scherm gezet hoor, dat wordt direct in de framebuffer gerendered door software renderroutines, zoals je die ook in bv GDI+ vindt.
Oeps, 4real had eerst 2d staan, waar ik direct op reageerde |:(

Zelf vind ik 2d kwaliteit trouwens zeker zo belangrijk als 3d.
"@Beun_de_Haas: 3D! 2D is verourderd"
2D is wel hetgene waar je tegenaan zit te kijken terwijl je dat typte. Ik kan er niet tegen dat de text blurry is, dus 2D heeft echt wel meerwaarde en is zeker niet verouderd. De snelheid van 2D is tegenwoordig niet zo heel belangrijk meer, daar ben ik het mee eens.
Er stond een smiley achter, schat. Dat betekent dat ik het ironisch bedoelde.
Volgens mij hangt de 2d kwaliteit vaak meer af van de kwaliteit van de componenten op de uiteindelijke kaart, dan van de GPU zelf...
nope, dat bedoel ik niet. Ik bedoel echt de kwliteit van de 3D graphics, zoals filtering, Z-buffer kwaliteit (of wat voor mechanisme dan ook..), transparantie kwaliteit, kleurkwalitiet e.d
Filtering is afhankelijk van de anisotrope filter, die (althans in de quality-instelling) nog steeds de beste is. Aan de z-buffer is niets veranderd. Voor transparantie heeft floating point voordelen.

Serieus merken zul je de 9700/9500/GFFX-mogelijkheden op dat gebied trouwens pas als je ook spellen hebt die 64-bit rendering aanbieden.
Ow my! Dat is niet meer normaal hoor, nu heeft NVIDIA echt het dieptepunt bereikt! Als je die HQ comparison test bekijkt zie ik toch echt dat de Radeon veel beter gebruik maakt van AA, kijk maar goed naar die balkenconstructie. Toen ik daarna ietsje naar rechts keek schrok ik me helemaal te pleuris! Een FPS van >60 voor de Radeon en <30 voor de GeForceFX, nu vraag ik je :*)
Overigens vind de AF van de Radeon ook beter, tenminste in mijn ogen, hier kan ik nog wel inzien dat sommige mensen de GeForceFX mooier vinden renderen, maar bij de Radeon ziet het er naar mijn mening in de verte op die tegels scherper uit.
De 3D kwaliteit van de textures is zeker goed. Potentieel is er wel (net ff iets meer dan de Radeon door de uitgebreidere programmable pixelshaders). Alleen de softwaremakers houden zich meestal aan de grootste gemene deler; ze gaan vooral de features van DX9 die door alle kaarten ondersteund worden gebruiken.

Wat duidelijk wel minder goed uitgewerkt is is de FSAA kwaliteit van de GFFX. En de Drivers voorlopig ook. In de weergave met AA 4xs> zaten fouten volgens HardOCP:
Our tests were not without error on the GeForceFX either. I experienced texture/polygon corruption in UT2003 and NFSHP 2
texture corruption

\[edit:] nu ik de test van Anand goed doorgelezen heb moet ik zeggen dat de 2x AA en Quincunq maar boerenbedrog vind. Ik zie geen enkele verbetering. Je krijgt bij alle huidige spellen met 4xAA en 8x aniso met de radeon gewoon meer frames/s.
Het kan toeval zijn maar.....
Nvidia heeft 3DFX overgenomen en vertoond nu dezelfde eigenschappen bij het maken van nieuwe kaarten en chips; groot, log, heet en veel vertragingen.
Het lijkt er bijna op dat nu Nvidia in de problemen komt zoals dat ook 3DFX overkomen is.
Ik vind deze FX kaart maar een log, lelijk en weinig indrukwekkend bakbeest als je het vergelijkt met de bestaande (en binnenkort komende) ATI kaarten... ;(
Nvidia heeft 3DFX overgenomen en vertoond nu dezelfde eigenschappen bij het maken van nieuwe kaarten en chips; groot, log, heet en veel vertragingen.
Wet van de remmende voorsprong. nVidia heeft met de GeForce 3 al een bepaalde keus gemaakt in welke richting ze zouden gaan. Daar kunnen ze niet zomaar van afwijken, dat kost veel geld. Maar als je dan na een paar jaar merkt dat de concurrentie je inhaalt, dan kun je niet zomaar eventjes omschakelen.

Toch vind ik het gek, nVidia was de ongekroonde koning van de geheugenbandbreedte. Dat hebben ze laten schieten, blijkbaar. Volgens mij een kapitale fout die ze pas weer met de volgende core in kunnen halen.

nVidia doet er goed aan de prijs niet te hoog te zetten, anders koopt niemand hun kaart meer en halen ze de ontwikkelkosten er niet eens meer uit. Een pas op de plaats maken is nog altijd beter dan jezelf doodrennen zoals 3dfx heeft gedaan.
Wet van de remmende voorsprong
nee ik denk het niet. B Gates zegt bv dat hij graag mensen aanneemt van bedrijven in moeilijkheden omdat die gedwongen zijn om over hun fouten en strategie na te denken. Als alles voor de wind gaat heb je geen behoefte aan het streamlinen van je processen.

Ati heeft dat duidelijk wel gedaan: betere drivers, slimme technieken voor het beter benutten van de beschikbare bandbreedte. Gepaard aan oude sterke punten als uitstekend 2D beeld en goede ondersteuning van videoplayback (dvd).
nVidia niet. Die dendert nog gewoon voort op het oude anxioma: fillrate! Oftewel: brute kracht met de nieuwste productieprocessen en snel geheugen. Daar komt dan wel aandacht voor 2D en bandwth en multimonitor bij, maar de TV-out is al tijden beroerd (waarom hebben mensen een los tooltje nodig als TV-tool?)
nVidia was de ongekroonde koning van de geheugenbandbreedte
Daar ben ik het dus al pertinent mee oneens! Voeg daar maar [i]tekort[/t] aan toe. Rauwe bandbreedte wel ja, alleen ze gebruiken het zo slecht. Ze deden er alles aan om hun concurrent met de Kyro belachelijk te maken (weet je nog die uitgelekte pdf?) terwijl die wel degelijk een zeer goed punt hadden.
Pas met de x-bar controller begonnen ze er wat aan te doen. En dan blaten dat ze 45 GB bandbreedte halen met compressie (waarop Ati droogjes counterde dat zij nog een beetje meer deden).
Ja.. Het lijkt er inderdaad op dat nVidia hier de plank mis aan het slaan is. De NV30 is technisch zeker superiuer aan de R300, maar het zeer de vraag of de extra features gebruikt gaan worden in games. Als ie voor een console bedoeld was dan zijn extra features prima, maar voor een pc zou ik de features gewoon DX compatible houden en gaan voor rauwe speed/hoge FPS.

Ik ben trouwens nu erg benieuwd naar de NV31. Die zal moeten concureren in het middensegment.. Dat kan alsnog een hele toffe kaart worden voor niet al teveel geld. Ze moeten hem alleen niet kreupel maken en een aantal features uitschakelen..

ATi doet feitelijk hetzelfde als nV gedaan heeft toen ze 3Dfx versloegen.. Relatief simpele maar snelle kaarten neerzetten. Je wordt in de testen toch afgerekend op fps in games, so why bother...
Zonde, valt at the end toch wel tegen. Net als de Matrox met de Parhelia nu ook nVidia, teveel gehyped en te weinig prestatie. De perfecte kans voor ATi om met de R350 eens flink nVidia tussen de benen te trappen, gezien nVidia nu gewoon met een probleem zit mbt. de 128bits membus.
Tsja... 250 euro duurder, 1 PCI slot extra kwijt, veel meer benodigde stroom, veel meer hitte, veel meer lawaai, grafisch kwalitatief minder, vermoedelijk niet echt overclockersvriendelijk (vanwege warmteproductie)... en dan ook nog nauwelijks serieuze performancewinst in de resoluties waar het er echt toe doet...

Gemiste kans voor nVidia, en ATi staat lachend langs de zijlijn. Ik weet al wat mijn volgende videokaart wordt, en dat is geen nVidia Geforce FX!
ik zit nu ineens te twijfelen of ik meteen maar een radeon haal of dat ik ff wacht tot de R350.
Zeker omdat ik voor 600/700 euro echt wel in 1600x1200 wil kunnen gamen met strakke graphics, en als het ff kan anti-aliasing aan op 4x.
Het is dus sowiezo een feit dat voor mij de r9700 overal sneller zou zijn dan de FX omdat ik zoveel mogelijk in 1600x1200 ga werken dan.

Begrijp me niet verkeerd, ik ben altijd nvidia fan geweest, en ik heb nu een ti4600 in mn pc hangen van gainward waar ik dik tevreden mee ben.
Maar dit valt me gewoon vies tegen van nvidia.
Zeker door alle beloftes en hoge verwachtingen die ze hebben gemaakt komt dit wel hard aan vind ik.
ik hoop stiekem dat dit gewoon rotte samples zijn en dat ze hem nog FLINK verbeteren, maar ik ben bang dat hij de radeon op hoge resoluties toch niet voorbij gaat komen.
Als ati nu snel met de R350 gaat komen heeft nvidia wel een probleem denk ik.
Dan pakt ati met de R9000 het middensegment en met de R350 de die-hard tweakers, en als je er tussenin zit koop je een 9500pro en mod je hem.
Ben erg benieuwd hoe dit allemaal gaat lopen tussen ati en nvidia.
Wachten op de R350 natuurlijk! De Radeon 9x00-serie zal dan natuurlijk doorschuiven naar het 'middle/low-end' deel van hun productie, maw de prijzen van de Radeons zullen dalen!

Wat NVIDIA betreft, ik denk wel dat ze het zullen overleven. NVIDIA zal wel genoeg geld genereren uit z'n budget-segment en met de Ti4200 hebben ze nog altijd een goede, goedkope middle-end kaart in huis waarmee nog wat geld verdiend kan worden. Ze overleven het wel, maar hopelijk is het niet het soort overleven zoals 3DFX. Na hun overheersing met de Voodoo II is het toch nooit meer goed gekomen met de jongens van 3DFX hoewel ze nog wat kaarten uitgebracht hebben.
Maar zo'n vaart zal het allemaal wel niet lopen.

De grote fout die NVIDIA gemaakt heeft, is eigenlijk de keuze voor het DDR-II en mss ook de overgang naar 0,13µ. Die keuzes moesten ze nog wat uitgesteld hebben totdat DDR-II een beetje snelheid haalde, en een grote geheugenbandbreedte levert (en de latencies wat verlaagd zijn). Ze moesten gewoon voor een bredere bus gekozen hebben ipv DDR-II.
Het is natuurlijk ook een kwestie van marketing: "wij hebben al DDR-II."
Maar ja, daar komen ze op dit moment niet ver mee...

Als het zo doorgaat, wordt mijn volgende kaart in ieder geval geen NVIDIA kaart meer (tenzij een uit het budget-segment mss), hoewel ik kennelijk een van de "naïeve fans" was |:(.
Ze zullen al een ferme stunt moeten uitvoeren eer ze dat weer in orde te krijgen...

* 786562 Durona
zeg gewoon

:D :) HAAAAAAAAAA-HAAAAAAAAAAAA :) :D

in your face nVidia

(tenzij er een superdriverupdate komt)
Sja, eigenlijk heb je gelijk......Zoveel verwachtingen, en dan zoiets ;( (het zegt al heel wat over algemene menig onder de tweakers als zo'n reactie tot een 2+ wordt gemod(zeer zeldzaam)). nVidia moet nog 1 jaar lang door met dit ontwerp, en dan nu al zit'ie met megakoeling, ultra compexe pcb en 1 Ghz DDR en compleet op het maximum net boven het niveau van een radeon 9700. Maar zegt dat nu iets over nVidia of Ati? Dat is de vraag, is het knap van Ati om zoveel preformance uit een 0,15 micron chip te halen en toch de koeling en compexiteit gemiddeld te houden (van de afgelopen jaren is dat toch de enige high-end kaart die qua koeling een stapje terugdoet/gelijk blijft t.o.v. zijn voorgangers) of heeft nVidia gewoon gefaald en hebben ze teveel op hun schouders genomen.

De nv35 moet toch echt wel een hele verbetering zijn, want volgens de roadmaps komt er al een r350 in maart (waarvan ik verwacht dat met die chip Ati de snelheidskroon terugpakt :)) en ergens in augustus moet de r400 van start gaan, the next-gen ati chip. Als de nv35 (die nog steeds op de nv30 generatie gebaseerd is) niet een hele verbetering is zal nVidia zware jaren tegemoet zien en Ati zeer zonnige tijden.....

En die wattages...Die zijn bij de FX zowat hoger dan bij een p4.....De Ati radeon 9700 kan nog (net) met een 300 watt voeding uit de voeten, de fx heb je minimaal een 350 wat voeding nodig, dat kost toch weer heel wat geld meer. Je koop veel kasten al met std.300 watt voeding, dan moet je een losse 350 watt voeding aan gaan schaffen die ook weer even minimaal 40 euro kost..........

[even een beetje duidelijker ge-edit]
Eigenlijk is dit weer een typische karakter trek van nVidia de laatste jaren.

Focusses op brute power (getallen!), een echte Amerikaanse kaart, veel en groot! Ati vind dan juist Europees, met gemiddelde specificaties een top (oke, samen met nVidia) prestatie neerzetten. Door slimme truckjes, vooral bij FSAA.

Wie niet slim is moet sterk zijn, dat is nVidia. Wie niet heel sterk is moet slim zijn, daar vind ik sneller Radeon9700.

Toch typisch :) nVidia is altijd de krachtpatser geweest, en ATi de underdog met slimme zetten.
Wat een onzin. Ja, de FX is duurder, maar is tenminste net zo snel zo niet sneller dan de snelste kaart tot nu toe (de ATI). De Parhelia kon nog niet eens in de schaduw staan van een low-end Ti4200 toen deze uitkwam.

Neemt niet weg dat nVidia en ATi aan elkaar gewaagd zijn, en net zoals we al merkten in het V3 3000/TNT2 tijdperk is dat alleen maar gunstig voor de consument. nVidia zal snel met de prijs moeten gaan zakken, waarna ATi zal volgen.
Hier was ik al bang voor. Zoals ik al eerder zei mist de GeforceFX rauwe bandbreedte. Hij heeft namelijk maar 16GB/s en de R9700 bijna 20GB/s. Dit is vooral terug te zien in de hogere resoluties met 4xFSAA en 8xAF. Daarnaast is de beeld kwaliteit ook nog minder van de GFX. Erg jammer van Nvidia.

Tevens denk ik ook niet dat er deze keer een grote performance boost zal komen dmv drivers. Ik denk dat deze boost al geweest is en dat daarom Nvidia de eerste benchmarks op zich heeft laten wachten. Zou deze boost achter de hand gehouden worden dan zou deze kaart nog dichter bij de R9700 komen te liggen.

Ik ben benieuwd hoe de R350 hier tegenover gaat presteren, want zoals je nu kunt zien heeft de GFX meer rauwe kracht met betrekking tot de core, wat je dus ook terug ziet in de oudere spellen en in de benchmarks zonder AA (bandbreedte geen bottlenek meer, maar meer de fillrate).
De geheugenbandbreedte is geen bottleneck. Bij een van de testen, is er een benchmark gedaan (dacht bij AnandTech, bij CPU scalability) waarbij ze het geheugen 10% overclockten. Scheelde 0,1%, altijd mooi meegenomen :+ Dat is het probleem dus niet.
ehmm..het opklokken van je geheugen vergroot de geheugen-BUS niet |:(

Het blijft dus wel degelijk een bottleneck....
De GFFX heeft idd minder rauwe kracht in de core, maar hij loopt dan ook maar op 325MHZ tegen de GFFX die op 500MHz loopt. De Radeon weet dan toch veel meer uit zijn MHzen te halen. (proef ik hier het verschil tussen een AMD XP en een iNtel P4? ;) )

En dan heb ik het nog niet eens gehad over de warmteontwikkeling van 75W op een 0,13 proces tegen de Ati die 54W verbruikt op een 0,15µm proces nota bene.
Ten eerste was de beeldkwaliteit tussen een goeie gf4 en een radeon al nihil geworden. Ik vraag me af hoe jij weet dat gf-fx inferieur in kwaliteit is. Ik schat hem dit keer eigenlijk hoger in.
wel ff onthouden dat deze benches NIET gebruik maken van DirectX9.
Met andere woorden, de ware kracht van beide kaarten is nog niet getest.
Die zien we pas als 3dmark2k3 uitkomt.
Wie weet, mischien blaast de FX de radeon wel gigantisch weg (moet niet moeilijk zijn met zo'n fan :P ), maar mischien ook weer niet.
Je hebt het zeker over al die DirectX 9-spellen, die al binnen een paar jaar uitkomen?
Aan alleen de 3dmark 2003 heb je ook niks IMO.
maar zover ik weet is 3dmark 2003 ook het enige wat het er dan beter op doet

er zijn afaik nog geen dx9 spellen in de maak. dus die zullen de eerste 1-2 jaar ook niet uitkomen.

denk daarbij ook aan het domme feit dat een zeer groot gedeelte van de mensen dan nog steeds een gf3 of 4 in zijn pc heeft zitten. als je dus een game ontwikkeld die alleen op een radeon 9700 of gf-fx draait dan mis je een groot gedeelte van je (toch al niet zo ruime) afzet markt.

en over 2 jaar sta jij mooi voor joker met je gf-fx tegen die gf-fx5 die dan uit is.......
Zal dat ding ook echt kunnen vliegen? :7
Nou... die kan in het museum naast de Voodoo 5 5500 plaatsnemen ;)

[edit]
je hebt gelijk, de 6000 :)
De 6000 bedoel je... de 5500 was nog redelijk te verkrijgen, en was nog redelijk geproportioneerd... de 6000 was het lachertje, met z'n enorme afmetingen en externe voeding :).
hmjah.. wat ik me afvraag gezien ik geen videokaartbakker ben:

- waarom geen 256bit breede geheugen bus als het zoveel scheelt?
- waarom produceert de FX zoveel warmte? Het productieprocede is kleiner en zou dus eigelijk ook minder voltage nodig hebben en daardoor koeler zijn? Tenzij er natuurlijk veeeeel MHzjes nodig zijn om deze prestaties neer te zetten.. en dat geeft eigelijk aan dat nVidia een technologische achterstand heeft opgelopen t.o.v. Ati?

hmjah.. het zal al wel gezegd zijn.. maar bij deze nogmaals...het valt me een beeeeetje tegen. Hopelijk dat ze bij nVidia weer zo'n goede marketing truck hebben met de drivers :) huppa 25% performance erbij ;)
voor een 256 bit geheugenbus zijn er een hoop extra traces nodig om het board en aangezien er nu al 12 lagen in het PCB zitten zou dit misschien uitkomen op 14 en dat zou nog hogere kosten betekenen.
maar dan heb je waarschijnlijk wel een monsterkaart :)
doet me denken aan de geforce2 ultra en de geforce3

waren ook gelijk in 3dmark2000
toen kwam 3dmark2001 en zag je het grote verschil en kracht van de twee kaarten.

mijn conclusie trek ik pas als 3dmark2003 er is en eerder niet.
Nogal dom om je conclusie te trekken om basis van een synthetische benchmark.
Je kan beter je conclusies trekken op basis van game-benchmark. Dat is per slot van rekening waar je die kaart voor koopt.
Nou, nu ik even alle reviews heb gelezen ben ik er wel uit. De FX is een leuke kaart, een erg snelle, maar hij beat de Radeon maar net. Bovendien kun je door deze onhandige cooling deze kaart minder overklokken, want kijk maar eens: De 9700 pro kun je mbv van waterkoeling en xtra weerstandjes 30% sneller maken. De FX is overall zon 10% sneller dan de ati. Als de FX overklokt is komt daar nog eens 10% bij (zie een van de reviews). Dan is de FX dus 20% sneller dan de 9700 pro gewoon, en een zwaar overklokte 9700 pro is dan 30% sneller dan een gewone. Conclusie: de radeon wint het dan alsnog :)
Dit is idd wel slecht iets beter dan de 9700 pro. ok maar dat hij dan zoo complex, heet, hoge voltages en lawaaiig moet zijn..

"A further problem is the noise level. The fan produces an incredible racket on par with a vacuum cleaner - there's simply no other way to describe it. You can hear the card even if you're in another room of the house."

Ik denk toch echt dat dit een flop gaat worden deze kaart als radeon binnen een paar weken met zijn versnelde opvolger van de 9700 pro komt.
1 2 3 ... 10

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True