Door René Wichers

Eindredacteur

Machtige middenklassers: ATi RV670 versus nVidia G92

15-11-2007 • 11:21

59

Multipage-opmaak

Inleiding

Met de introductie van ATi's RV670 breekt een interessante periode in videokaartenland aan. De chip moet het opnemen tegen de G92 van nVidia, die amper twee weken geleden in de vorm van de 8800GT is verschenen. Beide fabrikanten willen het 200 euro-segment veroveren met opzienbarende graphics voor een aanvaardbare prijs, en Tweakers.net keek of de kaarten de moeite waard zijn.

Zowel ATi als nVidia hebben fors ingezet op hun nieuwe chips. De G92 en de RV670 bieden prestaties die kunnen wedijveren met de vorige generatie topmodellen, terwijl de prijzen aanzienlijk lager liggen. Met de RV670 - de 'V' staat voor 'value' - wil AMD zijn prijsvechtersstrategie uitbouwen, maar ook de G92 zou prestaties leveren waarvan de meeste G80's van kleur verschieten. Waar de 8800 Ultra ten tijde van schrijven niet voor minder dan 545 euro te krijgen is, zouden de 8800GT's net iets meer, en de HD38x0-kaarten net iets minder dan 200 euro moeten kosten.

Op papier bestaat er weinig twijfel over de beide gpu's. Met 734 miljoen transistors op 315 vierkante millimeter is de G92 de grootste chip die nVidia ooit produceerde, terwijl de RV670 met zijn 666 miljoen transistors op 192mm² daar nauwelijks bij achterblijft. De introductie van beide chips markeert bovendien het afscheid van 80- en 90nm-technologie. Dankzij het 55nm-ontwerp van de RV670 en de 60nm-technologie in de G92 zijn beide kaarten koeler dan G80- en R600-kaarten, en ook het energieverbruik zou een stuk lager uitpakken dan dat van de oudere chips.

nVidia 8800GT-pcb

De overeenkomsten zijn talrijk. Beide chips kunnen met gddr3 en gddr4 overweg, beide hebben een 256bits-geheugeninterface, ATi's UVD en nVidia's PureVideo 2 zorgen voor een gelijkspelletje bij het decoderen van H.264- en VC1-video, en beide chips ondersteunen de pci-express 2.0-standaard.

Er zijn ook verschillen. De G92 van nVidia is weliswaar volledig DirectX 10-compatibel, maar AMD zet daar met de RV670 DirectX 10.1-compatibiliteit tegenover. AMD heeft bovendien 320 stream processors ingebouwd, waar nVidia het na 112 stuks voor gezien hield. Uiteraard zijn deze shaders niet een-op-een vergelijkbaar, zodat deze statistiek weinig over de prestaties zegt.

In de kaart gekeken

Drie dagen geleden plofte er een pakketje uit het Taiwanese Taipei op de Tweakers.net-deurmat: PowerColor bleek zo vriendelijk te zijn geweest om ons hun nieuwe HD3850 op te sturen. Omdat we van Asus en Sparkle twee 8800GT's mochten ontvangen, konden we een klein vergelijkend warenonderzoek uitvoeren. Daarbij maakten we gebruik van Asus' nieuwste high-end 'Republic of Gamers'-moederbord, de Formula Maximus Special Edition. Dit bord beschikt over een X38-chipset met een ICH9R-southbridge, en daar stopten we een Intel Core 2 Extreme Q6850-quadcore met een kloksnelheid van 3GHz, en 2GB conservatief (5-5-5-18) geklokt Nanya-geheugen bij. Het geheel werd gevoed door een noname 500W-voeding, onder het motto 'dan merken we het tenminste als het onvoldoende is'.

Specificaties volgens GPU-Z
kaartPowercolor HD3850Asus 8800GT
chipRV670ProG92 GT
driver6.14.10.6734Forceware 167.26
shaders320112
geheugen (MB)512MB GDDR3512MB GDDR3
core clock (MHz)715600
shader clock (MHz)7151500
memory clock (MHz)900900
geheugenbandbreedte (GB per seconde)57,657,6
fillrate (gigatexel per seconde)11,49,6
fillrate (gigapixel per seconde)11,49,6

De 8800GT heeft aan een enkel inbouwslot genoeg. Wel lijkt het ons bijzonder onverstandig om er aan de kant van de ventilator een andere kaart direct naast te monteren: het energieverbruik is pittig en die warmte moet ergens heen.De bouwkwaliteit van beide 8800GT's is dik in orde. Deze kaarten, die net geen 23 centimeter lang zijn, beschikken over een stevige metalen kast, die met een twaalftal schroeven op het pcb is gemonteerd en waar bijzonder weinig aan kapot kan. Het relatief kleine fannetje is tamelijk stil, maar het gezoem is wel duidelijk hoorbaar. De Sparkle en de Asus lijken overigens vrijwel volledig identiek, de drie verschillen zijn de kleur van het pcb, het laatste cijfer op het stickertje met de bios-revisie en de plakker met het artwork. Bij Sparkle is dat een tribal-achtige 'S', bij Asus staan er een paar hoofdrolspelers uit het meegeleverde strategiespel Company of Heroes: Opposing Fronts op de bekisting. Sparkle levert de shooter Stalker: Shadow of Chernobyl mee.

Powercolor HD3850

De HD3850 beschikt over een fors grotere, maar ook duidelijk stillere heatpipekoeler. Volgens de doos is de firma Zerotherm verantwoordelijk voor dit 'professionele' systeem, dat er wel voor zorgt dat de kaart minstens twee slots nodig heeft - en op het oog liever nog drie. Naast de heatsink en de fan zit er alleen elektronica op het pcb, waardoor de kaart een wat iele en kwetsbare indruk maakt. PowerColor vond het dan ook nodig om de heatsink tijdens het transport met foamkussentjes tegen schokken te beschermen. Toch heeft de kaart ergens tussen Taipei en Amersfoort een paar flinke klappen gehad: het bordje is een tikje kromgetrokken, maar gelukkig past hij nog wel in ons testsysteem en problemen met de functionaliteit hebben we er niet aan overgehouden.

De door ons ontvangen HD3850 blijkt geen marktklaar exemplaar te zijn: de drivers zijn op een versgefikt dvd'tje meegeleverd, en installatie onder Windows XP lukt alleen door zelf de juiste .inf-bestandjes uit de directoryboom op te diepen. De installatie onder Vista gaat gelukkig een stuk beter, maar de DirectX 10.1-ondersteuning van de HD3850 mag natuurlijk geen reden zijn om een DX9-OS dan maar te verwaarlozen. PowerColor heeft duidelijk nog wat puntjes op de i te plaatsen, hoewel de kaart amper een week voor de formele introductie is verstuurd. We geloven niet dat deze fabrikant de enige is die nog wat werk te doen heeft, zodat we waarschijnlijk moeten aannemen dat ATi weer eens een papieren introductie gaat beleven.

ATi Crossfire X-logoBij alle kaarten zit een installatiegidsje, een dvi-naar-vga-plugje en wat s-video-verloopjes en -verlengkabeltjes. Handig is dat PowerColor ook een CrossFire X-connector heeft bijgesloten. De nieuwe multikaarttechnologie van ATi maakt het mogelijk om twee willekeurige kaarten te laten samenwerken, zolang ze allebei deze standaard ondersteunen. De 8800GT's, hoewel identiek, worden allebei zonder sli-koppelstukje geleverd, maar voor het overige zijn deze kaarten duidelijk wél af. Naast nette cd'tjes met drivers, s-video-kabeltjes en -verloopjes en de bovenvermelde games, stopte Asus zelfs een kunstlederen opbergmapje voor de cd's in de verpakking. Overigens zijn de meeste meegeleverde drivers niet WHQL-gecertificeerd, maar daarvoor is uiteraard de Meuktracker uitgevonden.

Een vermogend stelletje

Bij het monteren van de eerste 8800GT was het al vrij snel duidelijk dat alleen de voedingsfan onvoldoende is om de 8800GT te koelen: het eerste het beste spelletje veroorzaakte reboots, terwijl het opgenomen vermogen amper boven de 220W uitkwam. Een goede airflow is bij dergelijke kaarten, met een bedrijfstemperatuur die zelden onder de 50 graden zal komen, blijkbaar een eerste vereiste. Voor een driedaagse test vonden we het uiteindelijk voldoende om de cv uit te draaien, de behuizing open te maken en een 20cm grote fan naast de kast te plaatsen. Dat bleek voldoende om de tests verder probleemloos af te werken, maar het mag duidelijk zijn dat er na aanschaf nog even goed naar de constructie van de pc gekeken moet worden.

Energiemetertje met 8800GT-verbruikHet verbruik van het systeem houden we in de gaten met een vermogensmetertje, modelletje uitverkoop-bij-de-bouwmarkt. Het uitgespaarde geld zal nodig zijn om de elektriciteitsrekening te voldoen, want er zitten geen zuinige componenten in onze testopstelling. Het Asus-mobo wil in uitgeschakelde toestand al 16W hebben, en wanneer de pc eenmaal is geboot blijkt hij zonder enige belasting al 133W te gebruiken. Wanneer de games worden ingezet, schiet het verbruik omhoog: bij de HD3850-setup hebben we tijdens een potje Crysis 252W gemeten, terwijl het maximum bij de 8800GT zelfs 277W bedraagt. Het verbruik van de ATi is daarmee slechts een klein beetje lager dan dat van de nVidia, en net als de 8800GT zal ook de HD3850 niet straffeloos in een slecht geventileerde kast kunnen worden ingepast.

Er moet natuurlijk wel opgemerkt worden dat dit het totaal opgenomen vermogen is, waarvan de grafische kaarten maar een deel voor hun rekening nemen. Ook is onze voeding, al deed hij braaf zijn werk, geen wonder van efficiëntie. Een goede psu kan het verbruik nog wel met een aantal procenten verlagen. Verder moeten deze cijfers met een korreltje zout genomen worden omdat de vermogensmeter geen wetenschappelijk verantwoord technisch hoogstandje is. Daar staat tegenover dat deze metingen er geen tientallen watts naast zullen zitten. Het is misschien aardig om even terug te denken aan de eerste geruchten over een vergelijkbaar verbruik van de PlayStation 3: toen die in de pers opdoken, werden heel wat gamers heen en weer geslingerd tussen schrik en ongeloof. Zuinig is beslist anders.

Op de pijnbank

Twee 3GHz-Intel QX6850-quadcoresDe brute quadcore van Intel ten spijt, laat 3dMark06 toch een paar keer 'fps:1' in de cpu-tests zien. De langzaamste eindscore die we meten - onder Vista met de HD3850 - is echter nog altijd 11.062 punten, waarmee ruim 92 procent van alle geteste systemen wordt ingehaald. De combinatie van de 8800GT en onze viertakt passeert met 13.007 3dmarks zelfs 97,4 procent van alle machines. Voor een systeem waar niets aan is geoptimaliseerd of overgeklokt is, lijkt dat een meer dan uitstekende score, waar vermoedelijk nog heel wat rek in zit.

Omdat nostalgie ons niet vreemd is, hebben we ook 3dMark03 even op de 8800GT losgelaten. De score was helaas onleesbaar omdat het programma niet genoeg ruimte voor zoveel cijfertjes had gereserveerd, maar het valt toch op hoe groot het verschil in realisme tussen deze bench en, zeg, Crysis is. In 2003 was de wereld een stuk blokkeriger, en voor iedereen die ouders of significant other moet overhalen om een nieuwe grafische kaart onder de kerstboom te leggen: het verschil is écht het bekijken waard. Daar moet wel een kanttekening bij worden gemaakt: de kaarten maken spellen niet mooier dan ze zijn. De afzonderlijke lijntjes worden met 'tigvoudige antialiasing natuurlijk wel perfect gladgestreken, maar de nog altijd hoekige wiremodels van de in-game objecten, zoals mensen of auto's, vallen daardoor des te meer op. Anders gezegd: met de prestaties van de hier geteste kaarten is een game al snel de zwakste schakel.

In de beperkte tijd die voor deze review beschikbaar was, hebben we hard gezocht naar spellen die het beide kaarten lastig kunnen maken. We hebben ons uiteindelijk moeten beperken tot twee games: Stalker: Shadow of Chernobyl en - uiteraard - Crysis. Alle benches zijn zowel onder Windows XP Professional met DirectX 9 als onder Windows Vista Ultimate met DirectX 10 uitgevoerd. Vista was overigens erg blij met de kaarten: beide modellen kregen een bijna perfecte 5,9 in de prestatie-index. Wij waren weer wat minder blij met de Nederlandse versie van de drivers. Bij deze een vriendelijk verzoek aan de heren en dames ontwikkelaars: als jullie de term 'conformerende patroonklem' bedenken, hou die dan voor jezelf en geef ons gewoon de Engelse term.

Asus EN8800GT

Game on!

* Stalker

De shooter Stalker: Shadow of Chernobyl is een DirectX 10-game, die alles uit de grafische kast zou moeten kunnen halen. Toch is het met de HD3850 onder XP niet te doen om de gemiddelde framerate onder de 39fps te krijgen. En let wel: dan hebben we het over een resolutie van 1600 bij 1200 beeldpunten in combinatie met achtvoudige antialiasing en alle beschikbare opties op maximaal. Lagere resoluties hebben we niet getest: een vluchtige blik leerde ons dat op bijvoorbeeld 1280 bij 1024 beeldpunten al honderden frames per seconde kunnen worden geproduceerd. Bij beide kaarten valt daar geen kritische noot over te kraken.

De 39fps op 1600x1200 leverden weliswaar een prachtige film op, maar we moesten toch vaststellen dat onze Stalker steevast voor het einde van het eerste level in zijn eigen bloed had kunnen zwemmen - ware het niet dat dooie Stalkers niet meer kunnen zwemmen. Het spel, dat bij de Sparkle 8800GT wordt meegeleverd, presteert met de nVidia-kaarten flink beter: we noteren met dezelfde zware settings een uitstekend gemiddelde van 58fps. En zowaar: met deze framerate slagen we erin om ons de radioactieve honden en de vuurgevaarlijke zwervers van het lijf te houden. Het zal per gamer verschillen, maar deze ronde is wat ons betreft duidelijk voor nVidia: wie in het postnucleaire tijdperk wil overleven, heeft een flink hoger gemiddelde dan 30fps nodig, en de 8800GT levert dat onder alle omstandigheden.

* Crysis

Crysis is al voor zijn verschijnen beroemd en berucht als het spel dat elke computer op de knieën krijgt. Ook onze toch niet geringe test-pc mocht proberen om op 1600x1200 bij achtvoudige AA de ingebouwde benchmark te voltooien, maar meer dan 'doe het zelf maar als je dat zo leuk vindt' kregen we er niet uit. Zelfs zonder AA produceert de snelste 8800GT op deze resolutie maar een paar frames per seconde, en dan nog: 'zonder AA' is niet echt een optie. Het alom aanwezige gebladerte ziet er in deze game namelijk simpelweg lelijk uit als het beeld niet minstens tweemaal gladgestreken wordt. Masten, steigers en andere draderige objecten zijn van een afstandje zelfs slecht te herkennen. We zoeken dus naar een AA-instelling die flink meer dan 30fps oplevert.

Crysis: frames per seconde
resolutiekwaliteitAARV670/XPRV670/VistaG92/XPG92/Vista
800x600low0x96,260,795,267,8
800x600low2x67,750,489,960,1
1024x768medium2x41,734,262,547,7
1280x720high/very high¹4x25,213,935,44,4
¹) onder XP 'high', onder Vista 'very high'

Het eerste wat opvalt is dat de 8800GT sneller is dan de HD3850, zodra AA wordt ingeschakeld. Zonder antialiasing en met de laagst mogelijke kwaliteitsinstellingen is de HD3850 marginaal sneller, maar, zoals gezegd, Crysis is niet bij deze instellingen gebaat. Het lijkt er echter op dat nVidia meer werk van het digitale strijkijzer heeft gemaakt: zodra dat wordt ingeschakeld presteert de G92 grofweg een kwart tot een derde beter onder XP. In Vista zijn de verschillen kleiner, maar ook daar heeft een nVidia-kaart een voorsprong van minimaal tien procent.

De uitzondering die de regel bevestigt is de test van de 1280x720-resolutie in combinatie met Vista, waarin de 8800GT ineens niet meer vooruit te branden is. Wel hebben we in Vista bij deze resolutie voor 'very high'- in plaats van de onder XP niet beschikbare 'high'-instellingen gekozen. Dat levert ATi een prestatievermindering van 45% op, terwijl nVidia hier bijna 88% inlevert - het lijkt aannemelijk dat hier meer aan de hand is.

Opmerkelijk is ook dat Crysis onder XP veel beter presteert dan onder Vista. Dat kan diverse oorzaken hebben: de 64bits Vista-drivers zijn nog niet uitontwikkeld terwijl de 32bits XP-drivers ondertussen volwassen zijn, de reviewer van dienst is handiger met XP, DirectX 10 is langzamer dan DirectX 9, en het is natuurlijk ook mogelijk dat Vista zelf veel te enthousiast allerlei achtergrondtaken aan het uitvoeren is. Het mag bekend heten dat het Aero-interface geen lichtgewicht is, en als Vista onder de motorkap nog een beroep op de grafische hardware doet, kan dat natuurlijk vertraging veroorzaken. De tijd zal het leren.

Overigens vertonen de ATi-drivers ook zichtbare kuren. Af en toe verdwijnen er hele stukken uit passerende bergen; het valt te hopen dat de fabrikant snel werk van betere drivers maakt. ATi heeft zich in het verleden vaker impopulair gemaakt met de lange tijd die na de release van een kaart nog wordt genomen om een fatsoenlijke driver te produceren, en het is jammer dat er uit die ervaringen geen lering is getrokken.

Brakke XP-render op de HD3850: Crysis raakt een stukje strand kwijt
In XP verliest de HD3850 geregeld het verschil tussen zand en water uit het oog

Als we de lat op 30fps leggen, heeft ATi een chip die op 1024x768 nog mooie beelden kan produceren, terwijl nVidia op de 720p-resolutie nog bruikbare beelden produceert. Voor de vorm hebben we ook nog even naar 1280x1024 met tweevoudige AA gekeken, en dan nog levert de combinatie 8800GT/Windows XP nog altijd iets meer dan 33fps op. De veeleisende gamer zal niet met minder dan 60fps tevreden zijn, en dan is de 8800GT eigenlijk de enige serieuze keus: 800x600 biedt toch te weinig detail voor een pracht-en-praalprogramma als Crysis.

Conclusie

De nVidia 8800GT en de ATi HD3850 zijn, op de keper beschouwd, compromismodellen. De consument hoeft voor beide geen hypotheek af te sluiten, en hij krijgt daar dan ook wat minder dan de allerbeste prestaties voor terug. Voor games als Crysis moet eigenlijk toch nog even op betere hardware gewacht worden, maar wie geen absolute top en geen low-end budgetmodelletje zoekt, zijn er weinig alternatieven die zo goed presteren als deze twee. De kaarten zijn bovendien geheel en al toegesneden op de flatpanelmarkt: lcd-bezitters, die meestal aan native resoluties als 1024x768 of 1280x1024 vastzitten, zullen met de besproken kaarten in hun systeem met de meeste spellen geen problemen meer hebben.

De onderlinge strijd zal van drie factoren afhankelijk zijn. Ten eerste is het maar de vraag of de partners van ATi op tijd met hun spullen in de winkel staan, maar ook over de leverbaarheid van de 8800GT wordt inmiddels flink geklaagd. Ten tweede is nog altijd niet bekend hoe de beide kemphanen zich in prijs zullen verhouden, maar ATi lijkt daar in het voordeel te zijn. In termen van afwerking, ten slotte, is nVidia de bovenliggende partij. De 8800GT is, vooral met dank aan de matige ATi-drivers, momenteel simpelweg het best functionerende product en ATi moet dat maar zien te veranderen.

De verschillen tussen de twee 8800GT's zijn, zoals verwacht, gering. De meeste mensen kunnen simpelweg de kaart kopen waar de meest aansprekende softwaretitels bij zitten. Fabrikanten die flink opgevoerde modellen presenteren zullen te zijner tijd wel opduiken, maar op dit moment kan er vermoedelijk beter even op meer benchmarks gewacht worden: welke van beide kaarten de meeste overklokruimte biedt, zal in de loop van de komende maanden duidelijk moeten worden.

De 8800 Ultra en de HD2900 gaan het zwaar krijgen. De HD2900 zal vermoedelijk uit de markt worden gedrukt door de 8800GT, en de Ultra zal weliswaar de beste blijven, maar de vraag is natuurlijk hoe een tweetal 8800GT's in sli zich verhouden tot een 8800 Ultra, en wat een HD2950XT tegen twee in CrossFireX geschakelde HD3850's kan inbrengen. Daar komen we dan ook zo snel mogelijk op terug, maar eerst gaan de reviewers van dienst nog even van een rondje Chernobyl genieten, voordat de spullen worden teruggestuurd. De hartelijke dank van Tweakers.net - maar ook en vooral die van die reviewers - gaat uit naar Intel, Asus, PowerColor en Sparkle, voor het ter beschikking stellen van de hardware voor deze test

Sparkle 8800GT

Reacties (59)

59
55
7
4
0
19
Wijzig sortering

Sorteer op:

Weergave:

Extra info:
G92 heeft geen VC1 ondersteuning
G92 ondersteund geen HDMI

Mijn mening
Voor alleen games zal het aan de prijs liggen en aan de wens of je CorssfireX wilt gaan gebruiken in de toekomst. AMD en Nvidia zijn bijde goede keuzes waarbij AMD iets beter op de toekomst is voorbereid.

HTPC achtige dingen ga dan voor AMD
- H264 en VC1 ondersteuning.
- Idle power consuming is veel lager
- HDMI
Amd ondersteunt ook DX10.1 waarmee het nog iets beter op de toekomst is voorbereid!
De HD3870 CF is volgens IAX-TECH veel sneller dan de 8800GT.
Als deze benchmark geen NEP is staat er weer iets leuks te wachten.
Zie link http://iax-tech.com/video/3870/38701.htm
Dat is 2 tegen 1, en dat is niet eerlijk ;)
ja maar de cf staat voor crossfire (dus eigenlijk 2 kaarten)
Waarom is er getest met de 64bit versie van Vista ipv met de 32bit versie?
Als ik het ook goed begrepen heb zou Aero zichzelf uitschakelen wanneer er een spel wordt opgestart, athans met volledig scherm. ;)
Dus er moet iets anders op de achtergrond hebben gelopen wat die vertraging veroorzaakt heeft.
Anti-virus misschien?
Kan goed zijn, maar de reviewer is natuurlijk ook lekker appels met peren aan het vergelijken door de IQ op Vista op very-high te zetten en op XP op high. Tja, dan krijg je een lagere framerate...
Appels en peren ja, vooral omdat de ATi HD3850 wordt vergeleken met de 8800 GT. Nergens wordt vermeld dat de concurrent van de 8800GT in de eerste plaats de ATi HD3870 is.

Ok, die is ook langzamer dan de 8800 GT, maar heel veel scheelt het niet.

Waarom zit die er niet bij? 8)7
omdat ze die nog niet konden krijgen lijkt me
Dat is inderdaad de vraag, aangezien de 3870 kwa prijs ook dichter bij de 8800GT komt, daarnaast is het nog zo dat een 3850 geloof ik maar 256MB geheugen heeft toch? En een 8800GT 512MB? Dan heeft de kaar zo ie zo een kleinere framebuffer nietwaar?
Mag ook bij gezegd worden dat je een HD3850 al voor 140-150 euro kan krijgen en de 8800 GT nu 240-250 kost. Aardig richting het dubbele !!!
Je vergeet echter een ding. Very High is ook alleen in Vista mogelijk bij Crysis, omdat Very High de DX10 snufjes inschakelt voor het extra beetje eye-candy. In XP is Very High grijs, omdat deze DX9 alleen maar aan kan.
Je moet wel weten dat via een kleine tweak XP ook Very High aankan zonder DX10, om nog maar te zwijgen over de "gekraakte" DX10 versie voor xp. Misschien zouden ze die eens kunnen reviewen...
Direct3D 10 (want daar is het iedereen om te doen) voor Windows XP is een lachertje. Dat project is sinds de eerste alfarelease niet meer bijgewerkt en is niet eens in staat om een driehoekje uit de voorbeelden van de DirectX SDK met de correctie kleur te renderen.
Snap je nu echt niet dat dat gewoon komt omdat Vista DX10 ondersteund en XP DX9?
Natuurlijk snap ik dat, maar daarom is het toch nog wel appels en peren vergelijken?
Als de reviewer wil laten zien wat de DX10-extra-eye-candy performance is moet hij dat er appart bijzetten, niet het gaan vergelijken met DX9 en dan o zo verbaasd zijn dat het langzamer is. 8)7
Hij vergelijkt twee videokaarten oen!
Niet de verschillen tussen XP en Vista i.v.m. Crysis... daarvoor moet je 1 van de honderden crysis reviews nemen.
volgens mij is er met een vista64 getest vanwege de ondersteuning voor de quad-core processor.
Mijn Quad core werkt ook prima onder 32-bits Vista. Ik ben idd benieuwd waarom met een 64 bits versie is getest. In dat opzicht is het appels met peren vergelijken.
Ik ga nog een keertje kijken naar de videokaartenmarkt als ATI zijn catalyst 7.11 of 7.12 WHQL klaar heeft staan. Verwacht wederom van ATI veel performanceverbeteringen op de nieuwe Radeons omdat interne SM4.1 aangepaste software aansturing nodig hebben.

HD3870, een goed overklokbaar model, staat bij mij op het verlanglijstje, zeker nu ik meerdere malen hoor dat de image quality (vooral) bij Crysis bij de Radeons duidelijk hoger is. Ik ga voor kwaliteit en niet voor kwantiteit.

Begin volgend jaar zijn de prijzen ook weer gezakt.

Ja denk toch dat ik over niet al te lange tijd een betere kaart nodig zal hebben voor EVE-online Trinity!!
Ik ga nog een keertje kijken naar de videokaartenmarkt als ATI zijn catalyst 7.11 of 7.12 WHQL klaar heeft staan. Verwacht wederom van ATI veel performanceverbeteringen op de nieuwe Radeons omdat interne SM4.1 aangepaste software aansturing nodig hebben.
SM4.1 wordt pas bruikbaar onder DirectX10.1. De 10.1 update komt pas met Vista Service Pack 1... ergens volgend jaar. De Catalyst driversets van November en December dit jaar (7.11 en 7.12) zullen qua SM4.1 dus niets laten zien. Het wordt gewoon nog niet ondersteund... niet in Vista, noch in games in de komende periode :)
De RV670 core is daarnaast goeddeels een die-shrink van R600 (bekender als 2900XT). De performance- en driverkarakteristieken (m.n. van de 2900XT en 3870) zijn zodoende ook grotendeels gelijk. De 2900XT is er al ~7 maanden dus ik verwacht geen driverwonderen (meer).

Overigens hebben zowel Microsoft als Crytek (van FarCry en Crysis) aangegeven dat DX10.1 helemaal niet zo'n belangrijke update is. Het belang ervan lijkt nogal overhyped te worden.
Hun commentaren zijn vrij duidelijk:
- Microsoft: 'DX10.1 is an incremental update that won’t affect any games or gamers in the near future.'
- Crytek (die er altijd als de kippen bij is om nieuwe technieken te implementeren): '[...] we've looked at it and there's just nothing in it important enough to make it needed. So we have no plans to use it at all, not even in the future.'
HD3870, een goed overklokbaar model, staat bij mij op het verlanglijstje, zeker nu ik meerdere malen hoor dat de image quality (vooral) bij Crysis bij de Radeons duidelijk hoger is.
Er zat een bug in de nVidia Forceware 169.04 beta driver waardoor waterreflecties niet altijd helemaal goed waren. De Forceware 163 WHQL driver heeft het echter altijd prima gedaan, en in de nieuwe beta (169.09) is het probleem opgelost, tezamen met een vrij drastische performanceverbetering in Crysis :)

Heb je bovendien de graphicscorruptie in Crysis op de 3850 gezien op de pic in deze review (en het commentaar van Rene gelezen)? Dat is vele malen ernstiger dan de nV reflectiebug... ;)

[Reactie gewijzigd door Cheetah op 23 juli 2024 15:44]

Ik ga nog een keertje kijken naar de videokaartenmarkt als ATI zijn catalyst 7.11 of 7.12 WHQL klaar heeft staan. Verwacht wederom van ATI veel performanceverbeteringen op de nieuwe Radeons omdat interne SM4.1 aangepaste software aansturing nodig hebben.
Waarom altijd verwijzen naar mirakulueze harry potter drivers die nog moeten uitkomen om de minder goede prestaties goed te praten.
Als de drivers nu nog niet goed genoeg zijn dan hadden ze de kaart maar niet op de markt moeten brengen
De 8800GT is de snellere kaart, maar gezien de lagere afviesprijs voor de HD3870 is deze misschien alsnog het kopen waard, 15% minder prestatie voor 15% minder euro's bijvoorbeeld.

Daarnaast maakt het hele lage idle verbruik deze kaarten ook interessant voor mediacenters en dergelijjke...
gezien het verschil in de hoeveelheid die beide bedrijven beschikbaar gaan stellen denk ik dat het prijs verschil nog wel eens verder kan gaan oplopen (iets van 50.000 voor nvidia bij de lancering tegenover 250.000 voor ATI.)
Het was 40 000 voor Nvidia. Die 250 000 van ATi zijn niet allemaal geschikt voor de retailmarkt, maar gaan er een groot deel van naar OEM's. Wat je dan nog over hebt is een getal rond de 50 000.
Als AMD/ATI werk maakt van zijn toezegging en ook de datasheets van de RV670 vrijgeeft voor Linux drivers is de keus wat mij betreft simpel.
Beetje jammer dat de 8800GT hier vergeleken wordt met een 3850 ipv 3870.
De 3850 kan beter vergeleken worden met een 8600gts ofzo.

Ondanks dat de 3870 langzamer is dan de 8800GT denk ik toch dat ik de ATI kaart ga halen. Ligt een beetje aan de prijs van de kaart, deze moet wel rond de 180-190 euro liggen. Ik heb hier namelijk al een 8800GT OC gezien voor 223.50 euro. Alleen jammer dat de 8800GT's nergens meer te verkrijgen zijn voorlopig.
Ben benieuwd wanneer de 3870 te verkrijgen is en tegen welke prijs....

Nog even afwachten maar.
3870 vs 8800GT 512MB
3850 vs 8800GT 256MB

Dit op basis van de prijsklasse
Laten we niet vergeten dan nVidia binnenkort ook hun nieuwere serie kaarten uit wilt brengen waardoor de 3870 wel een nieuwe tegenstander gaat krijgen (als het om high end gaat).

Verder ben ik benieuwd naar de prijzen want geloof dat de 3870 qua prijs min of meer gelijk of iets goedkoper dan de 8800GT gaat worden. Aangezien hier in de tesen een 3850 werdt gebruikt zal de 3870 denk ik wel soort van gelijk zijn qua prestaties.
de tegenstander van de 3870 is de 8800GT(S)
een nieuwe tegenstander wordt dus niet tot de 3870 gericht,maar eerder tot de 3870 X2 (oftewel R680)

de GT is de beter kaart maar de 3870 heeft beter UVD en DX10.1 + lekker overclockbaar
Begrijp ik nu goed dat deze kaarten eigenlijk niet goed in 'normale' systemen zullen draaien zonder dat je als ware je een vliegtuigbouwdeskundige de airflow in je kast hebt geanalyseerd? (Is dat overigens een kwestie van de juiste fans op de juiste locaties weten te prikken, of is het gewoon kwantiteit (veel fans is altijd goed) dat hierbij belangrijk is?)

Goede review verder, jammer dat de performance van beide kaarten om een systeem vraagt dat meer dan 250W trekt, dat is nog steeds erg veel.
Begrijp ik nu goed dat deze kaarten eigenlijk niet goed in 'normale' systemen zullen draaien zonder dat je als ware je een vliegtuigbouwdeskundige de airflow in je kast hebt geanalyseerd?
Tja, dat komt door de single slot koelers. De 8800GTS en GTX hebben een double slot koeler die de lucht aan de achterkant de kast uit blaast, maar daar krijgen ze veel commentaar op (vraag me niet waarom, ik hou m'n kast liever mooi koel). Dit is het alternatief.
Wat iid wel erg matig is is idd dat zielige fannetje op die kaart van NVidia. Waarom gaan die gasten nou niet gewoon voor iets groters zoals bij die mensjes van ATI. Koop je zo een kaart, zit er standaard zo een fan op die het allemaal maar netnet trekt. Jammer.
Dat is om de zelfde reden als dat erbij de printers geen kabel meer wordt meegeleverd en half volle cardridges.
Daarbij komt ook nog eens dat als je een waterkoeler bent je ook nog voor dat duurdere fannetje moet betalen en de meest oc'ers dat "standaard" fannetje er toch afhalen omdat die de kaart meestal niet "standaard" laten.

En een wel bekende uitspraak; Schoenmaker blijf bij je leest ;)
Fannetje eraf halen en er een zalmanneke opzette betekend helaas geen garantie meer ;(
Officieel wel ja, maar geloof me. Ik heb een groot aantal videokaarten terug gestuurd waar de heatsink/fan vervangen is door een Zalman o.i.d. en gewoon weer terug geplaatst. Nooit problemen mee gehad.
Laten we vooral niet vergeten dat AMD deze kaart eigenlijk op het prijspeil van de 8800GT wilde introduceren. Goed dat ze daar vanaf hebben gezien, anders was de teleurstelling compleet geweest. Al ben ik wel bang dat ze nou nog amper een winstmarge hebben op hun kaarten...

Op dit item kan niet meer gereageerd worden.