Door Hielko van der Hoorn

ATI Radeon HD 3870 X2-review

28-01-2008 • 17:41

113

Singlepage-opmaak

Conclusie

Om de resultaten van de tests overzichtelijk samen te vatten hebben we het gemiddelde van de genormaliseerde scores genomen. In onderstaande grafiek is het gemiddelde per resolutie en een gemiddelde over alle resultaten weergegeven.

Gemiddelde genormaliseerde resultaten
128016501920Totaal
GeForce 8800 GT 5120,870,870,72 0,82
GeForce 8800 GTS 5120,940,910,81 0,89
GeForce 8800 GTX0,930,900,86 0,90
GeForce 8800 Ultra1,001,001,00 1,00
Radeon HD 3870 X20,940,960,96 0,95

Als we kijken naar de resultaten op de vorige pagina’s zien we dat de prestaties van de Radeon HD 3870 X2 sterk wisselen. In Crysis presteert de kaart bijvoorbeeld flink ondermaats, om vervolgens een overtuigende overwinning op de GeForce 8800 Ultra te boeken in 3DMark06. Dit wisselvallende gedrag is inherent aan de gebruikte techniek. Niet alle titels kunnen even goed schalen met Crossfire en daarnaast is de invloed van de drivers erg groot.

De prestaties van de Radeon HD 3870 X2 onder Windows Vista blijken ook niet te overtuigen. We hebben de kaart alleen op de hoogste resolutie getest onder Vista, en we hebben niet gekeken hoe de concurrentie het doet, maar het is desondanks duidelijk dat Windows XP het structureel beter doet. Daarnaast zijn de vele renderfouten in combinatie met Crysis erg vervelend.

De Radeon HD 3870 X2 is desondanks zonder twijfel een betere keus dan de GeForce 8800 GTX of Ultra. Met een prijskaartje van circa 400 euro is de kaart aanzienlijk goedkoper terwijl hij qua prestaties goed kan meekomen met de Ultra. Echt noemenswaardig is deze overwinning echter niet, de GeForce 8800 Ultra is vanwege zijn hoge prijs sowieso een kaart die we niemand aanraden en daarnaast is deze kaart al een flinke tijd geleden op de markt gezet.

Verder moeten we ons afvragen: waarom een Radeon HD 3870 X2 kopen als we ook twee losse Radeon HD 3870-kaarten kunnen aanschaffen? Twee losse kaarten zijn goedkoper en waarschijnlijk ook nog net iets sneller vanwege het verschil in geheugenkloksnelheid. Echt slecht is de Radeon HD 3870 X2 niet, maar een goede reden om deze kaart aan te schaffen is er ook niet. Om in Idols-termen te spreken: de X-factor ontbreekt.

Radeon HD 3870 X2 close-up

Dankwoord: Met dank aan Dollarshops voor het leveren van de GeForce-videokaarten.

*Pricewatch links
nVidia GeForce 8800 GT
nVidia GeForce 8800 GTS
nVidia GeForce 8800 GTX
nVidia GeForce 8800 Ultra
ATi Radeon HD 3870 X2

Reacties (113)

113
99
41
21
2
1
Wijzig sortering
Nog een extra puntje wat ik in de vorige post vergeten was maar wat er wel bij hoort:

Omdat alle tests met AA/AF zijn gedaan ben ik wel heel nieuwsgierig naar de specifieke instellingen. Want op standaard instellingen doen ATI videokaarten meer image quality dan NV. Wat bij NV high-quality is staat bij AMD gelijk aan gewoon quality. Als beide kaarten dus in de drivers op high staan ingesteld dan verzet de AMD videokaart meer rekenwerk wat zich uit in (uiteraard) een lage FPS. Dit geeft een oneerlijk beeld, want het is nou eenmaal moeilijker op beeldkwaliteit te vergelijken dan keiharde FPS. Ik vind het ook raar dat er niet zonder AA is getest, want dat hoort er natuurlijk ook bij als je wilt zien hoe de verschillende kaarten performance technisch reageren op deze filtertechnieken.. :)

En als laatste kritiekpunt vind ik dat er te weinig games zijn getest om tot een volledig beeld te komen. Het valt ook op dat de kaart het in deze review heel slecht doet, terwijl andere reviewsites veel lovender zijn over de kaart.

Toch ben ik wel heel benieuwd hoe die HD3870X2 het doet op een X38 chipset, want die is intern echt PCI-E 2.0. De PCI-E 2.0 slots op de nForce 780i zijn immers gebaseerd op een overgeklokte PCI-E 1.0 verbinding, die dankzij een NF200 chippie naar versie 2.0 wordt vertaald. Ik heb zo'n gevoel dat dat wat problemen oplevert met de HD3870X2.

[Reactie gewijzigd door frankknopers op 22 juli 2024 14:10]

Heel goed punt, ik stoor me hier ook vaak aan. 16X AF met 16X AF vergelijken lijkt logisch maar mag eigenlijk niet, want ATi verzet inderdaad veel meer werk onder deze omstandigheden dan een nVidia kaart.
Maar er was een periode waarbij nVidia inderdaad minder goed renderde onder deze omstandigheden, maar tegenwoordig is het verschil veel minder groot. Maar hoe dan ook heb je zeker een punt. Er zou eerst heel zorgvuldig gekeken moeten worden naar een vergelijkbare beeldkwaliteit, om vanuit daar een vergelijking te maken.

Dan zou je bijvoorbeeld krijgen dat een ATi kaart maar 4x AF hoeft te hebben om vergelijkbaar te zijn aan 16X AF van nVidia. En dat de Antialias van de ATi misschien iets hoger moet staan om vergelijkbaar met nVidia te zijn. Ik noem maar wat. Uit ervaring weet ik echter wel dat 16AF op een ATi teveel van het goede is. De performance dropt heel erg en het ziet er niet echt beter uit dan 8X of zelfs 4X. Terwijl een nVidia uit de 7 serie minimaal op High-quality en 16X AF moet staan anders is het gewoon lelijk. Zeker met racegames, strepen op het wegdek vervagen erg snel in de verte en het sterft van de moire effecten omdat textures op een te grote afstand te 'scherp' gerenderd worden. De Mipmap bias is gewoon verziekt bij nVidia ofzo. Maar dit is toch vooral een 7 serie probleem.

Dat maakt echter mijn vorige verhaal niet minder waar, ik ben van mening dat een nvidia kaart all-round een stuk robuuster presteert en gevoelsmatig ook beter is. Hoewel dit in principe geen persoonlijke meningen zijn maar feiten, zou ik ook enigsins biased kunnen zijn. Maar ook die vlieger gaat niet op, want ik vind beide merken altijd al geweldig en houdt van mijn hobbie om spullen te vergelijken en een eerlijk doch hard oordeel te vellen. Maar zoals vaak met personen van mijn kaliber is er wel weer ergens iemand net als ik die het tegendeel beweert, dus blijft het toch een persoonlijke mening.

[Reactie gewijzigd door BruT@LysT op 22 juli 2024 14:10]

We hebben voor de rest de standaardinstellingen gebruikt. Volgens mij is de beeldkwaliteit tussen AMD en nVidia redelijk gelijkwaardig, het is een beetje verleden tijd dat ATi daar echt significant beter mee was.
Ik vind het vreemd dat de resultaten hier zo slecht zijn. Op het forum hoor ik veel positievere geluiden van een HD3870X2 bezitter. Het zou echt super vlot draaien.

Ook uiterst merkwaardig dat zulke high-end kaarten op zo'n middelmatige CPU getest worden. Bij een review van high-end videokaarten verwacht ik op zijn minst dat er moeite is gedaan om een zo snel mogelijke CPU te regelen, en in ieder geval lekker overgeklokt. Die benchmarks van Hal Life en Enemy territory vertroebelen de resultaten enigszins, omdat de CPU het niet bij kan houden. Niet dat dit de HD3870X2 specifiek sneller zal maken, maar het is wel iets waar ik op let bij een dergelijke review.

En dat twee losse HD3870's sneller zouden zijn durf ik ook te betwijfelen. De dual GPU kaart is 50mhz hoger geklokt op beide cores, en door een interne corssfireverbinding via het PCB zouden ook de latencies lager kunnen zijn dan met een HD3870. Daarnaast heb je met een dual GPU kaart als deze de mogelijkheid om quad crossfire te draaien zondr dat je gelijk een exclusief moederbord nodig hebt met veel PCI-E slots op juiste afstand van elkaar.

En dankzij Vista kan quad crossfire veel beter schalen dan op XP, omdat er in XP een limiet is van drie frames vooruit renderen. Daardoor kon nvidia destijds geen AFR toepassen maar een combi van AFR en SFR. Met vista kan er wel AFR worden toegepast, waardoor er minder overhead is.
Helemaal mee eens, volgens mij is hier iets niet goed met de drivers in deze review. De review van Hardocp gaf ook redelijk slechte resultaten, de kaart was daar vrijwel evensnel als een 8800GTX terwijl in de andere reviews, waar ze de allernieuwste drivers hadden gebruikt, de 8800Ultra vaak werdt verslagen.

Ook testen met een E6600 ipv een opgefokte Quad vind ik redelijk matig, deze kaarten zitten erg snel op een cpu limiet. Oojk al zou het niet het geval zijn in hogere resoluties, uitsluiten is beter dan erop gokken dat er geen limiet is.

Als je deze review naast andere legt dan moet er toch wel een belletje gaan rinkelen dat er iets niet klopt aan deze resultaten. ;)
De cpu kan het - zeker op de hoogste resolutie - prima bijhouden. Het is erg gemakkelijk te herkennen wanneer de cpu de bottleneck is: dan zijn de framerates op de lagere resoluties gelijk aan die van de hogere resoluties. De processor hoeft niet meer werk te verzetten als de resolutie omhoog gaat, alleen de videokaart. Misschien dat de kaart her en der een paar procent sneller wordt met een snellere cpu, maar dat geldt net zogoed voor de nVidia-kaarten.
En dat twee losse HD3870's sneller zouden zijn durf ik ook te betwijfelen. De dual GPU kaart is 50mhz hoger geklokt op beide cores, en door een interne corssfireverbinding via het PCB zouden ook de latencies lager kunnen zijn dan met een HD3870.
Daar staat tegenover dat het geheugen veel langzamer is. De core's zijn 6/7 procent sneller, terwijl het geheugen 25% langzamer is. Overigens is de interne crossfire verbinding pci express 1.1, en biedt deze dus de helft van de bandbreedte van een pci express 2.0 verbinding.
En dankzij Vista kan quad crossfire veel beter schalen dan op XP, omdat er in XP een limiet is van drie frames vooruit renderen. Daardoor kon nvidia destijds geen AFR toepassen maar een combi van AFR en SFR. Met vista kan er wel AFR worden toegepast, waardoor er minder overhead is.
Klopt, maar daar heb je alleen wat aan als je ook Directx 10 gebruikt. Onder DirectX 9 zal het zelfs helemaal niet gaan werken.
Daar staat tegenover dat het geheugen veel langzamer is. De core's zijn 6/7 procent sneller, terwijl het geheugen 25% langzamer is. Overigens is de interne crossfire verbinding pci express 1.1, en biedt deze dus de helft van de bandbreedte van een pci express 2.0 verbinding.
Voorzover ik weet zijn de kaarten via lanes in het PCB aan elkaar gekoppeld, niet via de PCI-E switchchip. Ik dacht dat die switchchip alleen de lanes uit het PCI-E 16x slot verdelen..

En over quad crossfire en Vista: Ik denk dat de mensen die zo'n kaart willen kopen toch wel een keertje over zijn gegaan op Vista. Ik heb ook een maand of 10 de kat uit de boom gekeken, maar nu werkt Vista best wel lekker. En het voelt alleszins trager aan dan XP. Ik geloof niet dat het aan DirectX ligt of je quad crossfire goed kunt draaien, volgens mij zit dit meer in het OS Vista zelf.
Anoniem: 58485 28 januari 2008 17:59
Raar. Ik heb net een review op tomshardware zitten lezen, en die claimen dat dit toch wel de snelste kaart is op het moment: link

Daarom vindt ik de meeste vergelijkingen al niet kloppen, als je de grafieken van Tomshardware erbij pakt.

Zelfs de specs zijn verschillend van elkaar:
CPU Intel Core 2 Extreme QX6850 (Quad-core 3 GHz)
Motherboard Asus P5E3 Deluxe (X38)
Memory Crucial 2 x 1 GB DDR3 1333 MHz 9-9-9
Hard Drive Western Digital WD5000AAKS
Hitachi T7K250
DVD ROM DVD Player Asus 12x
Power Supply Coolermaster RealPower Pro 850W
De Q-core cpu lijkt het 'm zeker te doen. Ik denk dat daarom deze test niet echt eerlijk is tov de bestaande Nvidia kaarten. Op Ome tom wordt deze namelijk wel geprezen als de snellere.

[Reactie gewijzigd door Anoniem: 58485 op 22 juli 2024 14:10]

Heb alle reviews die gelinkt zijn doorgekeken. Conclusie: Op alle core duo systemen wint de 8800 ultra of zijn de prestaties wisselend. Op alle core quad systemen wint de HD 3870 X2.

Lijkt me dus duidelijk dat de cpu nog wel degelijk invloed heeft op de kaart en zijn prestaties.

[Reactie gewijzigd door Electrowolf op 22 juli 2024 14:10]

ik heb ook alles doorgekeken, en wat electro zegt is waar.
En het is niet gek ook, je gaat toch niet denken dat die nieuwe intel dualcoretjes zo powerfull zijn dat de game-designers ze niet vol kunnen trekken O-)

Alleen wel jammer van stroom verbruik, maarja...

[Reactie gewijzigd door xdcx op 22 juli 2024 14:10]

Als de drivers geoptimalizeerd zouden worden, zou het verschil kleiner zijn tussen de quad- en dual core systemen.
Een reden voor wat in de laatste alinea staat kan zijn dat sommige mensen misschien (nog) geen CF mobo hebben en dus 2 in 1 kaart (willen) kopen.

Een andere reden kan zijn om alvast 1 of 2 kaarten aan te schaffen voor de opkomende quad-CF, echter zijn daar de drivers nog niet klaar voor, dus dat is even afwachten.

[Reactie gewijzigd door peakaboo op 22 juli 2024 14:10]

Anoniem: 199900 @peakaboo28 januari 2008 23:28
Ja en neen.

In eerste opzicht geef ik je gelijk. Je zou inderdaad denken dat als je maar 1 slot voor een graka hebt, je inderdaad voor een X2 type gaat.

Maar... iemand die veel euro's wil uitgeven aan de X2 types, of het nu NV of ATI is, kan toch even goed een nieuw mobo en 2 graka's in SLI of CF?

Quad-CF lijkt me een heeeel dure optie (voor een quad-mobo voorbeeld: http://www.bit-tech.net/n...k9a2_790fx_phenom_board/1)
maar niet geheel onzin. Zie de 'future proofing' comment in de link hiervoor.
Dat ben ik niet met je eens, dat zou nog eens 100 tot 200 euro uitgaven zijn... Zit nogal een verschil tussen 400 euro of 600 euro uitgeven... toch 440 ouderwestse guldens of zo'n 14x naar de bios...

Volgens ome tom is dit btw de snelste kaart op dit moment... http://www.tomshardware.c...e_fury_maxx_2/page19.html

heb daar eigenlijk wat meer vertrouwen in dan deze review, verhaaltje over de airflow is nogal onnodig omdat er onderhand geen high end kaart meer te vinden is dit niet dit design gebruikt of een variant erop...

Tom: "Pros

The most powerful 3D Card
DirectX 10.1 support and possibility to add another card
UVD Inside (Avivo HD)
Cons

High noise and power consumption at peak
Small difference compared to a 8800 Ultra
Few bugs due to internal CrossFire affect performance
"

[Reactie gewijzigd door sdk1985 op 22 juli 2024 14:10]

Krijg het donkerbruine vermoeden dat het financiele plaatje hier niet zo veel uit maakt. Ze doen hier een performance-meeting en systeem-performance kan wel degelijk afhankelijk zijn van temperaturen met name het produceren van artifacts kan een reden zijn om toch voor een andere kaart te kiezen. En het produceren van fouten en daarmee artifacts zijn wel van toepassing op de performancemeeting.

Heb ook de review van "Oom Tom" gelezen en je komt inderdaad goed over met de Pro's & Con's maar er zitten nog wat nadelen aan die ze ook hier aanhalen.
First of all, AMD has reached its goal, taking back the crown for the most powerful graphics card. After all, it had been more than a year (since the launch of the 8800 GTX) since it was lost.

However, looking a little closer, the situation isn't the best; to get to this, the manufacturer has used the old technique of pairing two mainstream GPUs on a single card using its existing technology: CrossFire. This design carries many consequences. First and foremost, there are random performance issues; in the rare event when games haven't been profiled or can't take full advantage of the spread computational power, performance is low and often inferior to those of the GeForce 8800 Ultra. Other consequences include a few early bugs related to CrossFire and a lower efficiency (the HD 3870 is only outperformed by 41% on average) resulting in a perfectible performance-power consumption ratio.

Even on the level of pure performance, the situation isn't exceptional: the 8800 Ultra, a card available for 8 months now, is only outperformed by 7% (in 1920x1200), the gap being tiny in the other resolutions or even going to the advantage of the 8800 Ultra. Compared to AMD's older high end, the Radeon HD 2900 XT, performances are increasing by only 42%.
Ik zal je inderdaad wel nageven dat Oom Tom een uitgebreidere review heeft gedaan die positiever uitvalt voor de ATi-kaart.

[Reactie gewijzigd door Clueless op 22 juli 2024 14:10]

er is een probleem met crysis
als men aa inschakelt wordt 1 van de gpu cores niet benut.
zie link
(fudzilla) het is dezelfde score als 1 hd3870
echter zonder aa wordt ie wel sneller.
betere driver komen eraan die het pobleem aan zouden pakken.

ps dima 2005
de 9800x2 is een 8800gt dual chip kaart
Ik zou graag zien dat jullie deze kaart tegenover jullie favoriete pricewatch optie zouden benchmarken. (2 losse 8800 GT's in SLI dus)

De prijs en energie consumptie lijken mij vrijwel gelijk dus ik ben erg benieuwd naar juist twee opties tegenover elkaar.

Nu zie je hele rare uitschieters van CrossFire in performance tegenover de standaard stabiel presterende 8800 kaarten. Maar misschien dat een SLI 8800 GT opstelling hier ook rare dingen had laten zien.

Dat jullie deze kaart trouwens een betere keus noemen dan de 8800 GTX/Ultra begrijp ik echt niet. Zowel energie consumptie, warmte productie, uitbreidbaaarheid, stabiele performance, drivers etc zijn bij deze kaart gewoon slechter dan de 8800 serie, ongeacht dat die duurder zijn per fps.
aller eerst wil ik zeggen dat ik het een mooie review vind,
een keer een nederlandse met een duidelijke uitleg. _/-\o_

jammer dat de prestaties zo verschillen van andere tests... maar bij somige zet ik dan ook mijn vraagtekens en anderern hebben ook weer nieuwe drivers gebrukt.

waardoor je deze (vrij uitgebrijde bv: XP vs Vista) niet met andere tests kunt vergelijken.

mischien is het leuk om de test opnieuw te doen aleen dan met de nieuwe drivers (zodat we ook het verschil in driver verzies kunnen zien). :) en mischien wel met een snellere cpu/oc voor de zeurpieten onder ons... *zucht*

veder vroeg ik me ook of of de PCB's van andere fabrikanten niet veel korter zijn... het lijkt wel zo op de foto's (bv: GeCube HD3870X2) en of zij dan ook kortere koelers erop zetten?
Deze review strookt totáál niet met de rest van de reviews op het Internet. Praktisch overal is de X2 een 8800Ultra + 25%, en hier lagt hij er hopeloos achteraan.

Nergens zie ik ook vermeld staan met welke drivers er is getest op Tweakers.net, zie hier voor een overzicht van de andere reviewsites: http://gathering.tweakers...message/29506483#29506483

Onduidelijkheid troef, en dat komt de benchmarks niet tegen goede.
deze review is idd erg bagger... Bijna alle andere sites geven aan dat de 3870 X2 gewoon de snelste kaart is en wel gemiddeld 20% sneller dan een ultra dus deze review moet je met een grote korrel zout nemen...
De nVidia-kaarten zijn getest met de Forceware 169.21 whql-drivers terwijl de Radeon HD 3860 X2 is getest met de Catalyst 8.1-drivers (driverpackage: 8-451-2-080123a).
Met de laatste drivers dus, tenminste in het geval van de Radeon. Ik geloof dat nVidia ondertussen drivers heeft die net iets nieuwer zijn.
Met de laatste drivers dus, tenminste in het geval van de Radeon
Is dat zo? Op het forum loopt een hele driverdiscussie:
http://gathering.tweakers.net/forum/view_message/29507746

AMD heeft niet voor niets op het laatste moment de introductie een paar dagen naar achter geschoven. De nieuwe drivers lijken toch wel verschil te maken. Vooral in een game als Crysis

Overigens geven de reviews op het het internet - mede daardoor misschien - een heel wisselend beeld. Soms enorme uitschieters, soms een heel treurig score.

Opvallend is wel dat in veel reviews de X2 vaak 5 tot 10% beter scoort dan een crossfire 3870.

[Reactie gewijzigd door dirkjesdirk op 22 juli 2024 14:10]

Opvallend is wel dat in veel reviews de X2 vaak 5 tot 10% beter scoort dan een crossfire 3870
Niet zo vreemd als je je realiseert dat de X2 iets hogere specs heeft voor de gpu's
Dan geef ik toch Smithers.83 helemaal gelijk. Hij mag zijn verhaal wel niet zodanig onderbouwen, maar ik merk exact hetzelfde. Ik test regelmatig gelijkwaardige systemen met ATi en nVidia kaarten met elkaar. En zoals de HUIDIGE situatie eruit ziet is niet zo heel erg best voor ATi.
Je kan ook duidelijk aan de elektronica op de kaarten zien dat ATi extreem complexe kaarten moet maken om in de buurt van een nvidia kaart te komen die relatief eenvoudig is opgebouwd. Dit boeit de consument niet, maar laat wel problemen zien op technisch vlak wat ik dan toch wel interessant vind om te constateren.
Dit betekent ook dat ze veel meer verlies zullen leiden op hun producten. Mij zal het niets verbazen als de huidige ATi's op productiegebied meer kosten dan nVidia kaarten en ze kunnen er minder voor vragen omdat ze voordeliger moeten zijn dan nVidia. Dit werkt erg in hun nadeel.

Een duidelijk voorbeeld haalde ik uit mijn onderzoek naar de snelste AGP kaartjes vorig jaar. Een Geforce 7800GS en een Radeon X1950PRO. De kaarten presteren ruwweg gelijk aan elkaar, maar er zitten nogal wat haken en ogen aan de ATi kaart.
Ten eerste, ik strip de kaarten helemaal kaal. Dan zie je dat ATI's kaart extreem complex is en nVidia's kaartje lijkt wel een budget-geval. Daarnaast verbruikt de ATI kaart meer vermogen en wordt daardoor veel warmer. De ATi kaart valt voor geen meter over te clocken wat laat zien hoe ze erg tegen de grens van de GPU aanzitten (dat doen ze nu overigens nogsteeds, laat zien hoe ze de boel moeten pushen om in de buurt van nVidia te komen), eigenlijk niet eens geoorloofd om zoiets op de markt te brengen want het kan erg onstabiel zijn en er waren ook nogal wat uitval exemplaren van deze kaart. nVidia's Core kon van 380MHz zonder moeite op 500MHz gezet worden (met voltmod nu op 700MHz). Daarnaast is de grootste tegenvaller dat ATi's kaart er op papier een stuk beter uitkomt, maar dit niet waar kan maken.

Nou zijn al dit soort zaken voor een normale consument die een spelletje wil spelen iets minder interessant want de prijs van de x1950pro kaart lag ook lager dan de 7800gs. De prestaties op stock speeds waren heel redelijk te noemen waardoor de keuze voor ATi toch te overwegen valt. Dan was er nog het probleem van de 7xxx serie van nVidia met Anisotropic filtering, deze is barslecht, zelfs op 16x. Nog een pluspuntje voor de ATi dus die met 4x aniso al veel mooier is. De huidige 8 serie vind ik persoonlijk wel weer beter renderen dan de huidige ATi videokaarten. Jah elke generatie moet je weer een neutrale blik werpen op ATi en nVidia, want het is steeds weer een ander liedje. De pluspunten van ATi op gebied van beeldkwaliteit zou ik vandaag de dag niet meer naar omkijken, die periode hebben we gehad.

Maar dan belanden we bij het belangrijkste van allemaal, hoe voelt het spel aan, hoe speelt het, hoe constant is je framerate etc. Zaken die er ECHT toe doen bij het spelen van een spel. Ik heb weken en maanden besteed aan het wisselen van videokaarten van ATi en nVidia en kom tot een hele duidelijke conclusie dat de nVidia kaarten van nu vele malen robuuster zijn, frames veel minder flucturerend op het beeld toveren en dat nVidia minder last heeft van renderfouten.
Zo zijn er bijvoorbeeld sitiuaties op te noemen waarbij een ATi kaart hogere frames haalt, maar het spel helemaal niet echt beter lijkt te draaien. Dit komt dan door ongelijke framerates en meer last van haperingen. Dit zijn zaken waar vandaag de dag wel meer op gehamert mag worden vind ik omdat dit alles te maken heeft met de 'speelervaring', wat is zekere zin het belangrijkste punt is van allemaal. Wat ook nog wel eens jammer is voor ATi, dat er nogal wat spellen in omloop zijn die vreemd genoeg een hele hoop beter presteren op een nVidia kaart, deze spellen zie je niet vaak langskomen in benchmarkts, maar als voorbeeld kan ik "Two Worlds" geven.

Wat ik hier verder aan toe wil voegen is dat ik beide fabrikanten omarm en niets de grond in wil trappen maar een zo duidelijk mogelijk beeld wil schetsen voor mezelf wat momenteel de verschillen zijn. Het hele onderzoek heb ik spijtig genoeg (hoe egoistisch ik dan mag zijn) puur voor mezelf gehouden. Een artikel was leuker voor jullie geweest, maar zoals zovaak zijn er een hoop fanboys die hoe dan ook toch hun eigen weg kiezen, net zoals ik zo eigenwijs ben om altijd MIJN eigen weg te kiezen en alles zelf uit te willen zoeken. Ik kan alleen maar aanraden om een nVidia kaart te nemen, meer niet.

En deze X2, tjah gewoon een veel te lomp overdreven ding die onder de maat presteert. Kwa prijs kan de kaart wel meekomen met nVidia en is het de overweging misschien waard, maar puur vanuit technisch oogpunt is hij waardeloos. Jammer, ik hoop nog eens op zo'n comeback zoals met de R300. Nou weer genoeg gelult
Dit betekent ook dat ze veel meer verlies zullen leiden op hun producten. Mij zal het niets verbazen als de huidige ATi's op productiegebied meer kosten dan nVidia kaarten en ze kunnen er minder voor vragen omdat ze voordeliger moeten zijn dan nVidia. Dit werkt erg in hun nadeel.
Nee. :)

Je zult versteld staan als je weet hoeveel ruimte AMD nog heeft om de prijzen van de RV670 cores omlaag te gooien. AMD ziet de G94 core als "natural competitor" van de RV670, om maar even mijn contactpersoon bij AMD te citeren. En die G94 moet nog uit komen in de vorm van de GF9600GT. Tot die tijd plukt AMD de vruchten van de prijzen die ze op dit moment nog vrij hoog kunnen houden voor de HD3800 serie... hoog in vergelijking tot de sell-in price van de videokaart.

Sommige AIBs zijn al begonnen met eigen PCBs te bouwen. Zie ook bv de GeCube HD3870X2 die een volledig customdesign PCB heeft. AMD verkoopt hier alleen maar de chips en niet meer de complete videokaarten.... maar in plaats van 1 RV670 verkopen ze er nu 2.

Tel daarbij op dat ze al een tijd lang hebben kunnen experimenteren met X2 varianten zoals bv de X1950Pro Gemini van Sapphire of de HD2600XT Gemini van GeCube. De ervaring was er al.

De HD3870X2 gebruikt overigens een 12 layer PCB. De HD3870 gebruikt 8 layer PCB. Dus de kosten van het PCB zijn wel iets omhoog gegaan, maar doordat er meerdere lagen zijn is de boel wel iets gemakkelijker te routen waardoor je bepaalde zaken als hotspots gemakkelijker kan vermijden.

De aankomende GeForce 9800GX2 gebruikt twee maal 10 layer PCB.... dus 2 print platen voor een totaal van 20 layers.... Dat kost nVidia ook een aardige duit en dat ga je ook zien bij de GX2. Wat inside info: het verschil in productiekosten tussen de HD3870X2 en de GF9800GX2 bedraagt zo'n $125 in het voordeel van AMD. Daar komen nog dealermarges bij dus dan zal het enduser verschil nog groter worden.

Over de complexiteit van de PCBs.... AMD staat er nou eenmaal niet om bekend dat ze de meest efficiente PCBs bouwen. Ze zijn chipdesigners, geen PCB designers. Ze maken een reference design, maar daar hoef je je niet aan te houden (getuige ook het feit dat veel AIBs al een custom design PCB voor de HD3870 klaar hadden staan dat veel zuiniger, cleaner en efficienter was, maar zaten te wachten op de GPUs).

Zie ook het verschil tussen reference en non-reference. De non-reference versie van GeCube ziet er veel schoner en netter uit. Het gebruikt zelfs 2x een 6 pins connector en is van huis uit al overgeklokt:

http://gathering.tweakers...message/29512206#29512206

De komst van een grote single GPU kaart kan je vergeten. R300 tijden zijn voorbij. R600 tijden ook. RV770 komt er aan. Vanuit technisch oogpunt is de HD3870X2 slechts het begin van wat er komen gaat. Maar het wordt straks allemaal veel verfijnder. Alle zaken die in de afgelopen twee jaar geintroduceerd zijn, zoals de ringbus en de 512-bit memory interface komen terug in aangepaste vorm.

[Reactie gewijzigd door CJ op 22 juli 2024 14:10]

OMG, wat een slap verhaal.. ongelofelijk, iedereen ziet een lap tekst en zegt dan, hey laat ik m maar s 2 pluspuntjes geven.
Maar dit verhaal is, zonder harde bewijzen, m.i. volledig uit de grote duim gezogen.

Ik kan b.v. het zelfde verhaal van hierboven neertypen, alleen wissel ik dan AMD en Nvidia om, en tadaa, ineens lijken de Nvidia kaarten slechter. Wat een hoop gezwets.

U vraagt om een onderbouwing? Komt ie dan he!
Je kan ook duidelijk aan de elektronica op de kaarten zien dat ATi extreem complexe kaarten moet maken om in de buurt van een nvidia kaart te komen die relatief eenvoudig is opgebouwd. Dit boeit de consument niet, maar laat wel problemen zien op technisch vlak wat ik dan toch wel interessant vind om te constateren.
Hmpff! Was ik de enige die hier om moest lachen? De man kijkt naar 2 kaartjes en ziet duidelijk dat de AMD kaart veel moeilijker tot stand is gekomen dan de Nvidia kaart? Juist...
Dit betekent ook dat ze veel meer verlies zullen leiden op hun producten. Mij zal het niets verbazen als de huidige ATi's op productiegebied meer kosten dan nVidia kaarten en ze kunnen er minder voor vragen omdat ze voordeliger moeten zijn dan nVidia. Dit werkt erg in hun nadeel.
Hoppa, 1 - ik zuig uit mijn duim dat AMD kaarten moeilijk te maken zijn
2 - Daarna verzin ik gewoon dat AMD kaarten dan maar duurder moeten zijn! Als mensen in mijn eerste uit de duimzuig verhaal geloven, slikken ze dit ook wel.

en idd! ze geloven het ook nog :S
Ook had je kunnen zeggen dat de nieuwe GPU van b.v. een HD3870 verkleind is wat als voordelen met zich meebrengt: Goedkoper om te fabriceren - minder stroomverbruik (en dus ook minder warmteontwikkeling) - betere prestaties. Maar goed...
Een duidelijk voorbeeld haalde ik uit mijn onderzoek naar de snelste AGP kaartjes vorig jaar. Een Geforce 7800GS en een Radeon X1950PRO. De kaarten presteren ruwweg gelijk aan elkaar, maar er zitten nogal wat haken en ogen aan de ATi kaart.
Ten eerste, ik strip de kaarten helemaal kaal. Dan zie je dat ATI's kaart extreem complex is en nVidia's kaartje lijkt wel een budget-geval. Daarnaast verbruikt de ATI kaart meer vermogen en wordt daardoor veel warmer. De ATi kaart valt voor geen meter over te clocken wat laat zien hoe ze erg tegen de grens van de GPU aanzitten (dat doen ze nu overigens nogsteeds, laat zien hoe ze de boel moeten pushen om in de buurt van nVidia te komen), eigenlijk niet eens geoorloofd om zoiets op de markt te brengen want het kan erg onstabiel zijn en er waren ook nogal wat uitval exemplaren van deze kaart. nVidia's Core kon van 380MHz zonder moeite op 500MHz gezet worden (met voltmod nu op 700MHz). Daarnaast is de grootste tegenvaller dat ATi's kaart er op papier een stuk beter uitkomt, maar dit niet waar kan maken.
AGP? Wtf test je nog ouwe AGP meuk voor dan? Hallooooo, PCI Express? En je hebt toch wel gelezen dat de HD 38XX serie zich zeer goed leent voor overclocken? Nee laten we het eens over ouwe troep van vorig jaar hebben voor een slot waar praktisch geen kaart voor gemaakt word! Waarom haal je in godsnaam oude feiten aan in de review van een nieuwe kaart? Waarschijnlijk alleen omdat je je gelijk wil halen, maar doe dat dan met vergelijkbare nieuwe kaarten.

Ik sla daarna even een hele stuk onzin over die ik niet eens de moeite waard vind om hier te noemen. Helaas zal ik toch even iets moeten zeggen, anders krijg ik daar weer gezeur over.

Als AMD kaarten zo haperen, dan werden ze echt niet verkocht. Zelf heb ik ook wel eens haperingen flikkeringen en weet ik veel wat gehad met mijn videokaart, maar na een driverupdate was dit opgelost, voor zowel AMD als Nvidia kaarten. Maar om nu maar te gaan zeggen dat een AMD videokaart altijd hapert en een Nvidia kaart niet, vind ik lulkoek. Ja, misschien dat jou AMD kaart last had van die problemen, maar dat je het ineens moet generaliseren op alle AMD kaarten is dan toch weer een beetje teveel van het goede of niet?

Dit laatste stukje doe ik niet met plezier! Mensen die zichzelf voor paal zetten hebben het al moeilijk genoeg. Ik wrijf het niet graag in maar vooruit, je vraagt er wel om.
Wat ik hier verder aan toe wil voegen is dat ik beide fabrikanten omarm en niets de grond in wil trappen maar een zo duidelijk mogelijk beeld wil schetsen voor mezelf wat momenteel de verschillen zijn. Het hele onderzoek heb ik spijtig genoeg (hoe egoistisch ik dan mag zijn) puur voor mezelf gehouden. Een artikel was leuker voor jullie geweest, maar zoals zovaak zijn er een hoop fanboys die hoe dan ook toch hun eigen weg kiezen, net zoals ik zo eigenwijs ben om altijd MIJN eigen weg te kiezen en alles zelf uit te willen zoeken. Ik kan alleen maar aanraden om een nVidia kaart te nemen, meer niet.
Ja, dus je wilt weten wat momenteel de verschillen zijn, en dat test je met oude AGP kaarten? Ahum... :S Bovendien geef je zelf al aan een eigenwijze flikker te zijn, en ik denk dat dat ongeveer het enige is waar ik je gelijk in kan geven.
En deze X2, tjah gewoon een veel te lomp overdreven ding die onder de maat presteert. Kwa prijs kan de kaart wel meekomen met nVidia en is het de overweging misschien waard, maar puur vanuit technisch oogpunt is hij waardeloos. Jammer, ik hoop nog eens op zo'n comeback zoals met de R300. Nou weer genoeg gelult
Overal word de kaart met veel lof binnengehaald, maar meneer de AGP testexpert weet het weer beter. Deze kaart levert gelijkwaardige prestaties aan een 8800 GTX, is zelfs nog beter in coderen van HD, kost veel minder dan een 8800 Ultra en kan gebruikt worden voot quadCF, maar hij vind het niks!

Zucht, en dat hele onzinverhaal, zonder onderbouwing, zonder ook maar een kleine beargumentatie (behalve dan dat jij het ziet) word ook nog eens goed geloofd door de makke schaapjes die niet verder kijken dan hun neus lang is.

Ik hoop dat men wat kritischer naar dit soort onzin gaat kijken, want door dit soort ellendige verhaaltjes komen veel misverstanden de wereld in.

[Reactie gewijzigd door Anoniem: 225955 op 22 juli 2024 14:10]

Deze kaart levert gelijkwaardige prestaties aan een 8800 GTX..
Maar vestookt tegelijkertijd zo'n dikke 60watt meer :|
Gezien de prestaties en het opgenomen vermogen, vind ik het helemaal niet zo'n geweldige kaart; de 3870 X2.
Anoniem: 156281 @Madrox31 januari 2008 20:05
Is sneller dan de GTX hoor ;)
Omdat? Ik vind je commentaar verre van onderbouwd. Als consument maak je je niet druk om het aantal GPU's op een kaart. De enige zaken die wat mij betreft ter zake doen zijn:
1. prestaties
2. prijs
3. energieverbruik
4. geluidsproductie (en warmte, maar dat is direct gerelateerd aan het energieverbruik)

Als een merk een topproduct levert met 20 GPU's vind ik het prima.
Het is een algemene trend in de GPU markt die we jaren geleden al zagen in de CPU markt. Een enkele rekenkern wordt te groot en te complex en daarom wordt er overgeschakeld naar een model met meerdere paralelle rekeneenheden (dualcore en quadcore CPU's).

Bij videokaarten zien we straks dezelfde tendens, de G80 en de R600 zijn beide verschrikkelijk grote cores. Door die grootte en de enorme complexiteit ervan wordt het steeds moeilijker om goede yields te halen en het stroomverbruik onder controle te houden. De G80 is evengoed een heethoofd.

De nieuwe generatie waar AMD aan werkt wordt al dusdanig modulair ingericht dat men straks de snelheid van een videokaart kan bepalen door er meer of minder rekenmodules op te zetten. Door meerdere simpele en kleine cores bij elkaar te brengen kunnen de yields verder omhoog en wordt het makkelijker om de lekstroom in te perken.

Je bent ouderwets als je op 1 GPU wilt blijven vastzitten, multicore GPU is echt de toekomst. Ook Intel volgt die gedachtegang met hun Larrabee GPU. ;)

[Reactie gewijzigd door frankknopers op 22 juli 2024 14:10]

Je post klinkt leuk, maar je argumenten en zelfs je basisstelling zijn onzin. Waar die score van 1 vandaan komt snap ik niet.
Een enkele rekenkern wordt te groot en te complex en daarom wordt er overgeschakeld naar een model met meerdere paralelle rekeneenheden (dualcore en quadcore CPU's).
Rekenkernen en chips zijn hele verschillende zaken. Multi-GPU is niet hetzelfde als Multi-core, het is hetzelfde als Multi-socket systemen. Alle NVIDIA en ATI GPU's hebben meerdere 'cores', als je ze zo wilt noemen (hoewel core eigenlijk moeilijk te definieren is). Om met de marketingtermen van ATI en NVIDIA te praten zijn er dat respectievelijk 320 en 128 (hoewel beiden op een verschillende manier tellen, dus ga ze alsjeblieft niet vergelijken).
GPU's zijn vanaf de oorsprong al parallel geweest en daarom hebben ze zo'n enorme hoeveelheid 'cores' die allemaal tegelijk aan het werk kunnen. Vijf jaar terug hadden GPUs al meer 'cores' dan je CPU nu.
Bij videokaarten zien we straks dezelfde tendens, de G80 en de R600 zijn beide verschrikkelijk grote cores. Door die grootte en de enorme complexiteit ervan wordt het steeds moeilijker om goede yields te halen en het stroomverbruik onder controle te houden. De G80 is evengoed een heethoofd.
Dat klopt (hoewel het een "die" heet, niet een "core"), meerdere die's op een kaart zal goed zijn voor de yields. Het zal echter niet direct beter zijn voor stroomverbruik of hitte, sterker nog, de verschillende chips doen op dit moment allemaal werk dubbel (beide chips op R680 hebben bijvoorbeeld een geheugencontroller), dus in theorie wordt er zelfs meer stroom verbruikt. Daarnaast moet het geheugen verdubbeld worden, wat ook niet goed is voor stroomverbruik en hitte.
De nieuwe generatie waar AMD aan werkt wordt al dusdanig modulair ingericht dat men straks de snelheid van een videokaart kan bepalen door er meer of minder rekenmodules op te zetten.
Onbevestigde geruchten.
Door meerdere simpele en kleine cores bij elkaar te brengen kunnen de yields verder omhoog en wordt het makkelijker om de lekstroom in te perken.
Opnieuw die yields die kloppen maar de lekstroom heeft er niks mee te maken.
Je bent ouderwets als je op 1 GPU wilt blijven vastzitten, multicore GPU is echt de toekomst. Ook Intel volgt die gedachtegang met hun Larrabee GPU.
Multi-core GPU bestaat niet, multi-chip GPU wel. Waar je het echter vandaan haalt dat Larrabee hier iets mee te maken heeft snap ik niet. Larrabee is een single-chip oplossing met een aantal (mogelijk x86?) cores en een geheugencontroller. Niet heel veel anders dan een GPU als je het vanaf grote afstand bekijkt. Het is echter absoluut geen multi-chip systeem, integendeel.

Volgens mij heb je een boel klokken horen luiden maar weet je nog niet één klepel te vinden.
Daarnaast is de geluidsproductie laag, omdat de twee gpu's gekoeld worden door één ventilator.
:? Vreemde redenatie. Ik heb toch echt liever 2 fans van 6cm op 50% van eentje van 6cm op 100%. Ik heb ook expres m'n kast volgehangen met fans om ze allemaal lekker traag te laten draaien. Ik durf te wedden als ik de luchtverplaatsing van al deze fans moet krijgen met 1 intake fan en 1 outtake fan van hetzelfde formaat dat het dan heeeeel wat meer lawaai maakt. 1 fan is zeker niet per definitie stiller. Bij dezelfde luchtverplaatsing zijn meerdere fans van hetzelfde formaat in principe altijd stiller.

En dan over de CPU; ik vind de CPU een beetje aan de magere kant. Kan je wel zeggen dat het onzin is maar ik heb zelf ervaren dat dat absoluut niet is. Ik draai hier met een X1950XTX en een E4400. Stock kon ik STALKER net aan op 1280x1024 draaien (of misschien was het 1600x1200). En zonder dat ik wat aan de 1950 veranderde, toen ik de E4400 op 3ghz klokte maakte dat echt wel een aanzienlijk verschil. Ik ging van "net speelbaar" naar "soepel speelbaar". Ik speel nu niet meer op het randje.

[...]
:? Vreemde redenatie. Ik heb toch echt liever 2 fans van 6cm op 50% van eentje van 6cm op 100%. Ik heb ook expres m'n kast volgehangen met fans om ze allemaal lekker traag te laten draaien. Ik durf te wedden als ik de luchtverplaatsing van al deze fans moet krijgen met 1 intake fan en 1 outtake fan van hetzelfde formaat dat het dan heeeeel wat meer lawaai maakt. 1 fan is zeker niet per definitie stiller. Bij dezelfde luchtverplaatsing zijn meerdere fans van hetzelfde formaat in principe altijd stiller.
Kan je de lijn wel doortrekken als je 2 gpu's neemt ipv 1 je ook het dubbel aan toerental bij je fan moet rekenen? Ik zou denken van niet. Het kan zijn dat men een grotere fan voor zal gebruiken. Of men kan gewoon de fan traag laten draaien en de cores wat warmer laten worden. Maar van een puur lineaire relatie kan men dus moeilijk spreken.
En dan over de CPU; ik vind de CPU een beetje aan de magere kant. Kan je wel zeggen dat het onzin is maar ik heb zelf ervaren dat dat absoluut niet is. Ik draai hier met een X1950XTX en een E4400. Stock kon ik STALKER net aan op 1280x1024 draaien (of misschien was het 1600x1200). En zonder dat ik wat aan de 1950 veranderde, toen ik de E4400 op 3ghz klokte maakte dat echt wel een aanzienlijk verschil. Ik ging van "net speelbaar" naar "soepel speelbaar". Ik speel nu niet meer op het randje.
Inderdaad. Ook is, zoals hierboven al is gebleken, crossfire (of toch deze X2 kaart) zeer gebaat met extra cpu kracht. Quad-core hebben zorgt voor een gunstig effect voor de X2 tov een dual-core. Zélfs al is die dual-core hoog geklokt.
Kan je de lijn wel doortrekken als je 2 gpu's neemt ipv 1 je ook het dubbel aan toerental bij je fan moet rekenen?
Ik weet niet of het dubbel moet zijn maar de fan moet zeker wel harder gaan draaien. Het is vrij simpel: de warmte afgifte wordt hoger met 2 cores. De lucht wordt warmer dus de cores ook omdat die naarmate de lucht warmer wordt steeds minder warmte af kunnen staan (middels een heatsink). Dus aangezien de lucht warmer wordt moet er meer frisse lucht aangevoerd worden om meer warmte af te kunnen voeren.
Ik zou denken van niet. Het kan zijn dat men een grotere fan voor zal gebruiken. Of men kan gewoon de fan traag laten draaien en de cores wat warmer laten worden. Maar van een puur lineaire relatie kan men dus moeilijk spreken.
De fan is niet groter dat is duidelijk te zien op het plaatje. En de cores warm laten worden...tja, zou het echt een pauperoplossing vinden.

Op dit item kan niet meer gereageerd worden.