Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 33 reacties

De Chinese hardwaresite Hardspell heeft de nieuwe Radeon HD3850 X2 aan de tand gevoeld. In vergelijking met de nieuwe 9800GTX van Nvidia slaat de HD3850 X2 geen slecht figuur.

De geteste Radeon HD3850 X2, die twee RV670-gpu's op 668MHz en op 1656MHz geklokt geheugen bevat, werd vergeleken met de Radeon HD3870 X2, de Geforce 8800GT en de nieuwe Geforce 9800GTX. In 3dMark06 scoort de HD3850 X2 14100 punten op een resolutie van 1600x1200. Dat is bijna 500 punten minder dan de HD3870 X2, terwijl de 9800GTX met 12075 punten op gepaste afstand blijft. Overigens gebruikte Hardspell voor de test een Intel Core 2 Quad QX6850-cpu op 3GHz, een Asus P5N-T Deluxe-moederbord en tweemaal 2GB 800MHz ddr2-geheugen van Corsair. Het testsysteem was verder voorzien van Windows Vista, inclusief de laatste drivers.

Bij de geteste games is het stuivertje wisselen tussen de HD3850 X2 en de 9800GTX. Bij de game Company of Heroes: Opposing Fronts moet de HD3850 X2 met 53fps zijn meerdere erkennen in de 9800GTX, die 58fps weet te scoren, terwijl de HD3870 X2 met 67fps aan kop gaat. In Unreal Tournament 3, Fear: Perseus Mandate en Lost Planet zijn de beide AMD-videokaarten in het voordeel. Daarbij moet wel worden opgemerkt dat de videokaarten met dubbele gpu van ATI in de hoogst geteste resolutie van 2560 bij 1600 door de high-end Nvidia-kaart worden verslagen. In Quake 4, Half-Life 2: Episode 2 scoren de HD3850 X2 en de 9800GTX nagenoeg gelijk, terwijl bij World in Conflict en Need For Speed: Pro Street de 9800GTX weer aan de leiding gaat. Het aanzetten van viervoudige antialiasing en zestienvoudige anisotropic filtering verandert niet zoveel aan dit beeld, al lijkt Half-Life 2 de 9800GTX niet zo goed te liggen.

ATI Radeon HD3850 X2De HD3850 X2 zal in Amerika voor een bedrag tussen 299 en 379 dollar in de markt worden gezet. In Europa zal een 9800GTX-kaart al te voor ongeveer 235 euro te krijgen zijn, terwijl een HD3870 vanaf 135 euro te koop is en een HD3870 X2 vanaf 300 euro gekocht kan worden. Als AMD de HD3850 X2 tussen de 220 euro en 250 euro kan leveren, dan kan deze videokaart de concurrentie met de 9800GTX goed aan.

Moderatie-faq Wijzig weergave

Reacties (33)

Opzich wel knap dat de single core kaart van Nvidia nog redelijk tegen het dualcore geweld van AMD/ATi is opgewassen. Zelf zie ik trouwens meer in een snellere single core chip dan in complexe dual core kaarten. Daarnaast vind ik de winst van de 9800GTX tov. de 8800GTS ook wel redelijk gezien de kaarten in feite alleen andere clocks hebben.
juist single core's zijn complex. meerdere kleine GPU's maken is vanuit een productie process oogpunt veel efficiënter en dat betekend gemiddeld hogere clocks tegen een lager verbruik.
het nadeel is alleen dat je drivers en games er wel goede ondersteuning voor moeten beiden.
juist single core's zijn complex. meerdere kleine GPU's maken is vanuit een productie process oogpunt veel efficiënter en dat betekend gemiddeld hogere clocks tegen een lager verbruik.
Ik vind het verschil tussen twee of vier SIMD arrays niet heel erg veel uitmaken voor complexiteit, net zomin als het verschil tussen 16 of 8 breede SIMDs, of een halvering van de hoeveelheid TMUs of ROPs. De complexiteit ligt in het werkend krijgen van de chip, in de afwegingen die gemaakt moeten worden tussen clocksnelheid, ALU complexiteit, bandbreedte, ALU-TMU ratio, etcetera.
Op het moment dat ATI of NVIDIA met een nieuwe generatie chips (R600, G80) komt volgen er al snel afgeleiden met minder functionaliteit voor een lagere prijs op een kleinere die (edit: dit zijn overigens niet mislukte grote chips, dit zijn altijd kleinere op zichzelf staande ontwerpen, afgeleid van het ontwerp van de high-end chip). Als de complexiteit in de grootte van de chip zou zitten zou er veel meer tijd zitten tussen deze verschillende chips.

Multi-GPU mag dan vanuit yield oogpunt efficienter zijn, het betekent wel ongebruikte en dubbele functionaliteit in beide chips, het dubbele aantal geheugenchips, groter en dikker PCB, meer hitte (het is dan wel op twee plekken, maar door de dubbele transistors zal er onnodig meer hitte geproduceerd worden), meer stroomverbruik, meer datalanen en een communicatiechip. Ik weet niet hoe slecht jij denkt dat die yields zijn, maar het lijkt me sterk dat multi-GPU goedkoper is.
En dan hebben we het nog helemaal niet gehad over de softwarekant, zowel in games die multi-GPU niet ondersteunen als in veel complexere drivers.

[Reactie gewijzigd door Snoitkever op 15 april 2008 16:34]

Het energieverbruik van X2 kaarten al eens vergeleken met single gpu kaarten? Alles behalve lager verbruik. Integendeel, de prestatiescores verdubbelen niet terwijl het verbruik dat wel doet.
je snapt het punt duidelijk niet.
het idee is dus dat als je die 2 chips samen in een zou doen je vele groter chips hebt met minder goede yields en daarom of minder hoger clocksnelheden of hoger verbruik of gewoon een veel lagere yield (en daarom een veel te hogere prijs).

elk verlies in inefficiëntie komt nog door drivers, de games die er nog niet op voorbereid zijn en het feit dat de r6xx chips nog niet 100% geoptimaliseerd zijn voor multi-gpu gebruik.
de r700 of de generatie erna zou dat een een vele groter maten zijn, en de games en drivers van die tijd ook.
Op zich boeit dat mij niet of 'n graka nu één of meer cores heeft, wat telt is de snelheid, verbruik en geluidslast. Of de kaart nu complex is of niet zal velen aan de reet roesten denk ik.
Op zich heb je gelijk, ware het niet dat een enkele GPU wel veel beter schaalt dan meerdere GPU's (net als met CPU's in feite). Een 2x zo snelle GPU is namelijk altijd 2x zo snel. Maar bij 2 GPU's hangt dat nogal van het gebruik van de applicatie af. Een veel gebruikte techniek is bijvoorbeeld AFR (Alternate Frame Rendering), waarbij de ene core de oneven frames berekent, terwijl de andere core alle even frames doet.

Echter, zodra je in je game een beetje gebruik gaat maken van feedback effecten, waarin het resultaat van de vorige frame gebruikt wordt is de mogelijke parallellisatie weg en vedwijnt het nut van een extra GPU vrijwel als sneeuw voor de zon. Had je een enkele GPU gehad die sneller was dan heb je hier dus weer helemaal geen last van.

Dit was maar een enkel voorbeeld, maar er zijn wel meer usecases waarbij het nut van meerdere GPUs minder nuttig is (wat ook de reden is dat de multi-GPU benchmarks nogal schommelen tussen verschillende games). Natuurlijk, het zal nooit langzamer zijn dan een gelijk geklokte enkele GPU, maar wat dat betreft heb ik liever een enkele GPU :)
Natuurlijk, het zal nooit langzamer zijn dan een gelijk geklokte enkele GPU
Daar ben ik niet zo zeker kan, kan me voorbeelden herinneren waar de Dual-core's wel degelijk langzamer presteren dan de single-core. Driver-perikelen, wellicht. Maar dat het gebeurt staat volgens mij vast.

Met single-core's hoef je daar niet bang voor te zijn, tenzei je SLI/CF gaat draaien.
ik weet niet of deze in sli(of crossfire zoals het bij amd heet) kunnen draaien. Dus 2x een x2. Want als dat gewoon kan maakt het niet uit of je nu 2 GPU's in een hebt of gewoon maar 1. Dan telt gewoon welke het snelste is.
Twee keer een X2 kan, dat heet bij AMD CrossFireX. De snelheidswinst is daarbij helaas een stuk minder dan met gewoon CrossFire. In dat opzicht is een single core kaart dus in het voordeel.

Afgezien daarvan lijkt het me ook een interessante afweging hoe de kaarten zich in stroomverbruik, temperatuur en geluid verhouden. Ik ben bang dat de 3850X2 wel een stukje meer stroom nodig zal hebben dan een 9800GTX.
2 cores per processor of 2 processors op een pcb zijn twee verschillende dingen. in dit geval bestaat een multi core GPU niet eens.
3850 X2 is wel een beetje een budgetoplossing hoor, de 3870 X2 is de High-End van ATI op dit moment.
hun high end oplossing voor het 300-350 euro segement.

Met de HD48xx serie gaan ze weer een stapje hoger. En hopelijk flink de concurentie aan met nVidia qua performance. Want dan krijg je weer een prijzen oorlog en dat is goed voor ons de consument :)
Lol, tussen 220 en 250 euro en jij noemt het een budget oplossing :X
@noepzor,

Vind je?

Het is de topkaart van nvidea met hun snelste gpu tegen een dualcore met midrange gpu,s.


Het zou pas knap zijn als ati ook 2 highend gpu,s erop had zitten en de 9800gtx het dan nog volhoud.
B.v vroeger een 7900gtx vs een x1950xtx x2, maar dan zou de 7900gtx dik verloren hebben buiten dat heeft de kaart nooit bestaan.


Dit is gewoon normaal.


Vind het knap van ati 2 gpu,s op 1 pcb met die prijs op de markt kunnen zetten.
Is de HD3850 X2 een goede kandidaat voor bijvoorbeeld "folding@home"? Of kan je dat niet op 2 gpu-cores draaien? 320 x 2 = 640 shader units!

[Reactie gewijzigd door DeArmeStudent op 15 april 2008 15:09]

Jawel de nieuwe versie van folding@home ondersteund meerdere gpu's

Deze nieuwe 'GPU2'-client laat de processor en de videochip samenwerken, en zou daarnaast ook ondersteuning bieden voor meerdere grafische processors. Om voldoende data aan de videokaart aan te kunnen leveren raden de makers van het programma aan om per videochip één processorkern maximaal aan het werk te zetten.
Nog niet, de versie die support moet bieden aan de HD2xxx en HD3xxx zit eraan te komen (okee, dat zeggen ze langer). Ga maar uit van mei tot juni, dan zal hij er zijn. In dat geval heb je een mooie aan dit beestje ja :)

Sterker nog 8)7

Vandaag gereleased:
http://foldingforum.org/viewtopic.php?f=10&t=2020

[Reactie gewijzigd door Jejking op 15 april 2008 15:42]

you're the king! hier zit ik al maanden op te wachten... :P

zo meteen gelijk installeren, helaas werkt het niet met Xfire samen maar wel met 2 kaarten waarop elk een monitor aangesloten zit

[Reactie gewijzigd door les_paulde op 15 april 2008 17:09]

Ik ben wel benieuwd hoe deze kaart het dan opneemt tegen de 9800Gx2
Kost die dan ook tussen de 220 en 250 euro ?
niet al te best aangezien de HD3870 X2 een 10-20% trager is. Echter is hij wel meer dan 30% goedkoper.
dat is AMD ook, goedkoper maar presteerd net iets minder dan Intel.
ATI ook, maarja dat is een fabrikant van AMD
Zouden er eventueel moederborden komen die nVidia en Ati kan combineren? Is dit mogelijk, technisch gezien?

(beetje o.t.) En wat zou je in de praktijk nodig hebben om een spel als bijv. Crysis op zn allerhoogst vloeiend te laten lopen (min 60 fps) op 2560x1600 (of iets lager), 16AF/8AA
Zouden twee van die 3870X2's dat kunnen?
zag net al dat ie maar 13fps haalt ofzo, dus 2 x2 kaarten zullen er nooit 60 worden

[Reactie gewijzigd door poor Leno op 15 april 2008 16:10]

Zouden er eventueel moederborden komen die nVidia en Ati kan combineren? Is dit mogelijk, technisch gezien?
Nope. Hoewel R600 en G80 beiden prima DirectX draaien is de onderliggende architectuur radicaal verschillend. Het is praktisch onmogelijk om die twee kaarten samen te laten werken.
nVidia en ATi combineren gaat niet, en daar zijn goeie redenen voor. Ten eerste zijn beide bedrijven weinig geneigd met elkaar te gaan samenwerken, daar is de concurrentie te hevig voor. Ten tweede is 't ook technisch haast onmogelijk, daar beide fabrikanten meestal een radicaal ander ontwerp nemen voor hun kaarten. Drivers voor de combinatie ontwikkelen is dus een haast onmogelijke opdracht.

Er is atm niets dat Crysis op die settings kan draaien. Twee 9800GX2 kaarten in SLI is 't snelste dat je kan hebben, en dan is 't mss speelbaar op high settings zonder AA (op die resolutie).(
Nee, technisch gezien is het niet mogelijk om een nVidia en een ATI-kaart te combineren, omdat de twee hele andere drivers hebben en hele andere shaders (onder DirectX 9). Bovendien zit het load-balancing gedeelte (wat de taken verdeelt tussen meerdere graka's in de driver).

Theoretisch gezien zou het eventueel mogelijk zijn om om het frame een andere graka te laten renderen, maar dat gaat opvallen omdat een nVidia kaart net iets anders rendert dan een ATI.

Kortom: nee.
Technisch gezien is alles mogelijk, practisch gezien is het niet zinvol.

De 'software' die de beide kaarten dan zou moeten 'verbinden' zou dan de boel vertragen ipv versnellen :)
En dan te bedenken dat 2 losse 3870's sneller zijn dan een X2. In dat licht zou het in de test leuk zijn geweest deze tegen 2 losse 3850's te houden
de 3870X2 is 3% tot 5% sneller dan een 3870 in crossfire hoor dus waar je dat vandaan haalt weet ik niet...
Uhhh 3870x2 is sneller als 3870 in xfire?

Volg je dus niet.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True