Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 17 reacties

Zowel Nvidia als AMD stappen langzaam maar zeker over op multi-gpu-oplossingen. Vr-zone bekeek drie multicore-videokaarten, waaronder de eigenzinnige Asus Trinity 'Radeon HD3850 X3' met drie verwisselbare gpu's.

Ondanks het feit dat het driekoppige monster van Asus vermoedelijk nooit op de markt zal komen, prijst Vr-zone de gebruikte technologie van de Taiwanese fabrikant. Asus heeft zijn EAH3850 Trinity voorzien van drie op mxm-modules bevestigde RV670-gpu's die elk op een kloksnelheid draaien van 668MHz. Daarmee heeft de Trinity een gpu meer dan de eveneens geteste Radeon HD3870 X2, maar deze zijn wel lager geklokt aangezien de videocores van de HD3870 X2 op 825MHz lopen. De Trinity van Asus gebruikt ook als enige van de testkandidaten waterkoeling. De bijbehorende koeleenheid van Thermaltake slokt echter wel de ruimte op van twee 5,25"-drivebays. De derde testkandidaat, de XFX Geforce 9800GX2, moet het net als de kaart van AMD doen met twee gpu's en conventionele luchtkoeling.

Als het trio aan een serie benchmarks wordt onderworpen, blijkt dat de Trinity de 3dmark Vantage-test niet geheel wil doorlopen. Gebrekkige Crossfire-support in de Ati Catalyst 8.4-driver blijkt de oorzaak, maar na installatie van een hotfix kan de test alsnog worden uitgevoerd. Daaruit blijkt dat de kaart van Nvidia de onbetwiste winnaar is en de driekoppige kaart van Asus de tweede plaats weet te pakken. In de 'klassieke' 3dmark06 pakt de Trinity zelfs de koppositie. Het plaatje verandert echter bij de test van het spel Crysis: de videokaart van Asus blijkt het traagst, terwijl de Geforce 9800GX2 bijna twee keer zo snel is. In World of Conflict gaan de HD3870 X2 en de Asus Trinity vrijwel gelijk op. Bij de titel Quake Wars presteert de gpu van Nvidia weer het best, terwijl de videokaarten van Asus en de HD3870 X2 opnieuw aan elkaar gewaagd zijn.

Concluderend stelt Vr-zone dat de Trinity weliswaar niet zo snel is als zijn directe concurrenten, maar dat Asus met zijn zelfontwikkelde 'triple-Crossfire'-concept een fraai stukje werk heeft afgeleverd. Ook zouden de achterblijvende prestaties voor een groot deel verklaard kunnen worden uit de gebrekkige Crossfire-support in de drivers van AMD. Hoewel de site denkt dat de Trinity nooit in de winkelschappen komt te liggen, krijgt de oplossing van Asus van Vr-zone het stempel most innovative opgeplakt.


Asus Trinity Asus Trinity Asus Trinity
Moderatie-faq Wijzig weergave

Reacties (17)

De 3870X2 heeft bottleneck met data doorvoer, die ze grotendeels oplossen met de 4870X2.

De 3870X2 kan zijn honger naar data niet stillen omdat er simpelweg niet meer getransporteerd kan worden door de PCIe1.1 oplossing.

4870X2 zal meer lijken op een dual-core GPU en het totale geheugen kunnen sharen.
Nee, shared memory pool komt er niet bij mijn weten. Dat hoopten mensen, maar het gebeurd (nog) niet.

PCI-E2.0 bridgechip komt er wel, om de PCI-E1.1 bridge chip in de HD3870X2 te vervangen, en dat zou de kaart beter schaalbaar kunnen/moeten maken.

Verder komt er reversed-hyperthreading in de HD4870X2, wat dus het tegenovergestelde doet van Intel's hyperthreading technologie. Namelijk niet 1 fysieke core opsplitsen in 2 virtuele cores, maar 2 fysieke cores samenvoegen tot 1 virtuele core. Ook wel zo makkelijk, dat je gewoon met '1' videokaart zit.

Overigens snap ik niet waarom mensen Crysis zo blijven testen. Ja, het is zwaar. Maar dat komt eerder doordat de engine ruk is dan doordat het er zo geweldig uitziet, developers van Crytek hebben zelf gezegd dat ze SLI gaan ondersteunen maar dat er voorlopig geen crossfire support komt. En toch worden de multi-GPU tests onder Crysis uitgevoerd, daar kan ik niet bij |:(
naast het feit dat Crysis nog steeds behoorlijk geoptimaliseert is voor nvidia kaarten. AMD heeft bij dit spel gewoon geen optimized drivers omdat crysis met nvidia in zee is gegaan.

Verder wel een leuk idee, maar waarschijnlijk ook wel energiehongerig.
Volgens mij zijn multi-gpu oplossingen nog niet dé oplossing voor meer prestaties op het moment. Je stroomverbruik en warmteproductie verdubbelt maar de prestaties doen dit logischerwijze niet. Ook blijken veel spellen zelfs zeer weinig profijt te halen uit Crossfire of SLI opstellingen.

Natuurlijk is het een beetje zoals met elke techniek: de techniek moet eerst voldoende ontwikkeld zijn voor men er rekening mee begint te houden in de softwareontwikkeling.

Maar ik weet dat ik momenteel nog altijd veel liever een single GPU kaart of opstelling zou willen hebben.
Het programmeren van spellen verloopt totaal anders dan het programmeren van windows programma's om multicore te gebruiken.

Bij multicore is het zo dat elke thread in een programma naar een aparte core kan worden gestuurd. Dus hoe meer threads je in een programma hebt hoe meer cores er tegelijk kunnen werken. Natuurlijk zijn er ook threads die niets doen en alleen wachten op input of iets dergelijks en een andere thread is dan extreem druk bezig. Zo werkt het met cpu's.

Bij spellen werkt het echter totaal anders. In 1995 (kan ook een omliggend jaartal zijn) kwam microsoft erachter dat het programmeren van spellen steeds complexer werd omdat er rekening gehouden diende te worden met vele verschillende videokaarten. Elke videokaart had weer zijn eigen aansturing en het programmeren van spellen die compatible waren met alle videokaarten was vrijwel een onbegonnen klus geworden. Toen kwam microsoft dus met "DE" oplossing en dat was DirectX. DirectX zorgt ervoor dat spellenprogrammeurs geen rekening meer hoeven te houden met welke videokaart er in een pc zit, DirectX vertaalt de programmacode naar code die de videokaart snapt om er een beeld van te maken. Er waren echter wel voorwaarden aan. De drivers/videokaarten die fabrikanten ontwikkelde moesten compatible zijn met directx, indien dit niet het geval was dan kon alleen softwarematig een 3D beeld worden getoond.

Nu is het tot de dag van vandaag dat microsoft nog steeds bepaald (in overleg natuurlijk met videokaartfabrikanten) hoe de hardware wordt aangestuurd dmv directx. De drivers en directx zorgen er dus voor dat multigpu netjes wordt afgehandeld en een spelletjesprogrammeur houd zich dus voornamelijk bezig met maar 1 ding: het zo mooi en leuk mogelijk maken van een spel door gebruik te maken van de mogelijkheden van directx.

ps OpenGL is de opensource tegenhanger van directx.

Misschien is het nu duidelijk dat een programmeur weinig kan doen aan het versnellen van een spel dmv multigpu, wel kan hij enige effecten misschien uitzetten (lagere kwaliteit) om het sneller te laten lopen.
Glide kon het anders wel goed :Y)
Dat komt omdat je het niet nodig hebt of het niet nodig acht om de hoogste instellingen te draaien. MultiGPU is meer dan welkom op hoge resoluties en wanneer je de AA eens goed wil opendraaien (en zelfs dan schiet je nog tekort bij de zwaarste games).
Natuurlijk is het een beetje zoals met elke techniek: de techniek moet eerst voldoende ontwikkeld zijn voor men er rekening mee begint te houden in de softwareontwikkeling.
Hiermee suggereer je dat je als software ontwikkelaar net zoals bij multi cores (CPU) grafisch parallel zou kunnen programeren met deze archtectuur, volgens mij is dat niet zo tenzij het mogelijk is een van de kaarten (Cores) niet in SLI te zetten en voor andere doeleinden te gebruiken.

Of het mogelijk is je game engine zo te ontwerpen dat het beter schaalt zou kunnen maar dan wordt het nog lang niet plus 100% voor elke kaart.

edit:

typo's

[Reactie gewijzigd door EnderQ op 22 mei 2008 12:08]

Qua software zijn er eigenlijk weinig eisen... De GPU opzichzelf is al massief parrallel, dus om meerdere GPU's parrallel te zetten is eigenlijk heel erg simpel.

De kwestie is meer dat je via multi-GPU meer shaders hebt, maar bijvoorbeeld niet de geheugen bandbreedte vergroot. Is het spel shader begrens, dan zal multi-GPU prima werken, maar is het spel door iets anders begrensd, dan schaalt het slecht.
Ik ben om eerlijk te zijn wel geïnteresseerd naar de kosten van dit ding.
Al weet ik dat erbij staat dat VR-zone denkt dat ding de schappen niet haalt. Hoop ik persoonlijk van wel.

Als dit ding onder de prijs van de 3870 X2 komt te liggen zou dit het mij wel waard zijn.
Een leuk alternatief.

Op dit moment is de 3870 al een leuk niet al te duur high end nVidia alternatief. Straks hebben we er hiermee nog één in huis.

Wel is het zo dat ik me eigenlijk afvraag of een tweetal van deze kaarten ook weder in crossfire gezet kan worden. (Of heb ik niet goed gelezen? :/ )
Maar dan alsnog, zou het nut hebben 6 x 3850's?

[Reactie gewijzigd door tankeriv op 22 mei 2008 11:50]

Als dit ding onder de prijs van de 3870 X2 komt te liggen zou dit het mij wel waard zijn.
Een leuk alternatief.
urrrr... Wat denk je zelf?
- 3 GPUs en meer geheugen
- Modulair ontwerp
- bijgeleverde waterkoeling
- Mobiele GPUs in plaats van desktop

Alles bij elkaar verwacht ik dat het ding minstens een factor twee duurder zal zijn dan de X2. Goedkoper gaat je zowieso nooit lukken...
wieweet met de 4 serie
Ik ga er niet van uit dat de 4000 serie, die meer transistors op mogelijk hogere clocksnelheid heeft op het zelfde procedee, zuiniger of minder heet gaat worden dan de 3000 serie, tenminste niet onder load. Als er nu al zoveel moeite nodig is om de hitte weg te krijgen denk ik niet dat dit 4000 serie nog haalbaar zal zijn.
Kan je deze kaart ook gebruiken op een goedkoper moederbord die geen Crossfie support heeft?
je moet even kijken naar het PCI-E type wat op je moederbord zit en wat de kaart eist... :)
als die 2 op elkaar passen, zou het gewoon moeten kunnen.
lijkt me wel een 3870X2 kan je iig ook in non-cf mobo stoppen

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True