Gigabytes 3D1 met dual GeForce 6600GT-GPU getest

De jongens van OC Workbench wisten een Dual nVidia 6600GT, waarover we onlangs nog schreven, te bemachtigen voor enkele benchmarks. De Gigabyte-kaart draagt de naam 3D1 en beschikt over 256MB GDDR3-geheugen en een 256bit-geheugenbus met twee gpu's op één kaart. Deze SLI-opstelling zonder twee kaarten te moeten installeren biedt als belangrijkste voordeel de verminderde latency die zou moeten optreden. De cores zijn beiden geklokt op 500MHz en het geheugen doet zijn werk op 560MHz. Met deze specificaties biedt de kaart dan ook veelbelovende perspectieven voor optimale prestaties. Nadat de kaart uitgebreid bestudeerd en ontleed werd, was het tijd om ze te installeren en enkele benchmarks voor te schotelen.

Het testsysteem bestond daarbij uit een AMD Athlon FX-53 op 2,4GHz op een Gigabyte K8NXP-SLI uitgerust met 1GB geheugen. De eerste benchmark die aan bod komt is 3DMark2001SE, maar daarmee blijkt de kaart slechts 2200 punten prestatiewinst op te leveren in vergelijking met een GV-NX66T128D-3. In 3DMark03 zien we de score echter bijna verdubbelen tot 14.478 punten met driverversie 71.24. De drivers met volgnummer 66.93 scoren, net zoals in de vorige test, iets minder. Ook in 3DMark2005 herhaalt dit fenomeen zich, maar met Comanche 4 is de dual-core kaart zelfs iets trager dan de NX66T128D. In Doom 3 zijn de resultaten enigszins verdeeld, afhankelijk van de instellingen, maar met 8xAA en 16xAF scoort de dual-core videokaart 41,5fps, in verhouding tot 103fps zonder AA of AF. De NX66T128D-3 haalt hier 79,1fps.

Gigabyte GV-3D1

Na nog een laatste test met Aquamark 3, waarin de 3D1 het ook iets beter doet, gaat de reviewer over tot zijn conclusie. Volgens de reviewer scoort deze kaart steeds een paar procent beter dan twee losse 6600GT-kaarten in SLI-mode. Als sterkste punten haalt hij dan ook de uitstekende prestaties, stabiele werking en de warmteontwikkeling die binnen de perken blijft aan. Jammergenoeg is de 3D1 geen uitstekende overklokker, aldus de reviewer, maar desondanks toch een uitstekende keuze, vooral als Gigabyte zijn claim waar maakt en deze kaart goedkoper zal zijn dan twee aparte SLI-videokaarten.

Door Yoeri Lauwers

Eindredacteur

28-12-2004 • 11:06

43

Bron: OC Workbench

Reacties (43)

43
42
28
10
8
4
Wijzig sortering
Ben benieuwd of ATI ook met dualprocessor videokaarten gaat komen.....
Dual x850xt pe ofzo.
Gezien er steeds meer spellen komen die de vonken uit je videokaart laten spatten, lijkt het me niet onverdienstelijk om een extra gPU'tje te hebben.
Ben benieuwd of ATI ook met dualprocessor videokaarten gaat komen..... Dual x850xt pe ofzo.
Die hebben ze al gehad. De Rage Fury Maxx.
Er zijn ook professionele oplossingen met multiple ATi GPU's, zoals de E&S simFUSION 6000. En verder: ATi overweegt introductie eigen multi-GPU technologie ;)
Kan merken dat ik een tijd niet op tweakers heb kunnen kijken. |:(
Ben benieuwd iig wat de toekomst gaat brengen :P
Het duurt zowiezo nog tot Q2 2005 totdat ATI zoiets uberhaupt op de markt gaat brengen... dus nog wel ff wachten dus...

Daarnaast is zoiets (2 TOP videokaarten in SLI) alleen voor mensen die teveel geld hebben... Voor 800 euro (1760 gulden...) videokaarten in je pc.... |:(
Deze SLI-opstelling zonder twee kaarten te moeten installeren biedt als belangrijkste voordeel de verminderde latency die zou moeten optreden
Dit lijkt me een mistake. Een heel belangrijk voordeel is dat je niet 2 PCI-express sloten nodig hebt. Dus mensen met "oude" moederborden kunnen hem ook kopen.
Verder lijkt het me logisch dat 1 PCB goedkoper is dan 2 en eventueel zelfs naar verhouding minder stroom gebruikt. Of zie ik iets over het hoofd

edit:
@--MeAngry--
Het lijkt me dat deze kaart voor de chipset 1 virtuele videokaart is? Dus dan zou er alleen een speciale driver nodig zijn om wel lekker met 2 gpu's te kunnen werken. Maar goed, dat is een ongeinformeerde guess. :>
Volgens mij is het ontworpen voor intel borden met 1 pci express slot.
De Gigabyte-kaart draagt de naam 3D1 en beschikt over 256MB GDDR3-geheugen en een 256bit-geheugenbus met twee gpu's op één kaart.
256 bit per GPU of gezamelijk?
Ik herinner met nog goed de 3DFX-tijden, toen werd 3DFX helemaal geflamed over de SLI technologie en nu is het toch de technologie waar iedereen een beetje op zit te wachten. De SLI technologie bestaat echt veel langer dan meeste denken, al vanaf rond 1998 al!.
SLI is dus NIET de techniek waar we op zitten te wachten!

waar we op zitten te wachten en een nieuwe generatie GPU's die dit alweer doen verbleken...

(die zou je dan weer in SLI kunnen zetten maar dat doen de profs al veeeel langer en zit de consument ook niet op te wachten imo)
Er is wel een verschil tussen de SLI van 3dfx en die van nvidia, ik geloof dat bij 3dfx iedere kaart 1 lijn renderde, terwijl bij nvidia iedere kaart de helft (of meer of minder, wordt dynamisch geregeld) rendert.

Voordeel hiervan is dat je WEL fatsoenlijk AA kan toepassen en dat kan met de ouwe SLI niet.

En de afkorting staat ook ergens anders voor:Scalable Link Interface bij nvidia en Scan Line Interleave bij 3dfx.
Ik ben juist benieuwd hoe dit ding presteert in verhouding tot een 6800 GT. En wat het prijsverschil is. Deze is misschien wel sneller, maar als ie ook 100 euro meer kost maakt het nog geen zak uit. Als het dan puur om de snelheid gaat en niet om de prijs aantrekkelijker te maken, kunnen ze net zo goed twee 6800 GT's op één plank solderen.
nou die dual 6600 haalt een stock x800 xt pe met 1000 3dmarks in.. dus jah zal wel sneller zijn dan een 6800 GT, of te wel lees de review en check de benches :z
Heb ik gedaan, maar zie jij hier ergens meer kaarten staan?
Hij zou incl. mobo (ook gigabyte uiteraard) goedkoper zijn dan een high-end kaart.
Je kunt in de review lezen dat het moederbord (een SLI-bord dus!) in Normal mode werkt, en niet in SLI-mode! Dit zou eigenlijk moeten betekenen dat de kaart ook op gewone borden zou moeten werken, maar dat is helaas dus ook niet het geval omdat NVIDIA (of Gigabyte) een soort van lock op de kaarten heeft gezet om alleen maar in SLI borden te werken. Anders zou de verkoop van SLI-borden nog wel eens achteruit kunnen gaan door dit soort kaarten.
Volgens mij stond in de vorige melding van deze kaart dat Gigabyte hem gelocked had om alleen op Gigabyte moederboorden te werken...
En nu maar wachten op de modder die er twee van deze in een quadsetup weet te krijgen :)
Waarschijnlijk niet, maar er zijn momenteel ook andere initiatieven bezig om meerdere kaarten te laten samenwerken (via/videoarray/ati) misschien dat die wel hiermee te combineren zijn.
Deze in SLI , zoals hierboven al werd genoemd, gaat met de kaart op de pic iig niet lukken. Deze mist de aansluiting voor het befaamde nVidia SLI-bruggetje ;(
Deze mist de aansluiting voor het befaamde nVidia SLI-bruggetje
die brug is niet perse nodig voor SLI, maar het wordt er wel sneller van (scheelt 20% ofzo)
Zo te zien doet Gigabyte beter dan Volari!

Wie komt als eerste met Dual Core GPU in SLI mode (2x dual core GPU )
Wie gaat er nou een leverancier en een fabrikant met elkaar vergelijken... :?
Ik vraag mij af hoe deze SLI ontwikkeling (met 2 videokaarten) nuttig is voor de grafische sector.

Welk workstation zal nou sneller zijn in grafische toepassingen zoals photoshop, 3dmax etc?.... Een systeem met dual cpu of met een dual videokaart?
Mss eentje met Dual CPU en SLI videokaart opstelling :P
Anoniem: 35948 @Kijoki28 december 2004 19:37
die combinatie bestaat (nog) niet
Alienware had toch een dual VGA + dual CPU systeem?
Nee, geen enkel systeem van de productlijn van Alienware (game, workstation, desktop, etc) bied die combinatie van dual cpu+vid (wel single cpu en dual vid of dual cpu en single vid).

Dus mijn vraag blijft nog steeds staan welke van de 2 duals (cpu of sli) beter is in grafische toepassingen zoals photoshop, 3dmax, etc
Dus mijn vraag blijft nog steeds staan welke van de 2 duals (cpu of sli) beter is in grafische toepassingen zoals photoshop, 3dmax, etc
Om te renderen lijkt dual cpu me beter, om te gamen dual vga.. maar ik heb helaas niet het geld om dat ff te tesen :(.

Op dit item kan niet meer gereageerd worden.