Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 70 reacties

Videokaartfabrikant Zotac heeft een videokaart in ontwikkeling met daarop twee GF104-gpu's, zoals die ook voor de GTX 460 worden gebruikt. Afhankelijk van de kloksnelheden kan de videokaart een serieuze uitdager voor de HD 5970 zijn.

Tot op heden heeft Nvidia nog geen dual-gpu-videokaart met twee Fermi-gpu's uitgebracht. Fabrikanten proberen dan ook zo nu en dan zelf een dergelijke videokaart te ontwerpen, zoals Galaxy in juni en Asus in juli al deden. Ditmaal is het de beurt aan Zotac, die niet twee GF100-chips, maar twee GF104-chips inzet om een dual-gpu-videokaart te vormen. Het gaat om dezelfde gpu's als voor de GTX 460 worden gebruikt, met 336 Cuda-cores en een 256bit-geheugenbus. De kloksnelheden van de gpu en het geheugen staan nog niet vast.

De twee gpu's werden op een pcb geplaatst dat niet langer, maar breder is dan gebruikelijk. De energievoorziening bestaat per gpu uit vier vrm's, die hun prik krijgen van twee pci-e-connectors met elk acht pinnen. Daarmee kan het verbruik in theorie tot 375W stijgen, maar een verbruik van rond de 300W is realistischer. De twee gpu's worden door een NF200-chip met elkaar verbonden, zoals gebruikelijk met dual-gpu videokaarten van Nvidia. De foto's tonen geen koeling, omdat nog niet vaststaat welke koeler zal worden gebruikt.

Aangezien er twee gpu's aanwezig zijn, kan er van Nvidia's surround-techniek gebruik worden gemaakt om met drie schermen een enkele desktop te vormen of zelfs drie 3d-schermen aan te sturen.

Zotac GTX 460 X2 Zotac GTX 460 X2 Zotac GTX 460 X2 Zotac GTX 460 X2 Zotac GTX 460 X2
Moderatie-faq Wijzig weergave

Reacties (70)

Er hoeft zich niemand zorgen te maken dat de 8x/8x opstelling waarmee deze kaart werkt voor een bottleneck zorgt: Er zijn momenteel geen videokaarten die de volledige PCI-E 16x bus met data weten te vullen. Dit baseer ik op een review van Toms Hardware (zie hier de link).

Er wordt hier gebruik gemaakt van een Radeon 5870 (vergelijkbaar presterend met nog sneller dan een een GTX 460 1GB) en een NF200 chip op het meest limiteerde gameplatform dat nu bestaat: Intel P55. Als er hier geen bottlenecks worden gevonden dan zijn ze er (momenteel) niet.

Dus het enige waar mensen zich nu nog zorgen om kunnen maken is: Wordt de temperatuur niet te hoog en past hij in mijn behuizing? Want zoals je ziet, steekt deze kaart een stuk uit. Voor de meeste goede behuizingen zal dat tegenwoordig geen probleem meer zijn.

Verder hoop ik dat de kosten in lijn zullen liggen met 2 GTX 460's (350-400 euro) omdat er productiekosten worden bespaard door alles op 1 PCB te zetten, maar er komen natuurlijk wel kosten bij door de NF200 chip. Geen idee wat die dingen kosten.

Edit: ik kan me herinneren dat er een review bestaat die de verschillen tussen 16x/16x, 16x/8x, 8x/8x en zelfs 4x/4x uitlegt, van enkele maanden geleden. Maar ik kan de link zo snel niet vinden. Kom ik de link tegen, zet ik hem hier even bij.

Edit 2: Bingo. Hier is ie.

[Reactie gewijzigd door TheGreatAtuin op 27 oktober 2010 10:20]

Er wordt hier gebruik gemaakt van een Radeon 5870 (vergelijkbaar presterend met een GTX 460 1GB) en een NF200 chip op het meest limiteerde gameplatform dat nu bestaat: Intel P55. Als er hier geen bottlenecks worden gevonden dan zijn ze er (momenteel) niet.
GTX 460 & een HD5870 gelijk, wait wut? :/
http://tpucdn.com/reviews...0_1_GB/images/perfrel.gif
De HD5870 heeft daar toch echt 130% van de GTX 460's performance ;).
Excuses, ik was daar even te snel mee. Ik keek gauw even naar een enkele benchmark, totale performance geeft een veel beter plaatje. Maar het bevestigt wel wat ik zeg: als de bottleneck niet optreedt bij een 5870, dan al helemaal niet bij een 460.

[Reactie gewijzigd door TheGreatAtuin op 26 oktober 2010 19:05]

Inderdaad de HD5870 is toch echt een flinke stap hoger nog! Als je reviews leest waarin de GTX460 in SLI worden gebenchmarkt zie je ook dat ze nog een eind weg zitten van de HD5970. Maar dan wel met een VEEL aantrekkelijker prijskaartje. Dus als deze kaart zo rond de 300 euro zit is dit echt een fantastische kaart!
Als je nou 2 van deze kaarten hebt, en met elkaar verbind middels SLI, heb je dan eigenlijk een SLI systeem met 4 videokaarten, of is dit te simpel gedacht?
Dat kan je volgens mij niet gebruiken om te gamen (of heeft nVidia dat inmiddels aangepast)

Dacht iig dat 3 Way SLI het hoogste was
Tuurlijk kan dat, google maar even "Quad SLI review" :). Kon in 2008 al.
Daar dacht ik dus ook aan, echter denk ik niet dat dit gaat werken (iig nog niet, aangezien drivers dit niet zullen ondersteunen).

Dit is puur gebaseerd op mijn eigen logica (welke weliswaar minimum is). ;-)
Waarom?

Ik snap het echt helemaal niet meer er zijn bijna geen games die een SLI opstelling nodig hebben en het is nog altijd goedkoper om gewoon een top kaart te kopen en dan over een half jaar of zo de opvolger van die kaar te kopen dan een kaart met meerdere GPU's aan te schaffen.
De graphics zullen er op zijn best marginaal beter uit zien in ruil voor niet alleen een hele wagen vracht aan geld bij de aanschaf maar ook een enorme hoeveelheid geld gedurende het gebruik 300W is nog al niet wat daar kun je makkelijk popcorn mee maken, je kleren strijken met twee bouten te gelijk of een hele zware soldeerbout van voeding voorzien.
Waarom zou je dat nu toch nodig hebben voor een verbetering van graphics die nauwelijks zichtbaar is.

Het is leuk dat het kan maar op een gegeven moment is de verbetering gewoon niet meer te verantwoorden ten opzichte van de kosten.

Wat ik graag zou zien is dat Nvidia een zelfde aanpak als AMD gaat volgen door de kaarten niet alleen sneller maar ook zuiniger te maken. Dan lever je de eindgebruiker veel meer voordeel en als hij/zij dat echt wil kan er altijd nog gebruik gemaakt worden van een SLI opstelling dan wel crossfire om de extra mooie graphics op het scherm te toveren. Maar dan is het in ieder geval in gebruik een beetje te betalen.
Ik heb destijds (zoals wel vaker vermeld) de gtx295 gekocht. En deze komt nog steeds super mee met de huidige kaarten. Dus ik vind dat jouw stuk niet echt opgaat.
Hier een GTX260SE (Special Edition). En draai alles op Ultra/High/Max. Dus tja.....
performance per watt wordt wel degelijk verbeterd bij Nvidia (en AMD) echter benutten ze die winst direct om meer power te generen uit hetzelfde vermogen. Volgende generatie kaarten van Nvidia zou bijvoorbeeld 2,7x meer performance per watt moeten leveren. Dat wil waarschijnlijk niet zeggen dat de kaarten zuiniger worden maar dat ze gewoon voor meer performance gaan.
Toch apart dat de suplliers zelf moeten gaan ontwerpen om zulke kaarten te maken lijkt me dat nvidia hier wel bij gebaat is om beetje tegengas te geven aan AMD.
Dat geeft juist de vendors de mogelijkheid om zich te onderscheiden van de rest.
Waarom? Ze zijn vrij om te doen wat ze willen, ze maken producten gebaseerd op nvidia/ati producten...
Hey das precies dezelfde cooler als de mijne, alleen dan met andere stikkers.

Deze maakt niet heel veel lawaai, echter als die aan de slag gaat, dan hoor je hem wel!
denk dat het moeilijk voorspellen wordt aangezien de pcb van deze kaart een stuk breder is als een normale kaart. denk dat dus hetzelfde gaat gelden voor de koeler *open deuren in trappend*
Als op dat stukje "breedte" alleen mosfets oid zitten, hoeven daar alleen ribben bij (het plaatje was ter illustratie(*ik zie nu flauwe woordgrap* :+ )). Als je voor die mosfets ook een stukje koper maakt ben je klaar.

[Reactie gewijzigd door Steyn_E op 26 oktober 2010 21:23]

zou je dan deze kaart niet beter kunnen vergelijken met een 5870x2

of te wel de ASUS Ares ATI Radeon 5870 X2 Limited Edition Graphics Card?

deze heeft ook 2 echte 5870 cores. inplaats dat de 5970 2 chipjes heeft die tussen de 5850 en 5870 ligt?
Nee, want de 460 core is niet (eerlijk) te vergelijken met de 5870 core.
Mja, afhankelijk van de snelheid waarop het draait zal het vergelijkbaar worden met een 6850 SLI setup. Zeker als je ook de prijs mee gaat nemen.

Ik vraag me overigens af wat ze hiervoor willen vangen. Zeker gezien ATI's nieuwe aanbod en dat er weinig lui zijn die dual kaart overwegen zonder SLI / CF bord.

Natuurlijk leuk voor op de P55 borden met gelimiteerde PCI-E lanes, maar dat was voor de normale GTX460s niet echt een bottleneck als ik het me goed kon herinneren.
Dubbele AMD/ATI videokaarten (waaronder de 6850 valt) word crossfire genoemd.
(ze zeggen dat het beter werkt dan een Nvidia SLI opstelling van gelijke kaarten)
nice! dan kan ik dus zonder mijn PSU te upgraden mijn 260gtx wel vervangen door deze kaart? of niet?
Ligt aan de PSU, maar volgens mij gaat het verbruik wel omhoog
Daarmee kan het verbruik in theorie tot 375W stijgen, maar een verbruik van rond de 300W is realistischer
Ben benieuwd naar de prijs. Als ze die onder die van 2 GTX460s weten te houden, het verbruik enigzins binnen de perken houden en de kloksnelheden daar niet onder laten lijden en zorgen dat met een betaalbare koeler de boel niet te warm of lawaaiig word... Hmmm. Als ik het zo teruglees, "this plan smells alot of ifs and maybes..."

Bottom line heb ik hier weinig vertrouwen in. Met de zuinige Ati 6k serie op de markt een chip lanceren die 2x 8pins voeding nodig heeft klinkt marketingtechnisch niet briljant. Een heleboel hangt van die prijs af.
De prijs gaat niet onder 2 losse GTX460's komen. Ja, er wordt bespaart op de tweede behuizing, koeling etc, maar er zit een stukje eigen design in, wat ook centjes kost. De rest wordt afwachten ^^
In theorie is dat best leuk spul, maar het vervelende is wel dat het SLI blijft intern. Ondersteunt je favo game dat net weer niet fantastisch heb je een erg dure kaart met de performance van een normale GTX460. Bovendien kan je je afvragen of de standaarddrivers van Nvidia hiermee goed overweg kunnen of dat je overgeleverd bent aan custom drivers van de fabrikant, die altijd sterk achterlopen op de officiele drivers van Nvidia.

Ik ben in elk geval niet overtuigd. Al ziet het er wel cool uit :)
De NF200 chip is dacht ik van nvidia. In ieder geval wordt hij goed ondersteund door drivers, anders had Tomshardware er niet niet zulke nette resultaten mee gehaald:
http://www.tomshardware.c...crossfire-nf200,2537.html
Gaat dit werken op een AMD-platform, dus een northbridge die slechts crossfire ondersteund? Of krijg je dan maar 1 van de 2 GPU's?
Werkt probleemloos :) Het SLI wordt op de kaart zelf geregeld. Je moederbord ziet tenslotte maar gewoon 1 kaart in 1 slot.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True