Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 72 reacties

Evga toont op zijn hotelkamer tijdens de CES een nog onbekende videokaart met twee gpu's. Het gaat om gpu's van Nvidia, aangezien Evga enkel Nvidia-videokaarten verkoopt. Vermoedelijk wordt dit de concurrent van de HD 6990.

Evga wilde, behalve dat het om een dual-gpu-videokaart gaat, geen verdere details onthullen. Er kan dan ook alleen worden gespeculeerd over de aanwezige gpu's. Zo zijn er op de achterkant van het pcb wel acht gigabit-gddr5-chips te zien, goed voor een totaal van 1GB. Waarschijnlijk zitten er op de voorkant nog eens acht geheugenchips, waardoor elke gpu over 1GB geheugen kan beschikken. Een mogelijkheid is dan ook de GF104-chip, zoals die voor de GTX 460 1GB wordt gebruikt, maar het zou ook zomaar kunnen dat enkele geheugencontrollers van de GF110-chip werden uitgeschakeld, terwijl het aantal Cuda-cores intact bleef.

EVGA Dual-gpu videokaart EVGA Dual-gpu videokaart

De foto's tonen verder twee achtpins-pci-e-connectors, waardoor de kaart in ieder geval 375W zou kunnen verbruiken. Daarmee is in theorie een duo van GF110-chips mogelijk, als we uitgaan van de chips zoals die voor de GTX 570 worden gebruikt. Om twee dergelijke gpu's te kunnen koelen, is de videokaart voorzien van een heatsink die het hele pcb afdekt, terwijl drie fans voor de broodnodige airflow zorgen. Gezien de aanwezigheid van twee gpu's, zitten er drie dvi-poorten op de videokaart, waarmee een surround-set-up van drie monitors mogelijk is, Nvidia's tegenhanger van AMD's Eyefinity-techniek.

EVGA dualgpu-videokaart

Moderatie-faq Wijzig weergave

Reacties (72)

Erg jammer dat er verder geen specs bij vermeld zijn.
Ik ben benieuwd hoe dit monster zichzelf zal neerzetten qua prestatie en verbruik tegenover AMD's tegenhanger (ook naar die kaart ben ik benieuwd :Y) ).
Hier zitten waarschijnlijk geen GF110 cores op. Als je naar het PCB kijkt aan de achterkant lijken het eerder GF1x4 cores. Dus GTX460 achtig misschien de opvolger er van. Ik verwacht geen wonderen van deze kaart. Net wat sneller dan een GTX580 denk ik.
No offence maar hoe zie je dat dan, het is zeer waarschijnlijk een door EVGA zelfgemaakte kaart, dus kunnen er wel veranderingen zijn gemaakt.
Er zijn wel enige overeenkomsten met de 460 zoals het ontbreken van de zwarte chips(geen idee wat het zijn) die op de 570 en 580 zitten. Toch kan het ook zijn dat die kaart dermate is aangepast dat het design anders is.
De onderdelen op de plaats waar de GPU zit. Het zijn er erg weinig. Vergelijkbaar met een kleinere GPU. Bij de GF110 zitten er veel meer componenten.
2x een gtx460 gaat al flink over een enkele gtx480 heen. Ik verwacht dat deze gewoon een stukje sneller zal zijn dan de 5970. Dat mag echt geen grote opgave meer zijn.
Ja dat zal wel maar AMD komt met een dual Cayman thats the real thing. En niet een modelletje lager.
Ik denk niet dat evga een dual-gtx460 op de markt zet, dat is meer iets voor galaxy bijvoorbeeld, evga kennende zal dit meer richting dual-gtx570/580 (gtx'575') gaan.
1gb per gpu zou dan wel weer erg weinig zijn vind ik, dan is het al een heel lastig te verantwoorden keuze tegenover de hd6990 van amd die effectief 2gb krijgt (2gb per gpu).
GTX 460 achterkant, kijk vooral naar waar de GPU zit:
http://media.bestofmicro..../EVGA%20GTX460%20back.jpg
GTX 570:
http://www.hardwareheaven...70/inno3d-gtx570_rear.jpg
Trek zelf je conclusies, maar de foto van de EVGA lijkt imo helemaal niet op de achterkant van de 570. Misschien twee GTX 560's?
Ik mag hopen in ieder geval beter dan de 5970, aangezien die inmiddels al een hele tijd performance king is. Maar ik denk dat je dit soort kaarten moet vergelijken met kaarten als de Asus ARES en MARS omdat het geen fabrieks-af dual gpu is.
Waarom zou dit niet een door Nvidia ontworpen dual GPU kaart kunnen zijn? Het zou kunnen dat alles dat EVGA toont hun implementatie met een iets andere koeler is...

Hoe dan ook 375W voor een GPU, dat is belachelijk veel. Ik begrijp Nvidia echt niet. Performance is leuk en zo maar het moet wel betaalbaar blijven. Ik kan me niet voorstellen dat er veel mensen zijn die 1 of zelfs meer van deze kaarten (SLI) kunnen draaien zonder zich af en toe achter de oren te krabben en af te vragen of dat nu wel echt nodig is.
Ik denk dat degenen die zich deze kaart kunnen veroorloven het worst zal wezen wat ie verbruikt.
Mij boeit het ook niet en zal het ook nooit doen ook, als een kaart me bevalt koop ik hem gewoon, ongeacht verbruik, zolang ie maar redelijk stil is.
En ja je hebt nou eenmaal fanboys die graag zoveel mogelijk gpu power willen hebben voor word en internet, alleen omdat ze het leuk vinden.
Mooie kaart, zal wel een stevig prijskaartje aanhangen, zoals gebruikelijk bij Evga, maar ja dan krijg je wel kwaliteit (mag ik hopen :P).
Kan goed een samenspel wezen van Nvidia en Evga, is niet de eerste keer.
Er zijn ook mensen die naast hun portemonnťe ook naar de (niet zo verre) toekomst kijken (van de aarde)
Foei beetje de aarde om zeep helpen door te gaan forumposten. Zet die pc van jou eens heel gauw uit dan en zonnepanelen aanleggen op je dak.
Tsss jij woont zeker nog thuis hť ..
Waar je pappie de stroomrekening betaald zonder zich achter de oren te krabben waarom ie zo hoog is ...
Wat een gezeur over het verbruik, tuurlijk minder is beter (ook voor de warmte). Maar er zijn ook zat mensen die ipv een uurtje gamen een half uurtje onder de zonnebank gaan, of de was een paar graadjes hoger doen.

Tis maar net waar je prioriteiten liggen...

en 90% van de tijd zal dit beestje gewoon idle draaien op hopelijk ook 90% van het verbruik...
Tsja, jouw pc draait natuurlijk 24/7 met 100% GPU-load. :+

*Edit:
Niet opgelet op de mooie post boven mij.

[Reactie gewijzigd door Gravit0n op 10 januari 2011 16:46]

meteen zeuren over verbruik en warmte? Je weet nog niets over de kaart en daarnaast zal een 6990 ook niet echt zuinig zijn denk ik? Laten we vooral even wachten op specs en benches voordat een kaart bij voorbaat al gebashed wordt...
Nouja, het is duidelijk dat ze dit ding niet onder de 300watt grens kunnen houden, dus ze hebben de 300watt limiet laten varen en dat is gewoon jammer. Die 'norm' is niet voor niks in het leven geroepen om het verbruik in proporties te houden en die norm laten ze alleen varen bij exclusieve oplages als de MARS/ARES kaarten. Als dit een dergelijke kaart van EVGA is, heb ik er niet zo'n moeite mee, maar als het een reguliere kaart van Nvidia zelf is die ook boven de 300watt uitkomt, is het hek een beetje van de dam en dat zou jammer zijn.

[Reactie gewijzigd door MW1F op 7 januari 2011 15:42]

Rare beredenering imo. Je hebt het hier in feite over 2 videokaarten op 1 pcb gepropt. Er zijn tal van andere sli/cf oplossingen die gezamelijk ruim over de 300w heen gaan, vaak nog veel meer. Een CF setup van 2x een Radeon5870 heeft bijvoorbeeld al tdp van 364 watt.
Ik vind het ook een beetje krom.. Je moet het wel zien zoals het in feite is (zoals boven genoemd) en daar dan de vergelijking in zien.
dit lijkt zelfs uiterlijk op mijn radiator om in de winter de living warm te houden :+
Net zoals velen zich moeilijk kunnen voorstellen dat er mensen zijn die sportwagens kopen, die tientallen liters per 100 km verbruiken, maar het gebeurt toch...

Verder is het wel zo dat er momenteel amper games zijn die dergelijke kaarten op de knieŽn krijgen: reviews: 2010: Nvidia en AMD nek aan nek

[Reactie gewijzigd door Cyberblizzard op 7 januari 2011 14:27]

Vroeger was 400 Watt voor je videokaart juist weinig. Dus nu even wat klagen over 375W? Wat is gebeurt met het verleden. Ze moesten veel aanpassen om zover te komen. En we hebben het over nVidia. Om eigenlijk 375watt maar te halen met hun chipset en processors is eigenlijk al een achievement, want wij zijn gewend aan nVidia's super stroom verbruik.
Sorry? 400w voor een kaart weinig? Weet niet van welke planeet jij komt, maar welke kaart dan? Ik snap dat je de argumenten van Nvidia's verbruik en temperatuur onderuit wil halen (ik ook), maar doe dat dan met de juiste argumentatie? Dit gaat werkelijk nergens over!
Stroomverbruik sou dus 150W+150W+75W=375W kunnen zijn, of zie ik dat fout?
Klopt, maar dat staat ook in het artikel.

Ik hoop dat ze het voor mekaar krijgen om standaard onder de 300watt te blijven en dat die 75watt extra er gewoon voor de OC ruimte zit.
Dat zie je goed, tevens staat dit ook vermeld in het artikel:
De foto's tonen verder twee achtpins-pci-e-connectors, waardoor de kaart in ieder geval 375W zou kunnen verbruiken.

[Reactie gewijzigd door codeneos op 7 januari 2011 13:30]

Deze kan je ook inzitten als windtunnel volgens mij...


Op hotelkamer showen? Hoe gaat dat? Wordt je gevraagd mee te komen naar hun kamer?

Ontopic: Erg weinig informatie over de kaart zelf jammer. En alleen dvi dus, geen HDMI jammer. Eerst maar benchmarks/ervaringen zien voordat we weten of dit wat word. Daarnaast is een prijs(schatting) ook wel interessant.
Nope, dat gaat zo dat in een hotel dan gewoon meerdere bedrijven een showroom in een kamer opzetten, zodat je langs kamers kunt lopen en een kijkje kunt nemen, soort cheape beurs.
Dat soort dingen wordt vaak ook gedaan voor zaken die niet iedereen hoeft te zien, maar voorbehouden zijn aan pers en dergelijke. Dat soort zaken worden meestal niet op de reguliere beursvloer getoond, maar gewoon achteraf in een conferenceroom of hotelkamer in een hotel in de buurt.
Dus het is mogelijk om 2 x 375 W (750W) verbruik van je kaarten te krijgen?
Dat is al meer dan mijn hele systeem atm. Het lijkt een verdrievoudiging van het verbruik van de mindere high-end kaarten. (of zit ik hier fout te rekenen?)
Klopt, maar dan moet je wel een MB met vier achtpins-pci-e-connectors hebben :)
Klopt, maar dan moet je wel een MB met vier achtpins-pci-e-connectors hebben :)
PCI Express x16 slots 3
PCI 32-bit/33 MHz slots 2
PCI Express x1 slots 1

Jammer. Niet dat ik 1000 euro wil uitgeven aan 2 grafische kaarten, maargoed
als het 2 G110 cores zijn dan zal die kaart best wat geluid produceren, het zijn redelijke heethoofden dus die 3 fannetjes zullen hun best moeten doen..

Maarja daar zal je bij dit soort kaarten ook wel niet zoveel om geven
Sinds wanneer maken cores geluid? Het zijn de fans die geluid maken en hoe luid die zijn hangt volledig van de keuze van de fans af. Heeft niks met cores of hoeveelheid van fans te maken.
Waar moet de warme lucht naartoe als je drie fans heb die allemaal naar onder blazen? Ik denk dat men best die middelste fan gewoon zou verwijderen. Dan krijg je een betere airflow dan bij drie fans die elkaar tegenwerken.

Ik heb dit ook gezien bij m'n GTX 460 kaarten. Eerst had ik een model waarbij de koelvinnen erg dicht bij het PCB zaten, en de lucht er dus niet door gaat maar erover. Ook de heatpipes zaten in de weg. Ik heb die kaart ingeruild voor een met de standaardkoeler, waarbij de heatpipes hoger gemonteerd zitten en de lucht doorheen de koelvinnen naar voor en achter kan. De verschillen in koelprestaties waren enorm, zelfs bij trager draaiende ventilator.

Soms lijkt men gewoonweg geen halve seconde stil te staan bij de efficiŽntie van wat men ontwerpt, en gooit men grotere koelvinnen, meer fans en meer heatpipes in de strijd. Jammer.

[Reactie gewijzigd door c0d1f1ed op 7 januari 2011 13:47]

Nee ze hebben dit vast niet getest :F
Kom op zeg, die lucht blaast gewoon door de openingen aan de zijkanten weg, zelfs bij gesloten casefans voel je die lucht aan de zijkanten wegwaaien.
Daarbij zullen standaardkoelers vaker kleiner en zo goedkoop mogelijk zijn en zijn aftermarket of koelers van bedrijven als EVGA vaker stiller en beter.

Trouwens 3 fan koeler, de arctic accelero extreme plus mss?
pricewatch: Arctic Cooling Accelero Xtreme Plus

[Reactie gewijzigd door SouLLeSSportal op 7 januari 2011 14:13]

Wat me wel opvalt is dat de fans niet boven de pcb uitkomen, wat betekent dat het vrij kleine fans zijn. Jammer, had liever minimaal 92mm fans gezien; in duo, zoals bij de Scythe Musashi. Grotere fan = evenveel CFM bij lager toerental.
Ja idd. 3 fans lijkt me ook teveel van het goede. Ik ben benieuwd hoeveel toeren ze op volle snelheid halen. En wat te denken van het geluid... Hopelijk komt er een watergekoelde variant :)
trouwens er staat een blunder in het originele artikel: boven de foto's staat als titel :

EVGA Dual-GPU Nvidia Graphics Card Pictured, Presumably GTX 590

op de kaart staat zelf GTX 580 dan zet ik mijn twijfels wat het dan precies is... zowieso lijkt het erop dat het water gekoeld is...
Als je wil water koelen, moet je wel ergens een fitting hebben, toch? Aan de buitenkant van het pcb meestal, de kant die vol op de foto staat en ik zie niks. Het zou wel een heleboel gezeur schelen, daar niet van.
Jammer dat er nog niet veel specificaties bekend zijn maar verder ziet dit er heel mooi uit. Of het ook daadwerkelijk iets is moeten we dan nog even afwachten!
ligt het aan mij of is dit echt een hele lange kaart.

wel weer gaaf zo'n ding natuurlijk.

maar je tegenwoordig wel een kerncentrale naast je huis hebben staan om dit soort dingen van prik te voorzien.

375watt max dan moet de rest van het systeem er nog bij en dan draai je nog geen eens sli (op meedere pcb's)
oooh dat is wel om te smullen zeg. Als het idd dual gpu is dan zal ie zeer zeker krachtig zijn. Ik maak me alleeen zorgen om het wattage en daarbij de warmte... als je ziet dat er 3 fans op zitten. :P

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True