Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 106 reacties

De eerste details van Nvidia's GTX 590 zijn uitgelekt. Het gaat waarschijnlijk om een slide uit een perspresentatie. De slide verklapt de aanwezigheid van twee gpu's met elk 512 Cuda-cores. De koeler bestaat uit twee vapor-chambers en een enkele fan.

De slide laat de verschillende lagen van de videokaart zien, te beginnen met het pcb. Het pcb zou opgebouwd zijn uit twaalf lagen, wat ook voor een high-end videokaart redelijk veel is. Interessanter zijn echter de twee gpu's op het pcb, die elk over 512 Cuda-cores zouden beschikken. Daarmee krijgt de GTX 590 zoals verwacht twee gpu's aan boord zoals die voor de GTX 580 gebruikt worden. De gpu's krijgen hun stroom via een tienfasige voeding, vermoedelijk vier fasen voor elke gpu en een fase voor het geheugen waarover elke gpu beschikt.

De gpu's van de GTX 580, met 512 Cuda-cores, hebben verder een 384bit-geheugenbus. Er is dan ook in totaal 3GB geheugen aanwezig, goed voor 1,5GB per gpu. De twee gpu's staan met elkaar in verbinding via een custom bridge chip, zoals die over het algemeen op dual-gpu-videokaarten van Nvidia zit. De gpu's worden elk gekoeld door een vapor-chamber, terwijl een enkele fan voor de nodige airflow moet zorgen. Hoe effectief die koelmethode is, moet nog blijken. De verwachting is dat de GTX 590 op 22 maart geïntroduceerd wordt.

GTX 590 slide

Moderatie-faq Wijzig weergave

Reacties (106)

Ben eens benieuwd of deze kaart zoals de > 400 reeks ook artificieel brake opengl support krijgt om duurdere quadro kaarten te verkopen. Het cynische is dat de GTX285 in sommige zaken totaal de vloer veegt met alles van de >400 reeks...

In DirectX is er helemaal geen probleem maar vanaf dat je met OpenGL werkt is het echt huilen met de pet op. Vind dit toch ook wel belangrijk om te melden voor diegene die ook met 3D applicaties werken al of niet onder Linux.
Running the DEMOS\OpenGL\bin\release\TexturePerformancePBO

With ImageSource=static ImageSink=glReadPixels
GTX480 : FPS=178
GTX285 : FPS=457
With ImageSource=static ImageSink=PBO
GTX480 : FPS=290
GTX285 : FPS=457
http://forums.nvidia.com/index.php?showtopic=166757
http://forums.nvidia.com/index.php?showtopic=181574
http://www.opengl.org/dis...bb=showflat&Number=291682
http://forums.cgsociety.org/showthread.php?t=945459
http://blenderartists.org/forum/showthread.php?t=191597

Nvidia is al maanden op de hoogte maar vertikt het om iets er aan te doen.

Ik vind het teleurstellend dat dit een beetje wordt doodgezwegen door veel tech sites want het is echt belachelijk dat oudere kaarten beter functioneren dan nieuwere.

Ik ben benieuwd met rage wat voor zover ik weet toch ook gebruikmaakt van OpenGL, misschien gaan we onze aps moeten hernoemen naar rage.exe om normale performantie te krijgen :z Zou mij niet verwonderen.

[Reactie gewijzigd door simplicidad op 14 maart 2011 17:14]

Ik denk dat nVidia geleerd heeft van het hernoemen van de exe, en de detectie tegenwoordig van meer zal laten afhangen dan dat.

Laat ze de GTX serie kaarten inderdaad niet kreupelen op OpenGL maar gewoon op dev apps. Daar zijn die kaarten niet voor bedoeld, dus als je 3DSMax draait krijg je 20% performance, anders koop je een Quadro. OpenGL gamers blij, nVidia's finance afdeling blij, iedereen blij :P
Volgens de gelekte informatie heeft de 590 een TDP van 365W. Dat is hetzelfde als 2 570's in SLI. Het samenvoegen van 2 gpu's op 1 plankje resulteert in een klein beetje minder verbruik dus de 590 kan "stock" iets sneller zijn dan 2 570's.

2 580's in SLI verbruiken tijdens gamen ongeveer 440W (ja, echt waar). Het maximum verbruik van de 6990 is 450W. Het zou dus mogelijk kunnen zijn dat de 590 een zelfde soort OC optie krijgt als de 6990 waarmee de 590 op 580 clock snelheid gaat draaien.

Ik betwijfel dat dat ook echt gaat gebeuren, maar als je puur kijkt naar het verbruik dan is het mogelijk.

Bronnen:
- Atomicmpc forum
- Techpowerup
Het is nog al eens langs gekomen dat TDP geen verbruik is. Je zegt het zelf al; "2 580's in SLI verbruiken tijdens gamen ongeveer 440W (ja, echt waar)." Twee GTX580 zouden volgens de TDP -waar jij meer rekent- 500W moeten verbruiken. M.a.w. TDP is geen maatstaf voor voor het verbruik van kaarten. Dus wacht nu maar gewoon rustig op de GTX590 en bekijk dan wat het daadwerkelijke verbruik wordt.

PS de HD6990 heeft in normale stand een TDP van 375W en in OC stand een TDP van 450W.

[Reactie gewijzigd door madmaxnl op 14 maart 2011 22:35]

een GTX 580 SLI opstelling verbuikt meer dan een GTX480 SLI opstelling, is meerdere malen getest door reviewers. weet link ff niet meer

[Reactie gewijzigd door A87 op 15 maart 2011 11:36]

Wat is deze opstelling anders dan het ontwerp van de 2win 460 van EVGA een paar dagen geleden? Meer PCB?

http://www.evga.com/products/moreinfo.asp?pn=02G-P3-1387-AR

[Reactie gewijzigd door DreamCatchers op 14 maart 2011 16:53]

dat er 2 extreem veel krachtigere gpu's in zitten bijvoorbeeld.

die 2x460 is meer een bang/buck kaart.
Er zit maar 1 fan op i.p.v 3 :)
snellere gpu's
1 gb aan totaal geheugen meer.
het geheugen is waarschijnlijk sneller (de 2win heeft maar 3600mhz, ik verwacht deze +/- 5000mhz)
deze heeft in totaal 1024 cuda cores de 2 win maar 672

en inderdaad de cooling
2x 580 chips betekent 1 ding: De normale GTX 580 consumptie x2. Tuurlijk zou dit misschien beter zijn dan de 6990, maar het zou echt veel energie slurpen. Tenzij ze van plan zijn echt hevig te underclocken halen ze lage power consumption echt niet.
ja want 1+1=2. kloksnelheden, voltages en cherrypicking doet namelijk niets

kom op zeg, een 6990 gebruikt toch ook niet 2x6970
Tijdens games verbruikt een 6990 20W minder dan 2 6970's. 2 580's zitten daar ongeveer 70W boven. Uiteindelijk is het top verbruik van de 6990 450W en verbruiken 2 580's tijdens gamen ongeveer 440W. Het samenvoegen van 2 gpu's op 1 plankje zorgt ook voor een kleine vermindering in verbruik.

Het is dus mogelijk om de 590 op 570 snelheden te clocken voor de 365W TDP en daarna, net als de 6990, te "overclocken" naar 580 snelheden.

Bron:
Atomicmpc forum
Ja, dat is ook een beetje wat ik verwacht. Op 570 snelheden lijkt men concurrerend met AMD terwijl op 580 snelheden de 6990 waarschijnlijk ruimschoots het onderspit moet delven.

Maar alles hangt dus af van het feit dat nVidia de warmte productie onder controle kan houden. En wie weet, misschien heeft men zelfs een verrassing en zijn er zuiniger 580s beschikbaar.
misschien heeft men zelfs een verrassing en zijn er zuiniger 580s beschikbaar
Dat is gewoon een kwestie van een lagere kloksnelheid geven lijkt mij... zolang het maar sneller blijft (lijkt mij wel het geval) dan een enkele GTX580...
Qua koeling lijkt deze veel als die in de AMD 6990 zit. Dus die zal waarschijnlijk ook wel even goed presteren.
Qua koeling lijkt het eigenlijk meer op de gtx295, gelukkig had AMD bij de hd4870x2 al door dat het op die manier niet goed ging werken. Bij de hd5970 hadden ze het stukken beter voor elkaar, maar beide gpu's dezelfde airflow bieden blijkt het beste te werken, zoals nvidia het eigenlijk al van de 9800gx2 doet ;)
Dat ging zeker niet in één keer goed, de haardroger-imitatie van de dual-PCB GTX295 is niet bepaald als mijn beste Nvidia ervaring in het boekje gegaan. Ja, het was wel een monster van een kaart.

Volgens hardware.info word de TDP van de kaart 365W. Het word dus ook een leuk verhaal om dit kreng koel te houden, efficiënt koelerontwerp of niet. (Edit hier, ik zei dat dit buiten PCI-spec was maar het is nog 10W daaronder, beetje speelruimte voor de factory-overclocked versies misschien)

Leuk detail, dat eenvoudig verwijderbare covertje zodat je 'm schoon kan houden. Enerzijds zal het worden toegejuichd als zo'n 'waarom dacht niemand daar nou eerder aan'-ding maar het lijkt me dat Nvidia de garantiebeveiliging die een vastgeschroefde bestickerde cover biedt kennelijk ondergeschikt vind aan de dreiging van een groot aantal kaarten dat door stofgerelateerde oververhitting RMA moet. Nu kunnen ze zoiets afschuiven op met een 'tja, had je 'm maar stofvrij moeten houden...' Of leg ik nu een heel vergezocht verband?

Ik vind het in elk geval verdacht dat dit niet standaard is op andere kaarten, en denk dat dit een fragiel kaartje word door de enorme hitte die twee Thermi - pardon - Fermi-cores gaan produceren.

[Reactie gewijzigd door Singular1ty op 14 maart 2011 18:14]

Dat verwijderbare covertje heeft nvidia al vanaf de GTX400 serie in gebruik voor alle high-endkaarten. Niet bepaald nieuw dus maar wel een handig toevoeging. Verder vond ik het verwijderbare deel helemaal niet zo makkelijk verwijderbaar. Verder dacht ik dat je de koeler toch al mocht verwijderen zonder dat daardoor de garantie vervalt. Natuurlijk willen ze wel graag de koeler terug hebben als je echt aan spraak gaat maken op je garantie.
maar hier zit een normale fan op, waar de 6990 een radial fan heeft.
de fan hier blaast lucht naar beneden ipv naar de zijkant. dan moet er dus genoeg ruimte onder de fan zitten, waardoor de fan dus niet heel dik kan zijn, wat meer toeren betekend bij de zelfde luchtverplaatsing.

wat beter werkt zal moeten blijken.

[Reactie gewijzigd door Countess op 14 maart 2011 18:57]

Wat jammer dat ze het bij 1,5gb per gpu houden. Dit omdat hogere resoluties eigenlijk net niet genoeg hebben aan de 1,5gb. (de hogere resoluties welke een kaart zoals dit nodig hebben)
Ik heb een GTX275 met 896MB DDR3 en dat blijkt voldoende te zijn om de meeste recente games op 2560x1600 te spelen (met 4xAA en 4xAF). Modern Warfare gespeeld met alles op max, Crysis 2 ging ook vlot (shaders wel op medium gezet). Dus drie keer zo veel geheugen voor dezelfde resolutie zal ook wel volstaan.
En dan vergeten we even voor het gemak dat shaders ook geheugen nodig hebben ;)
Nou poeh hey, toch zeker wel een paar honderd bytes per shader.
MW2 is niet een bijzonder zware game en draait op volle kracht op een ENORME berg systemen. Ik denk eigenlijk dat anderhalve gigabyte wel voldoende is, maar dat zullen we pas echt weten als de kaart getest kan worden. (bij voorkeur op een aantal fatsoenlijke (4 MP) schermen).
Correctie, 2x zoveel. En voor degenen die het dan nog niet snappen zal er echt wel een versie met 6GB geheugen op de markt komen, de GTX580 kent tenslotte ook 3GB versies.
Eigenlijk hebben hogere resoluties genoeg aan 1Gb VRAM)

http://www.overclockers.r...dlya_sovremennyh_igr.html
Dit omdat hogere resoluties eigenlijk net niet genoeg hebben aan de 1,5gb
Je bedoelt hoop ik toch niet de framebuffer? Want voor 2560x1600 is 16MB dan al voldoende, uitgaande van 32bpp.
Je hebt in totaal gewoon 3GB beschikbaar.
Dat lijkt me, ook voor het vullen van 2 widescreens, nog steeds voldoende?
je hebt effectief 3gb maar je data neemt effectief twee keer zo veel ruimte in
Wat dan natuurlijk 1,5GB effectief genoemd wordt!,
Je hebt niet "effectief" 3GB tot je beschikking, die uitspraak is volledig onjuist.
Bij het inladen van 1,5GB aan textures zit je 3GB geheugen vol, niets effectiefs aan die 3GB dus.
Misschien ligt het niet aan het geheugen, maar:

http://www.tomshardware.c...-way-scaling,2865-10.html

het is toch duidelijk dat nvidia onder doet voor amd op hogere resoluties en laat dat nu net de doelgroep zijn van deze kaarten. misschien had een beetje extra geheugen al een deel van dit probleem kunnen verhelpen
Nee, in SLI doet de ene GPU uit zijn 1,5 gb. geheugen (waarin ALLES zit) de berekeningen, en de andere ook. Het enige is dat ze dan allebei slechts de helft van de berekeningen doen, en later samenvoegen tot een totaalplaatje.

Kan je nog steeds GTA 4 niet met alles maxed out spelen, omdat je VRAM vol loopt.

[Reactie gewijzigd door Jorn1986 op 14 maart 2011 16:58]

Zegt meer over GTA IV (in slechte zin) dan over de videokaart ;) 1.5GB per GPU moet voor elk spel van nu wel genoeg zijn ;)

edit: voor mensen die niet lezen (:

[Reactie gewijzigd door Ventieldopje op 15 maart 2011 00:46]

Dus geen rek voor de toekomst. Slechte zaak.
In de toekomst heb je al weer andere kaarten.
100 MB ought to be enough for everybody? Kom op, dit soort uitspraken zijn wel erg 1970.
1.5GB is genoeg voor deze tijd.
GTA IV is gewoon niet goed geprogrammeerd.
Dat laatste is sowieso waar. :)
100MB?? was toch iets van 640kB...
Nee, elke GPU heeft helaas zijn eigen geheugenbron. Er is daadwerkelijk maar 1,5GB door beide GPU's aan te spreken. Niet dat dat nou heel weinig is ;)
IDD!! een gigantische min punt!! We hebben het hier wel op over de top van de top ! En dan is 1.5 GB effect echt weinig !
valt ook wel mee, de prestaties van GTX580 liegen er niet om...
Daar komt nog bij dat je het verschil tussen 1.5GB en 2GB (HD6970/HD6990) pas merkt als je echt hele hoge resoluties gebruikt, in de trend van >2500x1800
Koop je deze kaart niet toevallig voor die uber resoluties?
De GTX570 is ook sneller met 1.2GB dan de 6970 met 2GB...
let wel! : enkel in situaties waar die geheugengrens niet overschreden wordt.
Laat je die twee kaarten vergelijken in een test waar 2GB wordt gebruikt is het verschil ineens fenomenaal. Gevolg van geheugengebrek staat gelijk aan een "onspeelbare" situatie. Gevolg is dat die 6970 wel eens 10x zo snel kan zijn.

Daarnaast zou het ook een oneerlijke test worden. Maar dit soort opmerkingen doen me vermoeden dat er gedacht wordt dat meer geheugen equals snellere videokaart. Dit soort gasten heb ik elke dag in de winkel staan en zou ik niet mogen verwachten op een site als deze! En ja uit jouw conclusie blijkt dat minder geheugen best sneller kan zijn, maar dan moet je ook begrijpen dat er situaties bestaan waarin dit NIET het geval is en jouw vergelijking dus NIET opgaat. En dat is toch wel een belangrijk gegeven.
Je hebt in totaal toch 3gb?
Maar je kunt er maar 1,5 werkelijk van aanspreken?
Klopt, in beide geheugen moeten alle textures geladen worden. Net als in SLI.
Het was een rhetorische vraag :9 Maar je hebt helemaal gelijk ;)
ziet er bruut uit, vapor chambers kunnen effectief zijn.
nu hopen dat hij en sneller en stiller is dan de 6990 en we krijgen een echte battle wie beste prijs/prestatie voormekaar krijgt :D
Prijs doet niet ter zaken. Wil je goedkoop koop je 2x een single gpu kaart. Goedkoper en sneller. Dit soort kaarten gaan om 1 ding. Het snelste zijn.
2x single is sneller dan 2x GPU op één PCB, want er moeten concessies gedaan worden om dit te bewerkstelligen.
lees zijn post nog maar eens.

<Wil je goedkoop koop je 2x een single gpu kaart. Goedkoper en sneller>
<Dit soort kaarten gaan om 1 ding. Het snelste zijn.>

oftewel wat hij zegt:
2x singlekaart is goedkoper en sneller dan 1 dual gpu kaart.
ALLEEN het enigste waar zo een kaart om gaat is de snelste kaart de zijn
dus niet het snelst mogelijke systeem. maar de snelste videokaart

natuurlijk kun je 4 videokaarten in je systeem prikken en is dat sneller dan 2 dual gpu kaarten, maar zoeizo kan niet iedereen zo veel kaarten kwijt ( extended atx mobo nodig enorme voeding en enorme kast, hele goede water cooling om de kaarten bij elkaar te kunnen zetten.

terwijl je met 2 van deze ook nog wel een goede voeding nodig hebt maar je hebt ook maar de helft van de ruimte nodig. plus je hebt 2 kaarten minder waardoor het waarschijnlijk ook wat minder warm word ( ook al hebben die 2 kaarten dan een dual gpu)
De kaart zou ook een TDP heben van 365 Watt en 11 inch lang zijn, wat zéér goed zou zijn, als de GTX580 clocks grotendeels intact zou zijn gebleven. Ik ben alleen bang van niet...
met een TDP van 365watt zie ik deze kaart niet de hd6990 verslaan.
performance per wat is niet echt de kracht van de huidige nvidia series namelijk.
waarschijnlijk hebben ze net als de hd6990 een switch, waarmee hij boven de pci-e specs uit kan komen. de enige vraag is hoe ver erboven.
Kan niet anders zeggen dat het er erg mooi uitziet. NVidia is weer erg goed bezig. Voor mij is de dual 460 interessanter ook qua prijs en stroomverbruik. Laat nu de games maar komen op de tri-monitor. Vraag: kan deze wel 3 monitoren aansturen?
Zo te zien heeft hij op de slide drie keer een DVI aansluiting, dus ja.
1 fan in het midden wil dus zeggen dat minimaal de helft van de hitte de kast in gaat. weet niet hoeveel kilowatt dit ding gaat wegstoken maat weinig zal het niet zijn. je zal je kast echt wel goed op orde moeten hebben om dit ding koel te houden. maar als je zoveel knaken uit gaat geven zal je zulke dingen wel voor elkaar hebben gok ik zo...
Dat is onzin
de ventilator kan de lucht van de achterste gpu wegtrekken en dan langs de andere gpu naar buiten leiden. Hangt allemaal van het ontwerp af. De kaart lijkt redelijk gesloten dus de luchtstroom lijkt vrij goed te voorspellen en weg te leiden.
Dat is, afgaande op het plaatje, onzin. Als je een naar beneden blazende fan, zoals daar word afgebeeld, centraal plaatst, zal een helft van de lucht de kast in worden geblazen. Punt. Het is een beetje tegenstrijdig gezien veel kasten lucht aan de voorkant naar binnen blazen en dit dus zonder twijfel turbulentie gaat opleveren, maar gezien zowel AMD als Nvidia inmiddels voor dit ontwerp hebben gekozen mag worden geconcludeerd dat dit nadeel een minder groot probleem oplevert dan twee in serie geplaatste koelblokken, waar hete lucht van core 1 de temperatuur van core 2 buitenproportioneel kan opdrijven.

[Reactie gewijzigd door Singular1ty op 14 maart 2011 17:49]

Dat lijkt me onwaarschijnlijk want dan krijg je een zelfde soort probleem als de 4870x2 had, dat de tweede GPU de warme lucht van de eerste GPU te verduren krijgt. Hierdoor zal die tweede GPU aanzienlijk warmer worden, weet ik uit eigen ervaring.

Edit: core veranderd in GPU

[Reactie gewijzigd door CvB op 14 maart 2011 17:55]

Dat is onzin
de ventilator kan de lucht van de achterste gpu wegtrekken en dan langs de andere gpu naar buiten leiden. Hangt allemaal van het ontwerp af. De kaart lijkt redelijk gesloten dus de luchtstroom lijkt vrij goed te voorspellen en weg te leiden.
lol, hij zuigt lucht van buiten af en blaast naar binnen. Dat betekent dat er aan beide einden v/d kaart lucht naar buiten wordt gedreven.

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True