Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 108 reacties

Nvidia zou besloten hebben de videokaart met twee GF110-gpu's, waar het volgens hardnekkige geruchten aan werkt, in februari uit te brengen als 'GTX 590'. Daarmee zou de release samenvallen met die van AMD's dual-gpu-kaart, de HD 6990.

Nvidia zou intern de beslissing genomen hebben om het nieuwe vlaggenschip van de fabrikant 'GTX 590' te noemen, claimt Nordichardware van 'betrouwbare bronnen' vernomen te hebben. De introductie staat op de planning voor februari, de maand waarin ook AMD's snelste videokaart moet verschijnen.

Als het nieuws waar is, markeert de komst een flinke inhaalslag van Nvidia. Het bedrijf is erop gebrand de prestatiekroon weer in handen te krijgen nadat de Radeon HD 5970 lange tijd alleenheerser was. De vorige dual-gpu-kaart van Nvidia was de GTX 295, die in januari 2009 uitgebracht werd.

Om een kaart uit te rusten met twee GF100-gpu's, die voor de GTX 480 en GTX 470 gebruikt werden, bleek niet haalbaar, waarschijnlijk door het hoge verbruik van deze chips. Met de GF110, die het hart van de GTX 570 en GTX 580 vormt, heeft Nvidia deze problemen het hoofd weten te bieden en betere yields weten te behalen.

Nvidia zou er zelfs voor kiezen alle cores van de GF110 ingeschakeld te houden, waarmee de GTX 590 over in totaal 1024 cuda-cores en twee 384bit-geheugeninterfaces zou beschikken. Om de tdp binnen de perken te houden, zouden de kloksnelheden flink teruggeschroefd zijn, maar welke snelheden de kaart krijgt, is nog onbekend.

Moderatie-faq Wijzig weergave

Reacties (108)

De eerste 2 foto's is zo te zien een EVGA dual GF114 proto, te zien aan de 4/8 memchips (256bit memory-interface).

De 3e foto is inderdaad een nVidia prototype van de aankomende (dual GF110) GTX590. :)
Met een 2x 8-pins PCI-e stroomaansluiting. (375W max.) :Y)

[Reactie gewijzigd door bitshape op 28 januari 2011 17:36]

ja, maar de vraag is natuurlijk, wordt die GTX590 oook daadwerkelijk de snelste kaart?!

de GTX580 is by far de snelste single GPU, maar als de snelheden teveel terug geschroefd gaan worden...... dan is de vraag..hoeveel sneller is de GTX580 dan de 6970 en hoeveel verschil gaat dat maken als de kloksnelheden teruggeschroefd worden van de GTX580, maar dat zal vast wel vantevoren getest worden, zo van, hoeveel Mhz moet de GTX580 minimaal lopen om de 6970 voor te blijven.

[Reactie gewijzigd door Pim0377 op 28 januari 2011 15:31]

AMD heeft met de hd6990 anders hetzelfde probleem, een enkele hd6970 ligt kwa verbruik aardig gelijk met een gtx570, evenals de prestaties. twee gtx580 gpu's hebben het voordeel van een volledige ingeschakelde gf110 chip, waardoor ze nog wat meer speling hebben kwa clocks.
AMD geeft niet zoveel om de performance crown, als Nvidia een betere kaart blijkt te hebben verlagen ze de prijs iets, dat heeft hun in het verleden ook geen windeieren gelegd.

Een ding wat vrijwel zeker is, is dat Nvidia met de gtx590 een hoger TDP heeft dan de hd6990 van AMD, al krijgen beiden fabrikanten het moeilijk om enigzins acceptabele TDP's neer te zetten.
Als ze 2x een 6950 pakken kunnen ze waarschijnlijk op normale clocks onder de 300watt blijven, een single 6950 heeft een TDP van 170watt.
de 6990 gaat ook met 2 volledige ingeschakelde cores van de 6970 komen zonder daar ook maar de clocks van te veranderen ;)
dus ik denk dat nvidia sowieso de borst wel nat mag maken :D
Wie koopt zo'n high end kaart als er nauwelijks spellen zijn die dit soort kaarten laten zweten. Die benchmarks op tweakers hebben altijd hele hoge resolutie's met alles vol open en dan nog zijn de framerates torenhoog.
Zo'n kaart is alleen zinvol voor 3dgaming, 3 monitoren en natuurlijk voor de echte performance H**R (ik dus) en de bencher. Ook als je een jaar of 2 alles op max wil kunnen spelen zit je volgens mij wel goed. Voor de casual gamer is dit qua performance en qua budget net iets teveel van het goede.

Ik zie budget technisch meer in een sli opstelling denk ik, maar vind het wel een prestatie als zo'n kaart het levenlicht ziet... Laat de strijd voor de performancekroon maar losbarsten..
Ik speel al 3 jaar alle spellen op max met GTX260-16 in SLI op 1920x1200 en verwacht dat nog wel een tijdje te kunnen.
Ik speel al 3 jaar alle spellen op max met GTX260-16 in SLI op 1920x1200 en verwacht dat nog wel een tijdje te kunnen.
Juist met de nieuwe dx11 features zoals tesselation en D.O.F krijgen kaarten het lastig, op dx10 redden jouw sli 260's het voorlopig nog wel even, maar zeggen dat je alles op max speeld is dus niet waar. Daarnaast maakte ik het punt voor 3d-gaming en multiple screen opstellingen. Dat jij 1920x1200 gevult krijgt, tja... dat is niet zo heel moeilijk.

Wacht maar tot je 3d gaat gamen met die kaarten. FPS halveerd direct en niet veel kaarten van de 200 serie kunnen met 3d performen. Mn beste maat speelt 3d met een setje gtx285's en ook die red sommige games niet op max instellingen + 3d...

Daar heb je nou zo'n GTX590 voor!
Knap zeg dat jij in mijn PC kan kijken om vast te stellen dat ik de waarheid niet spreek.

Bijv. BFBC2 alles max. FRAPS min 66- avg 88 - max 118.

Ik heb wel een GA58-extreme + i7-965 extreme@4 GHz. Dat zal allicht helpen.
Als ik kijk welke kaarten 88 fps halen bij BFBC2 dan zie ik guru3d dat een GTX560 Ti in SLI 90 fps haalt. Natuurlijk wel DX11 en ik DX10 maar who cares. DX11 voegt toch niets toe tov DX10 bij FPS'ers.
Kortom investeren in de nieuwste DX11 kaarten is voor mij nog steeds zinloos.
Als ik perse meer frames wil halen (en dat hoeft niet want alles >60 is toch OKE) dan moet ik 2x een 580 aanschaffen en dat doe ik dus niet.
Duidelijk nog geen dx11 in shooters gezien.
Jijbent echt een gigantische troller want als jou'n pc dingen
niet kan doen zoals dx11 is het gelijk maar nutteloos. Als jij dus iets niet hebt wat betere ofmooiere prestaties geeft ontken jij dat.

Dx11 voegt dus wel wat toe bij FPS-ERS zoals bfbc2 en avp en metro.
Dus wat jij zecht is klinkklare onzin.
@sun0000

Knap zeg, dat jij niet kan lezen... Blijf jij toch lekker met je sli 260's zitten... ik schuif wel door naar de nieuwere series, ik verplicht je tot niets hoor. Iets op "Max instellingen" spelen word ook dx11 bedoeld en die voegt zeker wel iets toe.
Dat jij een uberdure 965 extreme hebt gekocht is jou pakkie aan, ik zou de 920 gekocht hebben, die op 4,2 klokken en je keihard uitlachen met je sli setje, omdat ik geld heb over gehouden voor een grafische upgrade..... sterker nog, dat doe ik bij deze.! :*)

[Reactie gewijzigd door millman op 31 januari 2011 18:05]

Je hebt het toch niet over mij he maatje???

Ontopic: Deze kaart gaat door mij zeker niet gekocht worden. Dan zal ik eerder een 580gtx is sli zetten. Waarschijnlijk beter te overclocken dan een tdp gelimiteerde 590gtx
Maar als je op 5760x2400 in 3D wilt spelen met alles helemaal maxed out, zou ik er wel heel veel respect voor krijgen. Ik zou 3D in die resolutie gewoon al een aardige prestatie vinden, laatstaan 3D met zo'n resolutie.
5760x2400... Dat zijn 6 schermen. Niet mogelijk dus met GTX260 in SLI.
Verder ook 'lichtelijk' overdreven om een punt te maken }:O
OMG... ben erg benieuwd naar de beelden van dit monster.

Het spectakel op graka gebied is nu wel helemaal losgebarsten. dacht eerst dat december de maand zou worden, maar dit is nu doorgeschoven naar jan/feb.

Alleen maar positief nieuws... eerst standaard kaarten met "crap" koelers en dan het leuke spul.

De race tussen AMD en Nvidia zal nu ook echt wel wat spannender worden dan 2009/2010.. want toen was het toch wel een beetje 1 richtingsverkeer.
Zo, dan komt er dus eindelijk weer een mogelijkheid om 3 schermen aan 1 kaart aan te sluiten, wat AMD bij bijna elke kaart tegenwoordig kan. Ik wil heel graag een nieuwe nVidia kaart, maar het enige wat mij nu nog tegenhoud is dat er maar 2 schermen aankunnen.

Gebaseerd op het feit dat een GTX 570 of 580 nog steeds maar 2 schermen aan kan sturen en je SLI nodig hebt voor nVidia's surround vision.
Voordeel van Nvidia SLI is juist dat je 3 goedkope dvi schermen kan kopen. Daardoor kan je minimaal 200 euro extra uitgeven aan andere hardware.

22+ inch Displayport scherm vanaf 200 euro. (nodig voor ati eyefinity)
22+ inch dvi scherm +- 130 euro. (nodig voor nvidia surround)

Tel uit je winst als je 3 dezelfde schermen koopt.
Of je neemt een adapter van een paar tientjes en je bent ook klaar
zijn daar geen kabels voor? volgens mij heb je voor 30 euro een displayport-dvi kabel

(ik heb geen ervaring, maar ik kan wel googlen :) )
HDMI 1.4 kabel bij de action:
€ 2.69.... En hij werkt!
Nu zullen ze waarschijnlijk zo als op de foto toch ook overmoeten op 2x 8pins aansluitingen.
Wat een energie zal dit slurpen.
Maar dit zou de rivaal moeten worden van de 6990 die draait volgens mij gewoon op niet teruggeschroefde clocks.
Deze moet het doen met behoorlijk lagere clocks.
Ben ook benieuwd naar de prijs schat zo 475 t/m 525
Ik denk dat die kaart heel wat meer dan die 475-525 van jou gaat kosten sebasss2.. Aangezien een enkele GTX 580 al om die prijs heen zit/zat..

Laat staan een 'dubbele' 580 ;)

Denk eerder 700-800 ;)
Denk 599-649 max net als altijd voor de uberhigh end kaarten.
Ik ben zeer benieuwd ofdeze kaart de prestatie kroon gaat pakken.
Over een tijdje zullen we wel meer gaan zien. Maar ik denk dat dit wel wereldssnelste kaart gaat worden voor een poosje. Over verbruik kan ik niets zeggen gezien nvidia veel dingen op kan lossen. Verder vallen zo'n dual gpu altijd goedkoper uit dan 2 losse kaarten vanwege de productie er van.
Waarom niet GTX 590 Ti2 ? Of gewoon GTX 595? Ik bedoel de Ti benaming was weer terug voor de High-End modellen toch?
Ja, ik snap de benaming GTX590 niet helemaal. Niet alleen vind ik GTX595 beter klinken, het ligt ook meer in lijn met de 295 en het feit dat dit de allersnelste GPU uit de GTX5xx-serie moet worden. Of Nvidia moet al plannen hebben om een hoger geklokte versie van dit bakbeest uit te brengen als GTX595...

Laat de geruchtenmolen maar rollen, ik ben in elk geval extreem benieuwd naar de eerste benchmarks van clash-of-the-titans achtige omvang, de 6990 vs de 590 }>
De 295 kwam met de 285 en 275 uit. De 590 zal naar alle waarschijnlijkheid niet met een 585-achtige chip uitkomen, of een 575, dus is 590 logischer als naam.
Nu blijft er nog ruimte voor een eventuele GTX595;)
Ben benieuwd wat voor extra stroomgeneratortje je naast je pc nodig hebt voor dit bakbeest als je hem gaat overclocken xD
Overdrijven is ook een zaak :P
Volgens de PCI-Express specificaties mag een kaart maximaal 300 Watt verbruiken. Het verbruik van de huidige GTX580 is al 224 watt.
Ik weet niet hoe het bij jou zit, maar hier kan ik 3600Watt uit één stopcontact trekken... }:O
3600VA, niet persé 3600W. Tenzij je een perfecte verbruiker eraan hangt met een PFC van 1 natuurlijk...
Ondertussen volledig offtopic, maar vooruit:

Een PC met een beetje fatsoenlijke voeding heeft Active PFC, en komt op een power factor uit van zo'n 0.95-0.99. Das alsnog ruim 3kW.

Daar zou je toch met gemak 4 van dit soort kaarten mee moeten kunnen voeden. Je zult wel 2 of meer voedingen nodig gaan hebben.
ik denk dat je je niet te veel zorgen moet maken
http://fastra2.ua.ac.be/?page_id=53

Met 6 GTX295's en een GTX275 verbruiken ze 1200W als de GPU's op 100% load zitten. Nog een paar honderd Watt erbij als marge en je komt met de helft al toe. Tenzij je 2 van die beesten aan 1 stekkerdoos hangt.... dan wordt het nipter als er nog een scherm bij moet ;)
Laat staan een ijsmachine om de boel koel te houden ;)
Of in SLI!?
Denk zo'n 750 watt voor 1 kaart en zo'n 1200 watt voor SLI?

Correct me if i'm wrong.
[SLI is natuurlijk van Nvidia...... 8)7

[Reactie gewijzigd door kevinr1 op 28 januari 2011 15:33]

psst SLI is van Nvidia ;)
Kwa vermogen zou je goed kunnen zitten, al hoe wel vaak men voor een veel te zware voeding kiest getuigen de vele configuraties op GoT, maar je maakt de fout bij CrossFire/Xfire, bij Nvidia heet dit namelijk SLi. ;)
Dan heeft u ook zeker enkele kerncentrales om uw lampen in uw huis te laten branden of de microgolfoven aan te zetten?
Het piekverbruik van zo'n videokaart zal nog altijd lager zijn de het verbruik van een gemiddeld huishouden.

Of houdt u gewoon graag van het gebruik van hyperbolen?

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True