Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 109 reacties

Er zijn twee foto's van vermoedelijk Nvidia's GeForce GTX 580-videokaart op het op web verschenen. Er gaan enkele geruchten rond over de videokaart, die het tegen AMD's aankomende HD 6970, op basis van de Cayman-chip, op moet nemen.

De aanduiding GTX 580 verscheen vorige week korte tijd op de website van Nvidia, op de pagina voor system requirements. Vervolgens gingen er enkele geruchten rond over de videokaart, die 20 procent sneller zou worden dan de GTX 480. De foto's tonen in ieder geval een koeler die meer weg heeft van die van de GTX 470 dan van die van de GTX 480. Dat zou kunnen beteken dat Nvidia het verbruik heeft weten terug te dringen, maar het zou ook kunnen dat er een prototype op de foto's staat.

De GTX 580 zou een chip aan boord hebben met codenaam GF110, die over 512 Cuda-cores beschikt, een 512bit-geheugenbus en 128tmu's. De GF100-chip heeft ook 512 Cuda-cores, maar moet het stellen met 64tmu's en een 384bit-geheugenbus. Dat Nvidia een monsterchip als de GF110 gaat inzetten lijkt onwaarschijnlijk en mogelijk bouwt het bedrijf een eventuele GTX 580 dan ook eerder op rond een verfijnde GF100-chip, waarvan wel alle 512 Cuda-cores geactiveerd kunnen worden.

Nvidia GTX 580 Nvidia GTX 580
Moderatie-faq Wijzig weergave

Reacties (109)

In de GeForce Forceware 261.00 de GeForce GTX 580 zit er all in.

nvidia_dev.0e22.01 = "nvidia geforce gtx 460"
nvidia_dev.0e23.01 = "nvidia geforce gts 455"
nvidia_dev.0e24.01 = "nvidia geforce gtx 460 "
nvidia_dev.0e25.01 = "nvidia d12u-50"
nvidia_dev.0e38.01 = "nvidia gf104gl"
nvidia_dev.0e3e.01 = "nvidia gf104-es"
nvidia_dev.0e3f.01 = "nvidia gf104-int"
nvidia_dev.1080.01 = "nvidia geforce gtx 580"

http://forums.guru3d.com/showthread.php?t=331483
Ik sta er echt van te kijken dat jullie dit allemaal schijnen te geloven?!?! 8)7

Kom nou toch! Dit is gewoon een marketing grapje. "Lek" even een foto waar je helemaal niets op kunt zien, en de hele wereld springt er bovenop.
En dan zien mensen dat hij eigenlijk meer op een 470 dan 480 lijkt, en dan gaan ze speculeren dat het verbruik lager is! :+

Jongens toch... hebben jullie in al die jaren nou niets geleerd van de manier waarop Nvidia werkt? Het is zo klaar als een klontje. Nvidia heeft niets in handen, anders hadden ze wel meer gelekt.
Als er geen Geforce GTX 580 komt waarom staat er dan in de nieuwe driver
nvidia_dev.1080.01 = "nvidia geforce gtx 580" mag ik dat weten??

[Reactie gewijzigd door AmigaWolf op 28 oktober 2010 20:40]

Ooit zal er wel een 580 komen. Maar er is natuurlijk geen enkele aanwijzing dat het de kaart is die op die foto staat.
Kijk m'n jongen dat heet marketing, als je dingen waar wil laten lijken moet je ze waar laten lijken, zo simpel als dat.
Ik denk persoonlijk dat ze wel zo'n kaart gaan uitbrengen maar dat dit nog HEEL lang gaat duren. Wat het meest grappige is, is trouwens het feit dat dit "lek" enkel over de highend sectie gaat van de vermoedelijke GF5xx serie terwijl het beter voor nVidia zou zijn als ze een goede mainstream/low end Gaming kaart zouden lekken, er is in dat segment immers meer te halen.
Foutje laat maar.

[Reactie gewijzigd door AmigaWolf op 31 oktober 2010 15:02]

was te verwachten..

AMD komt met een nieuwe lijn videokaarten en er verschijnen tegelijkertijd geruchten over nieuwe kaarten van nvidia.

als nvidia nog steeds op hetzelfde manufacturing process zit betekent dit dus bijna zeker dat het energieverbruik van het nieuwe model dus nog hoger wordt .. ?
als nvidia nog steeds op hetzelfde manufacturing process zit betekent dit dus bijna zeker dat het energieverbruik van het nieuwe model dus nog hoger wordt .. ?
Niet per definitie. Alles valt te optimaliseren en te verbeteren. Geruchten spreken er van dat lekstroom een groot probleem was dat voor het hoge energieverbruik van GF100 zorgde. Dit was mogelijk ook de oorzaak van de uitgeschakelde SIMD-core in de GTX480. Op dat moment waren er echter nog genoeg problemen en weinig ervaring met het 40nm procedee van TSMC, maar in de afgelopen maanden is hier het nodige veranderd. Het is dus heel goed mogelijk dat NVIDIA op die manier of op een andere manier het stroomverbruik flink heeft weten terug te dringen.
Zodanig flink dat ze EN 20% hogere prestaties leveren EN tegelijkertijd de koeler kleiner kunnen maken?

Iemand met een beetje gezond verstand concludeert dat dat ZEEEEEER onwaarschijnlijk is.
Eén van twee zou kunnen, maar allebei tegelijk echt niet.
(sowieso zou Nvidia dat niet doen. Dan zouden ze de prestatie gewoon nog hoger opkrikken....)
Hey, don't shoot the messenger ;) HTrockstar vroeg of het zeker was dat een zelfde procedee dezelfde verbruik betekent. Nou, niet per definitie. We kunnen het er denk ik wel over eens zijn dat GF100 in ieder geval qua stroomverbruik een behoorlijke ramp was (iets over uitgeschakelde SIMD-cores enzo). Wie weet wat daar te halen valt. Ik denk idd dat lager stroomverbruik EN 20% meer prestaties niet heel realistisch is, maar goed, dan nog zegt de gebruikte cooler ook niet per definitie iets over het stroomverbruik. We zullen wel zien denk ik, als er al iets komt.

[Reactie gewijzigd door Snoitkever op 28 oktober 2010 17:50]

mogelijk,
al we kijken naar de prestaties per watt van de gtx 460,
en stel dat nvidia daar lessen uit heeft getrokken en de g100 chip heeft geredesigned volgends de principes van de 460, dan zou het best kunnen dat deze chip en sneller en zuiniger wordt.

of hij van cayman gaat winnen is een adnere vraag,
gezien de 6870 die erg klein is en al sneller dan de gtx 460,
dus als de voorspellingen kloppen en cayman (de 6970/50) ongeveer een dubbele 6870 wordt, dan moet nvidia wel heel veel uit de kast trekken om dat te kloppen.

maar dat betekent niet dat er geen significante verbetering mogelijk is.
Waarom. Het is bekend dat nVidia grote problemen had met het 40nm procede van TSMC. Het is ook bekend dat TSMC daar ondertussen duidelijke vooruitgang heeft geboekt. Het kan dus best zo zijn dat nVidia haar ontwerp heeft aangepast om de probleemgebieden te verminderen en dit samen met het verbeterde proces van TSMC een chip oplevert die zowel qua verbruik als prestaties flink beter scoort. Het is niet zo dat het onmogelijk is om 20% betere prestaties uit een zuiniger chip te halen en nVidia heeft tijd genoeg gehad om wat aan het ontwerp te knutselen.

Dan heeft nVidia dus een keuze. Gaat men voor de maximale prestaties ongeacht het verbruikt (zoals met de GTX480), maakt men een kaart met de prestaties van de GTX480 maar een stuk zuiniger of gaat men er tussenin zitten. In feite zijn de hogere prestaties en een lager verbruik dus twee effecten die beide uit dezelfde verbetering voort kunnen komen en is het zeker niet onwaarschijnlijk dat nVidia aan beide problemen wat probeert te doen.
Nou jah, hoeft ook niet te verwachten. Ze kwamen namelijk ook erg laat met de GTX4xx serie. Als je kijkt naar hoelang de ATi HD5xxx serie al beschikbaar was.
AMD zit met de HD6xxx lijn op exact hetzelfde productieproces als de HD5xxx en GTx4xx lijn. Toch zijn de HD6xxx kaarten zuiniger als de andere (GF104 kaarten uitgezonderd), dus AMD zou ook wat ontwerp verbeteringen doorgevoerd kunnen hebben.
Heel verdacht, zo voor de AMD launch van de nieuwe hd6xxx serie. Was wel te verwachten natuurlijk. Lijkt me logischer dat ze eerst komen met een gtx485/gtx490 waarbij alle cuda cores, dus de hele gf100 chip (512 cores), geactiveerd is. Want dat zit volgens mij nog steeds in de pijplijn en was ook de bedoeling. Zou zeker mogelijk moeten zijn als je bijv. kijkt naar wat ze gelukt is met gf104 (gtx460)
Niet om je te ontmoedigen, maar alle 512 cores inschakelen zal nVIDIA waarschijnlijk niet doen. ze zetten nu een x aantal cores uit om het fabricageproces nog enigzins winstmakend te houden, dus ze zetten de kapotte cores in de GF100 chip uit. zo blijven er van de 512 geproduceerde cores 'slechts 480' cores over in de GTX480. als ze nu alleen compleet werkende chips zouden gebruiken, zou je onderhand al enkele duizenden euro's moeten uitgeven voor een GTX480, en elke andere kaart. Zo werkt het altijd.
Vergelijk het maar met AMD's processor procédé: denk je nu echt dat zij nog een aparte singlecore procédé hebben voor de Sempron 140? tuurlijk niet. ze pakken een Athlon II X2 215/240/245/250 (laatste is het meest waarschijnlijk), klokken die naar de 2,7GHz en disableën dan 1 core. En in sommige gevallen is één of alle cores gewoon wel functioneel. dan worden ze gewoon allemaal aangelaten.
Maar een CPU met een GPU vergelijken is het vergelijken van een citroen met een banaan: ze zijn allebei geel, maar daar houd het dan ook op. geldt ook voor CPU/GPU: allebei van transistors, maar ze zijn heel verschillend. Zo heeft een processor tegenwoordig maximaal 12 cores (op de consumentenmarkt dan...) op een frequentie van minimaal 1GHz. Ook zijn alle CPU's in de buurt van de 1 miljard transistors (als we praten over 4cores+, dus i3/5/7's, Phenom II x4, x6's) en een GPU heeft veel meer cores, bij Nvidia de Cuda's, met een maximale clock van onder de 1GHz. (stock praten we dan dus over ;) ) Daarbij is de Fermi100 chip een buitenbeentje met zijn 3,2 miljard transistors. Een vuistregel luidt: hoe meer transistors, hoe meer kans op een defect.
En aangezien 3,2 miljard een niet heel normaal aantal is, is de kans daarbij dus veel groter dan bij een ATi 5870 bijvoorbeeld. dat is ook de reden dat die goedkoper zijn/waren, ze haalden meer volledig functionele dies uit één wafer dan een GF100 die.
maar als je gaat kijken naar een 5870/5850, dezelfde die, maar dan uitgeschakelde cores, simpelweg omdat er teveel kapot waren om als 5870 te functioneren. Daarom zijn er een boel uitgezet, een tikkie teruggeklokt en verkocht als 5850 of 5830.
Die gehele (512 CUDA cores) chip zal waarschijnlijk deze GTX 580 worden ;).
idd, het is marketingtechnisch beter om tegen de nieuwe reeks van AMD op te boksen met een eigen nieuwe reeks, dan denkt de consument weer 2 nieuwe reeksen en kan men hun favo merk kiezen

Wanneer nvidia gewoon een gtx490 of wat dan ook zou komen zou de doorsnee consument iets hebben als "waarom een oude serie van nvidia kopen als amd een nieuwe serie heeft, nieuwer is beter nietwaar?"
Ik denk eigenlijk dat als een 512 core GF100 mogelijk was geweest dat NVIDIA dit al lang had gedaan. Volgens mij heeft NVIDIA gedaan wat ze konden met alle respins die die chip ondergaan heeft en zit het probleem dieper dan dat.

Ik ga eerder voor een nieuwe chip die de grootste problemen aan GF100 oplost en misschien zelfs de SIMD opzet van GF104 overneemt, waardoor nu wel hogere clocks, lagere temps en minder verbruik mogelijk is. Maar we zullen zien.
Wanneer ati nieuwe kaarten op de markt brengt doet nvidia maar ook gelijk mee.

Wel nep hoor, vroeger deden ze het veel beter.
en nog steeds.

nvidia heefd de markt de laatse 4 jaar cuda en tesselation gegeven amd/ati heefd niks aan extra features toegevoegd.

het is de fout van ati en developers dat nvidia kaarten niet optimaal gebruikt worden maar in theorie zijn ze simpelweg beter.
AMD/ATi heeft al sinds de Radeon 8500 (uit 2001) een rudimentaire vorm van tesselation aan boord en dat is steeds verder uitgebouwd tot wat tesselation nu is. NVidia's eerste chip die tesselation hardware aan boord heeft is de GF100 (van maart 2010). Dus hoe je erbij komt dat NVidia de markt tesselation "gegeven" heeft is mij een raadsel, want als iemand het heeft gepusht dan is het wel AMD/ATi.

CUDA is een NVidia only techniek, je kunt AMD/ATI moeilijk verwijten dat ze dat niet ondersteunen. Het AMD/ATI alternatief was Stream, maar ze hebben er nu (wijselijk) voor gekozen om open GPGPU standaarden te ondersteunen, zoals DirectCompute en OpenCL. Ik weet niet wie er eerder mee was, maar het is eigenlijk een logisch voortvloeisel uit DirectX 10, dus dan kun je eerder Microsoft aanwijzen als uitvinder hiervan. Niemand zit te wachten op AMD- of NVidia-only technieken. Volgens mij is er ook geen enkele game die CUDA of Stream gebruikt. Hetzelfde geldt (in iets mindere mate) voor PhysX.

AMD/ATi heeft de laatste jaren voorop gelopen met multi-GPU kaarten, multi-monitor setups, HDMI audio en Displayport ondersteuning. Dus ze bieden wel degelijk wat extras tegenover NVidia. Het belangrijkse wat ze bieden is echter simpelweg efficientere GPUs: Cypress is in alle opzichten (perf/area, perf/watt) efficienter dan de GF104. Barts doet daar nog eens een schepje bovenop. De enige manier waarop NVidia competitief kan blijven is door hun produkten agressief in de markt te zetten, maar dat heeft ze vooralsnog alleen maar verlies opgeleverd. Ironisch genoeg zit AMD in hetzelfde schuitje t.o.v. Intel.
Zoals ik hierboven al antwoord gaf op jouw reactie (dit keer met links :P).

http://en.wikipedia.org/wiki/TruForm
http://en.wikipedia.org/wiki/Radeon_R600#Hardware_tessellation

Bij nvidia hardware wordt er eerder optimaal van alle shaders gebruik gemaakt dan bij ati.

http://www.anandtech.com/print/2556
http://images.anandtech.com/reviews/video/ATI/4800/ilp.png

Bij ati kaarten worden maximaal 5 van de 5 shaders gebruikt maar meestal is dit 4.
Bij nvidia kaarten is dit niet het geval.
Wat misschien verklaart waarom ATI nu naar 4D shaders is gegaan met de HD6xxx serie
Nou?

EyeFinity.
Geen single GPU high end kaarten van 600€ meer.
Zuinig & krachtig in één.
DirectX11 waren ze eerst mee, dus DX11 tesselation was ATi eerst.

'In theorie' klinkt altijd leuk, maar als dat gezegd wordt is dat meestal het eerste excuus als het in de praktijk voor geen meter loopt. ;)
Ziet er dus niet naar uit dat we dit jaar een grote sprong qua GPU kracht gaan maken, ook de 6970 zal lijkt me niet meer dan 25% sneller zijn dan de huidige 5870. Dat terwijl we toch wel zo'n 50% vooruit per generatie gewend waren.
Als we zometeen 2 maanden en wat driver optimalisaties verder zijn zal de 6870 wel ongeveer net zo snel zijn als de 5870 (dat zag we afgelopen generatie ook, bij release was de 5870 langzamer dan de 4870x2 en nu is hij sneller) de 5970 moet wel significant sneller worden dan de 6870 om die hele renaming zooi te verantwoorden en amd blaast hoog van de toren dat de 69** serie zo bruut word.

Ik ga er iig vanuit dat we die 50% wel halen straks. Wat nvidia doet weet ik alleen niet, maar die moeten wel met iets heel goeds komen willen ze niet teveel marktaandeel kwijt raken dus reken maar dat die gemotiveerd zijn.
Vergeet ook niet dat AMD een flinke voorsprong had met de 5xxx serie. Daarom konden ze rustig aan doen, en is er nu dus niet veel vooruitgang. Nvidia heeft zodoende de kans om weer in te halen, nu AMD 'niets' doet. Zeg nou zelf, die 6850 en 70 hadden best sneller kunnen zijn als er wat meer druk op AMD had gezeten. Ook blijft de 5770 behouden, dat zegt ook genoeg vind ik.
ach ja ik hoop in iedergeval dat nvidia's volgende serie kaarten beter gebruikt word door software fabrikanten op het moment heefd die hele cuda geen nut omdat het simpelweg bijna niet gebruikt word en hetzelfde geld voor tesselation volgens mij.
als deze features gebruikt zouden worden kan de 480 al aardig wat laten zien wat nu gewoon niet gedaan word.
Als je het nieuw van vandaag had gelezen ;).

http://tweakers.net/nieuw...rcomputer-ter-wereld.html

Sommige mensen (chinezen) denken daar dus anders over.
@bwerg

die 480 moest niet met de 59 serie concureren want dat is een dual gpu dus echt niet te vergelijken. Nvidia heeft met de 480 gewoon de snelste en/of krachtigste chip in de meeste gevallen en als de nieuwe 580 20% sneller is zal dat zeer waarschijnlijk ook zo blijven.

@Jhonny44

Ben het met je eens over de efficiëntie van de 480, dat is een drama. De vraag is dus of Nvidia het verbruik weet terug te dringen en wel een snellere kaart neer te zetten. Ze zijn iig op weg met de 460 serie.

@mjtdevries

Waarom zou dat zeer onwaarschijnlijk zijn? is de laatste jaren ook een trend geweest in de processor markt met chips die zuiniger maar toch sneller zijn.
die 480 moest niet met de 59 serie concureren want dat is een dual gpu dus echt niet te vergelijken. Nvidia heeft met de 480 gewoon de snelste en/of krachtigste chip in de meeste gevallen en als de nieuwe 580 20% sneller is zal dat zeer waarschijnlijk ook zo blijven.
Vergeet niet dat de opkomende Cayman (6970, vervanger van de 5870) gemaakt is voor een GTX 480 met de volle 512 CUDA cores, oftewel een GTX 580. Dus zo "zeer" waarschijnlijk is dat helemaal niet.

Het laatste gedeelte van het bericht:
De GTX 580 zou een chip aan boord hebben met codenaam GF110, die over 512 Cuda-cores beschikt, een 512bit-geheugenbus en 128tmu's. De GF100-chip heeft ook 512 Cuda-cores, maar moet het stellen met 64tmu's en een 384bit-geheugenbus. Dat Nvidia een monsterchip als de GF110 gaat inzetten lijkt onwaarschijnlijk en mogelijk bouwt het bedrijf een eventuele GTX 580 dan ook eerder op rond een verfijnde GF100-chip, waarvan wel alle 512 Cuda-cores geactiveerd kunnen worden.
is dan wel zeer waarschijnlijk want dit plaatje heeft "veel" weg van een 384-bit bus.

[Reactie gewijzigd door Vipeax op 28 oktober 2010 19:06]

Het uitbrengen van de GTX 580 is voor mij nieuw. Ik was onder de indruk dat nvidia eerst een GTX 475 zou uitbrengen op basis van de GF104 chip als verbetering voor de energie zuigende GTX 470 en GTX 480 welke beide op een oudere chip zijn gebaseerd. Blijkbaar komt nvidia nu al met de 500 serie. Iemand een idee wat de theoretische verschillen zijn tussen die 400 en 500 serie? Ben benieuwd of een eventueel toekomstige GTX 475 nog de moeite waard is om in te investeren als de volgende serie er alweer aan komt...

http://nl.hardware.info/n...ft-gtx-475-achter-de-hand
Interessant punt.
Gezien de koeler kon dit wel eens gewoon een foto van een GTX475 zijn ipv een GTX580.

En Nvidia vind het natuurlijk prima dat mensen nu denken dat er een zuinige GTX580 aan komt.
als het een gf100 chip is waarom dan niet gewoon GTX 485?
Omdat een GTX 580 een nieuwe serie is. En als je niet zo'n tweaker bent, dan koop je die sneller dan een GTX 485, 'want het is een nieuwe'.

"nieuw" verkoopt beter dan "opgefrist".
Omdat het dus niet de GF100 chip is.... :z
Lees het artikel ff goed en reageer dan nog eens...

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True