Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 78 reacties

Op de Chinese website van Asus heeft kortstondig een tabel gestaan waarin melding werd gemaakt van de GTX 580. De gpu krijgt een kloksnelheid van 772MHz en beschikt over 1,5GB geheugen met een kloksnelheid van 4002MHz.

De website hardware.info merkte de tabel op en maakte er een screenshot van. De tabel maakt melding van een 384bit-geheugenbus, die in contact staat met 1,5GB gddr5-geheugen. Het geheugen tikt op 4002MHz, ongeveer 8 procent sneller dan bij de GTX 480, waarvan het geheugen een kloksnelheid van 3696MHz heeft.

Het aantal Cuda-cores wordt niet genoemd, maar volgens de geruchten en een anonieme bron heeft de GTX 580 er 512. Eveneens volgens geruchten krijgt de gpu een kloksnelheid van 772MHz, wat betekent dat de Cuda-cores hun werk doen op 1552MHz. Daarmee is de gpu 10 procent hoger geklokt dan de GTX 480.

De videokaart zoals Asus die zal uitbrengen heeft verder een vga-, een dvi- en een hdmi-poort, maar de eerstgenoemde wordt waarschijnlijk gerealiseerd middels een dvi naar vga-adapter. De GTX 480 beschikt bijvoorbeeld ook over twee dvi-poorten en een mini-hdmi-poort. Als laatste staat er een prijs van 4800 Yuan in de tabel, omgerekend goed voor 509 euro.

GTX 580 tabel

Moderatie-faq Wijzig weergave

Reacties (78)

Ik ben benieuwd wanneer deze uit gaan komen, hoeveel sneller ze daadwerkelijk zijn dan de GTX 4xx serie, en wat de uiteindelijke prijs mag worden.

Nu weet ik natuurlijk niet hoeveel geld jullie over hebben voor een enkele GPU, maar ik vind 500 Euro toch teveel voor een enkele kaart. Ongetwijfelt zijn er rijke lui die hun geld hiervoor graag neertellen, maar ik verheug me op een tijd waar het allemaal wat goedkoper wordt.

Ook vraag ik me af wat de prestatiewinst zal zijn op het gebied van Tesselation en voor het gamen, gezien ik niet bijster onder de indruk ben van de recente ontwikkelingen op dat gebied.

Wat is de meerwaarde?

(Natuurlijk ben ik wel onder de indruk van DX11 en de tesselation zelf, maar ik zou graag een grotere prestatiewinst zien van generatie tot generatie. Ik was niet positief verrast door de prestaties van de 6850 en 6870. Nu begrijp ik ook wel dat het daarbij om een procede verkleining gaat en dat het allemaal nieuwe grond is die betreden wordt, maar ik had eerlijk gezegd gewoon meer verwacht. Maar dat is mijn mening, die hoeft men natuurlijk niet te delen.)
Er zijn natuurlijk altijd personen die zonder met hun ogen te knipperen 500 euro voor een GPU uitgeven. En ook al is het high end segment niet het segment waar de meeste omzet vandaan komt, de topkaart van Nvidia is natuurlijk wel marketingtechnisch belangrijk. Wanneer je immers over de geweldige prestaties van een geforce 580 gehoord hebt en geen 500 euro uit wil geven zal je eerder kiezen voor een bijv (nog niet bestaande) GTX 560.

Wanneer er verbeteringen in de architectuur zijn (opzet van de GTX 460 is ook stukken beter dan de 480) (bijvoorbeeld vermoedelijk 2x zoveel TMU's) kan de 580 ondanks dat het een verbeterde 480 is best een goede kaart worden!

Verder ben ik wel erg onder de indruk van de 6850 en 6870. Niet omdat deze nu zulke wereldschokkende prestatieverbetering laat zien, maar omdat ze dat met relatief zo weinig transistors doen! Meestal zie je pas een grote prestatieverbetering wanneer een productieproces verkleind wordt. Hierdoor kunnen meer transistors in ene GPU gepropt worden. In deze generatie zijn ze op 40 nm gebleven, maar hebben ze de architectuur dusdanig geoptimaliseerd dat er significant minder transistors nodig zijn om dezelfde prestaties te verkrijgen. Nu zul je zien dat de 6900 serie met een vergelijkbare hoeveelheid transistors weer veel sneller is dan de 5800 serie!

En voor de volgende serie: aangezien ze 32 nm overslaan en vermoedelijk naar de 28 nm zul je daar een gigantische prestatie winst gaan zien!

Op het moment is het momentum weer terug in GPU land, dit is alleen maar goed voor de prijzen!
ik hoop dat ze het stroom verbruik terug hebben kunnen dringen.. want die van de 480 was al debiel hoog.. dus laat staan deze.. :)

ik hoop dat ze nu eindelijk eens kaarten gaan uitbrengen die veel bang heeft en weinig buck kost :) en weinig stroom zuipt.. dan ga ik pas weer nvidia kopen.
Gek veel hoger mag het verbruik ook niet zijn, als je je kaart PCI-express gecertificeerd wilt hebben. De limiet staat op een 300 watt per kaart. Zeker de GTX 480 zit daar akelig dichtbij, met 275W, en onder Furmark schijnt hij er zelfs af en toe overheen te gaan. Nou kun je wel wat winst boeken door alle shaders te gebruiken (tot nu toe niet gedaan omdat de yields heel erg slecht waren), en de zogenaamde vias (verbindingen tussen de laagjes silicium) te verbeteren, maar alsnog zal het waarschijnlijk in de orde van 10, wellicht 15% winst opleveren. Of dat genoeg is om de (veel efficientere) AMD 6 series erachter te houden, die vermoedelijk ook een 300-watter gaan uitbrengen, betwijfel ik.

Kaarten met veel bang voor hun buckjes? Tja, alle waar naar geld, zegt men dan. Desondanks is het middensegment dan waar je wilt zijn, tussen de (spotgoedkope, maar zuiperige) 460 en de 68x0 serie wordt op moment een veldslag uitgevochten.
Goh zeg. Als je een GTX480 een beetje overklokt haal je deze specificaties al, moet ik nu onder de indruk zijn? De grootste gambit wordt misschien dat net zoals Ati's nieuwe serie dit model minder stroom trekt door een kleiner fabricageproces, anders zou ik niet weten waarom ik deze kaart zou willen hebben...
Ja denk je?
GTX480 heeft 64 TMU's De GTX580 krijgt er naar alle waarschijnlijkhied 128. Dit klok je er niet even bij met je 480 lijkt me.
wat moet je met 128TMU's? 64 was al overkill.
het is overkill in vergelijking met de rest van de kaart
het is overkill in vergelijking met de scherm grote nu gebruikt
het is overkill in vergelijking met de hoeveelheid geheugen die er op zit.

[Reactie gewijzigd door Countess op 4 november 2010 12:29]

Je hoeft niet onder de indruk te zijn, maar NVIDIA's GPU line-up wordt zo toch een stukje competitiever. Het idee is niet dat je gaat upgraden van een 480 naar een 580, het idee is dat deze kaart de GTX480 vervangt voor toekomstige kopers. Als ik 500 euro wil uitgeven aan een GPU kan ik de GTX480 kopen of de GTX580. Als ze beiden hetzelfde kosten weet ik wel waar ik voor ga, namelijk voor de snellere zuiniger kaart.
ATi's nieuwe serie draait niet op een kleiner proces, en deze zal dat ook niet doen gezien TSMC nog geen kleiner process beschikbaar heeft. ATi heeft de winst puur gehaald uit designverbeteringen, en dat zal voor deze kaart ook gelden.
Lijkt me niet onmiddelijk een enorme verbetering te zijn, afwachten.

Maar hopelijk toch competitief en niet te duur (lager dan de vermelde prijs dus) om ervoor te zorgen dat de toekomstige AMD 69xx kaarten betaalbaar worden

[Reactie gewijzigd door billeman op 4 november 2010 08:58]

Een enorme verbetering is er niet echt geweest sinds de eerste GeForce kaarten op de markt kwamen en zelfs die waren niet een enorme wereld schokkende verbetering ten opzichte van de vorige modellen.

Het is nu eenmaal niet mogelijk om enorme verbeteringen te brengen en toch de kosten binnen de perken te houden. Ik weet redelijk zeker dat als de ontwikkelaars bij AMD/Nvidia de ultieme GPU zouden mogen ontwikkelen ze vast en zeker een enorm veel snellere GPU zouden kunnen maken dan het geen er nu verkocht wordt. Alleen zou de prijs van de ontwikkeling en productie al snel zo hoog zijn dat vrijwel niemand het ding zou kunnen kopen.

Als je kijkt naar de prijs van een gemiddelde GPU over de afgelopen zeg 15 jaar dan betaalde je eind 1995 ongeveer 150 tot 200 gulden voor een top kaart. Nu betaal je om gerekend ongeveer 1200 gulden voor een top kaart. Natuurlijk is het ding wel minimaal 10x sneller maar dat is ook gewoon het geen je er voor betaald...
Als je nog 10x sneller wilt is dat technisch gezien best mogelijk alleen moet je dan wel accepteren dat je een GPU van een kleine 4500 euro zult moeten kopen.

Nu Intel al weer een tijdje niets doet op de GPU markt anders dan die peop IGP oplossingen van ze is er dus ook totaal geen reden voor het groene of rode kamp om enorme sprongen te maken. Er is immers te weinig competitie en de competitie die er is komt meer neer op power/watt en prijs/prestatie competitie dan pure snelheid. De komende paar jaar zal er waarschijnlijk niet veel meer gebeuren dan nieuwe GPU's die minder verbruiken en marginaal sneller zijn dan de vorige generatie. Pas als er weer een echte nieuwe speler op de markt komt of er een flinke doorbraak gemaakt wordt op het gebied van extreem zuinige multi GPU oplossingen hoeven we niet veel meer te verwachten dan een verbetering van een paar procent per generatie.
Omdat Intel de handdoek in de ring gegooid heeft en alle andere GPU bakkers eigenlijk gewoon niet meer mee tellen zijn we aangewezen op het rode dan wel het groene kamp en geen van beide heeft er echt baad bij om de andere van de kaart te vegen want een duopoly is veel minder politiek moeilijk uit te leggen dan een monopoly
Van de Geforce 5, naar 6 en 7 en 8 waren flinke verbeteringen. Van 7-serie naar 8-serie was zelfs een verdubbeling in performance.

Dat de prestatieverbetering nu laag is, is gezien de omstandigheden van nVidia erg logisch. De GTX480 was namelijk op zijn zachtst gezegd een kleine flop. De prestatiewinst was nog wel redelijk ten opzichte van de GTX280, maar het verbruik en de grootte van de chip zorgde voor tegenvallende resultaten. Door de grootte van de chip waren de yields ook zeer slecht.

Nu er in de GTX580 niet overgegaan wordt op een ander procede, is er weinig speelruimte om de chip nog veel sneller te maken. Als ze de GTX580 zouden uitrusten met meer cuda cores krijgen ze allereerst een nog groter monster van een chip, waardoor de yields weer laag zullen zijn. Het verbruik zou navenant stijgen waarbij 400+ watt niet ondenkbaar is.

In plaats daarvan lijkt nVidia te kiezen voor een optimalisatie van de GF100. Er zal hier en daar hoop ik wat bespaard zijn op verbruik, terwijl ze nu proberen alle 512 cuda cores te laten werken. Daarnaast draait de GPU een flink stuk hoger. En dat alles terwijl de geheugenbus hetzelfde blijft, en hij ook evenveel cuda clusters heeft. Alles bij elkaar hoeft deze chip dus niet groter te zijn dan de GTX480 en dat lijkt me precies wat nVidia voor ogen had in de nieuwe generatie.
extra onderbouwing voor de performance winst van GF 7 naar 8:

Assasins creed 1:
7800 GT SLI: 12.4 fps
8800 GT SLI: 60 fps
9800 GTX SLI: 58.2 fps ?? optimalisatie voor 8 serie?

bron: http://www.tomshardware.c...sins-Creed-v1.02,737.html

[Reactie gewijzigd door The Underminer op 4 november 2010 11:36]

Ik heb toendertijd Assassins creed nog gespeeld op een 7800gtx, een vriend van me had later een 8800gt waarop ik het ook gespeeld heb. Beide op 1600x1200 met high settings. Zo groot was het verschil nu ook weer niet - ik twijfel een beetje aan de benchmarks van Toms Hardware, ze testen zoveel verschillende kaarten in 1 systeem dat ik me afvraag hoe betrouwbaar de test is.

Zo zetten ze xfire en SLi setups op dezelfde lijst, dat betekend dat ze dus ook verschillende moederborden en mogelijk processors/geheugen hebben gebruikt.

Wat betreft de verdubbelingen in performance; Nvidia streeft er naar om iedere generatie de snelheid van hun GPUs te verdubbelen, met uitzondering van een paar "optimalisatie generaties" zoals de 4**MX series, FX5*** series, de 9*** series en GTX4**. Ze zijn wel sneller dan hun voorgangers, maar niet zo drastisch als de rest van de series.
Wat bedoel je in godsnaam met 'optimalisatie generatie'? De 9-serie is een rebrand van de de 8-serie, dat kun je inderdaad wel zien als een optimalisatie en niet meer. De FX5000 serie was een compleet nieuwe generatie ten opzichte van de Geforce 4. De prestaties waren echter wel ruk vergeleken met de voorganger en de competitie. De 4MX-serie was een budget-reeks van de Geforce 4 en niet te zien als een losse optimalisatie generatie. Ten slotte de GTX400 is compleet van de grond af opgebouwd en absoluut geen 'optimalisatie'. Optimalisatie zou je kunnen zeggen van de Geforce 6 naar de Geforce 7. Zelfde Direct X generatie en weinig nieuwe features. Inderdaad, Nvidia (en ook AMD) proberen steeds te verdubbelen qua snelheid. Lukt helaas lang niet altijd.
9xxx serie = 8xxx series, alleen optimalisatie zoals je al zei en extra geheugen/sneller.
Leuk zo, het omrekenen van euro's naar guldens en dat dan één op één te vergelijken maar neem dan ook even inflatie mee want die factor 2,2 die bij de overstap naar de euro gold, geldt al lang niet meer voor omrekenen... Tevens kostte de voodoo's en eerste geforces ook een bak geld zoals de heren boven mij al zeiden, en gelden die prijzen van honderden euro's nu enkel voor de overkill-kaarten, een topkaart om prima te gamen heb je voor onder de honderd euro en dat kon je toen niet echt zeggen.

En geen enorme verbeteringen gezien? Wat waren de GF6000-, de GF8000-, de radeon 9000-, D4000-serie dan?

[Reactie gewijzigd door bwerg op 4 november 2010 12:01]

In 1998 heb ik heel wat honderden guldens aan een 3dfx Voodoo 2 kaart uitgegeven...
Sorry, maar wat is DIT een onzin...... van boven tot beneden verkondig je onzin.
In 1998 heb ik heel wat honderden guldens aan een 3dfx Voodoo 2 kaart uitgegeven...
Moet het eens zijn met de heren boven mij, wat een bs... :+
Had in 1998 Voodoo 2 kaarten in SLI, en dat koste mij 1200 gulden om Quake 2 te spelen op 1024x768 @ 60 fps.
Als daar nog eens inflatie bij optel zat ik zeker aan de ++1500 euro.

Nu kan ik met een 6870 bv WoW spelen 5040x1050 @ +60 fps voor 200 euro en voor 400 5760x1200 @ + 60 fps.

Hoewel top kaarten nog steeds duur zijn, is het niet meer zo dat je bankroet hoef te gaan voor als je het beste wild, een stap je lager is nog steeds meer dan voldoende nu.
Terwijl ik met mijn Voodoo 2 SLI opstelling zo een beetje iedereen verpletterde puur omdat ik de beter PC had.

En om de Barts (en Cayman?) geen stap vooruit is te noemen weet ik niet in wat voor een coma je hebt liggen te slappen maar een GPU dat net zo snel is als de voorgaande generatie met maar 70% die operavlakte op het zelfde proces noem ik niet een stapje voor uit maar een sprong!
Voor mijn eerste VOODOO 2 kaart, heb ik 599 gulden uitgegeven (samen met turok, het spel zonder blokjes :) ) op een beurs in EINDHOVEN ergens rond 1998 . bij een duitse kraam,overal was hij meer dan 650 gulden. , had 8 MB Video ram, een half jaar later lag de VOODOO 2 kaart bij VOBIS met 12 MB geheugen voor 189 gulden in de schappen. voor nieuw spul betaal je gewoon 2 x de hoofdprijs.

Wat ik wel met je eens bent is dat het voor dezelfde prijs steeds meer kan , maar das met alles, processor, OPslag capaciteit HD en MEM, maargoed dat heeft met innovatie te maken.
Grappig want het is zo dat AMD nu de markt op gaat met Fusion . Dat vinden sommige mensen nu al de doodsteek van Nvidia http://www.semiaccurate.c...r-partners-branded-cards/ .

Intel heeft er nog nooit iets er van gebakken. Ze konden slechts de prijs drukken hun GPU's waren ver van geweldig laat staan dat de drivers goed waren.

De verbetering is erg duidelijk :) http://www.madshrimps.be/...ut-4x9800gx2-setup-44443/ .

Het lijkt alsof de verbeteringen niet echt in spelletjes tot zijn recht komen maar met "rekenen" komen deze nieuwe kaarten wel beter uit de verf. Vergeet niet dat DX10 gewoon erg veel vraagt van de videokaart en DX9 is gewoon een stuk "sneller".

Je kan die multi-gpu oplossing wel op je buik schrijven want echt helemaal niemand gaat zulke exclusieve hardware maken terwijl je al een behoorlijk eind komt met crossfire (de software van developers en de videokaarten worden steeds beter).
Heb hier nog een boekje van liggen waarin alternate altijd reclame maakt, en daar staat toch echt in dat de geforce 2 serie 1000+ gulden destijds kost. Dus de prijzen zijn wel gelijk gebleven.

Desalniettemin lopen de ontwerpers ook stuk op de technologie, het word steeds moeilijker om in snelheid vooruit te gaan, dit voornamelijk om warmte productie en efficientie. Het heeft geen zin om een GPU te ontwikkelen die 10x zo snel is, 10x zo warm wordt en 10 x zovel energie spendeert.
Come on mates, can't we all just get allong ??

Waarom is het zo moeilijk onder tweakers om normaal dialoog te voeren. Vaak zo negatief hier
150 tot 200 gulden voor een top kaart. Nu betaal je om gerekend ongeveer 1200 gulden voor een top kaart.

Economisch zo mis onderbouwd.

Toen kon ik voor 200 gulden 300 broden kopen en nu kan ik voor 400 euro 200 broden kopen. Ik denk dat een videokaart omgerekend een stuk minder kost tegenwoordig. Om dus de berekening goed te maken is die 200 gulden nu 500 a 600 euro waard en niet andersom.

[Reactie gewijzigd door Domus von Dutch op 4 november 2010 11:51]

Als de gulden nog bestond was het eerder 10 gulden = 1 euro. De euro is een van de meest waardevolle munten en als we hem niet hadden gehad was de gulden net zo hard onderuitgegaan als de pond.
Houd monetaire zaken bij mensen die er verstand van hebben. De pond gaat hard om laag door het grote import overschot(En de grote schulden) die het Verenigd Koninkrijk heeft. Nederland heeft altijd een export overschot gehad en relatieve lage schulden last.

Anders pak je de Zweedse kroon erbij, die heeft ongeveer zelfde waarde gehad.(Sterker nog, het is een VEEL stabielere munt)

http://www.wisselkoersen....raph.aspx?valutaid=514318

(Die dip is negatief voor de euro he!)
Ik betaalde jaren geleden 1300 gulden voor mijn Geforce 3, inflatie e.d. meegerekend is de hardware dus eigenlijk gewoon net zo duur, of misschien zelfs goedkoper dan vroeger.
Zitten bij dit nieuwe model nog verdere verbeteringen behalve kloksnelheid en extra CUDA-cores? Zou wel verwachten aangezien ze van 480 naar 580 gaan?
Bij NVidia is dat al lang niet meer zo... De 9800-series was ook niet veel meer dan een opgewarmde 8800, de GT250 en lager waren gerecyclede 9800 (op kleiner proces, dat wel), en over de GT300-serie zullen we het maar helemaal niet hebben. Ik verwacht hier ook geen nieuwe chip, meer een aangepaste versie van de oude GF100-chip, en dat was, zoals al bekend, een betere barbecue dan gamekaart...
Het aantal texture mapping units (TMU's) zou volgens geruchten verdubbeld worden naar 128. Maar buiten dat is het hardware-matige verschil alleen het aantal CUDA-cores en de kloksnelheid. Er zullen uiteraard wel hier en daar wat tweaks zijn aangezien Nvidia weer een stuk verder is met de GF100 architektuur dan bij de release in maart.
Ik heb op de Hardware.info site gelezen dat deze kaart waarschijnlijk veel meer voor gamen is gemaakt dan de GTX480.
Naar verwachting zal nVidia het aantal texture units verdubbeld hebben van 64 naar 128 stuks, maar op uitsluitsel daarover zullen we nog even moeten wachten.
Het idee van 'geschikter voor gamen' is dat de GTX480 erg gericht was op zijn GPGPU kwaliteiten, waar je in games niet zoveel aan hebt. Nu schijnt het dat Nvidia hier een beetje in heeft zitten snijden, dus minder transistors in de GPU. Met de extra TMU's en de hogere kloksnelheden, zou de GTX 580 dus geschikter zijn voor gamen.

Over het TDP: Volgens de geruchten is dit 244 watt, waar dit bij de GTX 480 250 watt was. Nu is het niet bekend of dit om typical load is (net zoals bij de GTX 480) of om het echte TDP gaat, dus wat de kaart maximaal verbruikt. Ik denk echt dat dit weer de typical load is.
Alsof de gewone Nvidia kaarten niet voor gamen gemaakt worden??
Elke mid/high-end nVidia kaart is in principe voor gaming, muv de Quadro reeks.
Daarom staat er ook 'veel meer voor gamen'. Oftewel, ondanks dat de vorige kaarten ook prima geschikt waren om te gamen, hebben ze bij deze kaart die bijvoorbeeld in het algemeen 10% beter is (statistisch), het geschikter gemaakt voor gamen waardoor in-game prestaties bijvoorbeeld 20% beter zijn t.o.v. zijn oudere modellen.

Er zijn natuurlijk ook andere redenen waarom je een goede videokaart zal kopen maar zo'n high-end kaart is natuurlijk gewoon op gaming gericht.
Ik bedoelde het als reactie op posts die nu ver naar boven staan. De strekking is dat er wel degelijk een technisch verschil is tussen de 480 en de 580. Namelijk dat het aantal texture units verdubbeld is en dat de kaart daarmee meer voor gamen is bedoeld dan de GTX 480, die vooral als CUDA kaart is gemarket door nvidia.
als dat zo is dan wordt dit mijn nieuwe kaart (als de prijs meevalt dan :P )
Technisch gezien is het de kaart die Nvidia aankondigde meer dan een jaar geleden. http://videocardz.com/252...gtx-480-fermi-techpowerup
Het is vooral jammer dat ze de gelegenheid niet aangegrepen hebben om de 480 zo te upgraden dat de ´oorspronkelijke 480´ nu niet meer geheugen gekregen heeft.

De 20% extra CUDA cores en verhoogde clock zouden voor CUDA apps een groot verschil kunnen betekenen, maar de beperking is in die wereld de hoeveelheid geheugen.

De GTX460 is leverbaar in 2 GB versie en daarmee in feite het meest geschikt voor dit type applicaties (3d en 2d rendering als Premiere Pro, After Effect, 3ds Max en pure CUDA realtime renderers en video converters etc als je het over de niet wetenschappelijke markt hebben).

Ik had grote hoop dat de 580 juist als de ultimate kaart neergezet zou worden voor dit werk met 3Gb.

Ik verwacht niet dat Nvidia ooit hoger zal gaan omdat ze je liever Quadro´s en Tesla´s zien kopen die veel duurder zijn, maar wel leverbaar met 6GB. Dit is dus een domper omdat het nu vrijwel zeker is dat de GTX460 met 2GB de teaser voor CUDA zal blijven. Niet heel snel, maar genoeg geheugen voor de meeste apps om te zien wat een waanzinnige snelheidsverbetering je kan krijgen.

Wie het dan serieus wil gaan gebruiken moet wel overstappen naar de prijzige professionele kaarten want hoge performance + genoeg geheugen wordt dus niet in de consumenten range geleverd.

Ik had nog even hoop dat de 480 met flinke prijsverlagingen de consumenten kaart bij uitstek zou worden en de 580 juist het exclusieve domein van de extreme gamers en de CUDA gebruikers, maar gezien de extra texture units lijkt het er toch echt op dat de 580 dé gamers kaart moet gaan worden.

Dan maar even hopen op toch een 490: een qua verbruik geoptimaliseerde 480 met iig 2 Gb voor een leuke prijs. Een mens kan dromen toch ....
Sowieso heeft NVidia aangegeven dat de geforce-producten enkel en alleen op gamen gericht zijn (ze gebruiken er wel een chip voor die naar eigen zeggen dan weer voor GPGPU ontworpen is, maar goed...). Daarvoor heeft een 3GB of 6GB-versie natuurlijk geen nut. Enkel low-end kaarten worden voor games met een grote overkill aan geheugen (voor games dan) geleverd, zoals de GT 440 met 3GB geheugen.
Is dit nu niet gewoon een overclockte gtx 480??
nee, verbeterde gtx 480
zou dit dan de Fermi-uitvoering van de 480 zijn? Het ligt wel in de lijn der verwachting dat de succesvolle 460 architectuur ook naar boven wordt uitgerolt.
Huh? de 480 is ook al Fermi.

In feite is dit de kaart die nVidia een jaar geleden wilde maken, met de volle 512 Cuda cores, en dan met een wat hogere kloksnelheid. Zo te zien is er wat architectuur betreft werkelijk niets veranderd. Ik denk dat je 'm het beste kan zien als een GTX490.
Of de GTX512 zoals de GTX480 eigenlijk had moeten heten. Of misschien wel de GTX485 waar al een tijdje op internet over gesproken word :)

Maar zoals jij al zei, idd de kaart zoals de GTX480 had moeten zijn :)
Net zoiets als de 8800gts en de daarop volgende 8800gt en 8800gts 512mb, de 9800gt naar gtx250 enz. weinig nieuws onder de zon, wat sneller door ditjes en datjes wat aan te passen/verhogen/toe te voegen maar de kans is groot dat dit dus gewoon een gereviseerde/aangepaste 480 is met meer cudacores en hogere clock.
Ik zeg overslaan.
Zoals al heel flauw was gegrapt in het NVidia-topic: nu gaat NVidia 4 series in één jaar beslaan, ze proberen waarschijnlijk een record te halen. :+

(de laatste low-end GF200-kaarten zijn van vorig jaar november, toen meteen de GF300-rebrands erachteraan, nu voor een relatief kleine verandering meteen weer door naar GF500)

[Reactie gewijzigd door bwerg op 4 november 2010 12:05]

Zoals al heel flauw was gegrapt in het NVidia-topic: nu gaat NVidia 4 series in één jaar beslaan, ze proberen waarschijnlijk een record te halen.

(de laatste low-end GF200-kaarten zijn van vorig jaar november, toen meteen de GF300-rebrands erachteraan, nu voor een relatief kleine verandering meteen weer door naar GF500)
De 300 serie is nooit inde winkel te koop geweest, enkel een aantal OEM producten. Daarnaast, de laatste X1000 serie kaarten van AMD kwam in begin 2007, in mei kwam de 2900XT en in november kwam de 3870. Dus wat is het verschil precies?
Nee, een hoger geklokte GTX 460, en met meer shaders en geheugen. De architectuur zal gelijk zijn aan die van de 460 en niet de huidige 480.
Ziet er niet echt uit als een verbetering dan de 480GTX,
Maar volgensmij doet Nvidia dat niet voor niets, en kijken ze dit keer veel meer naar verbruik en warmte.

Alleen € 500,- is zeer veel als het maar ongeveer 10% verbetering geeft tov de GTX 480
GTX480: 250 watt ---> GTX580: 244 watt

Dat noem ik niet echt een vooruitgang. Had liever gezien dat het richting de 200 watt ging...dat scheelt een hoop als je systeempje enkele uren per dag aan staat.
Maar hopelijk hebben ze wel wat aan het warmte probleem gedaan...we zullen het vanzelf zien als ie er is :)
Volgens de geruchten krijgt de GTX580 een TDP van 244 watt. Zuiniger dan de GTX480, maar nog steeds niet bepaald zuinig. 8)7

Het lijkt me ook niet dat NVidia een dual-gpu gaat uitbrengen op basis van deze kaart, de TDP zou gewoon veel te hoog zijn en de temps ook.

Voorlopige conclusie: AMD zal de snelste dual-gpu in handen hebben en misschien ook nog eens de snelste single-gpu. Dit gaat nv niet lang vol houden en voor de consumenten is het ook slecht..

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True