Mogelijke details over GeForce GTX 880 komen online

De mogelijke details van de GeForce GTX 880 zijn online verschenen. Het lijkt te gaan om een videokaart op basis van de GM204-gpu, die op de Maxwell-architectuur gebaseerd is. Waarschijnlijk gaat het om een kaart voor de mainstream.

De GM204 wordt op 20nm geproduceerd en zal uit 7,9 miljard transistors bestaan, waar de GK110 er bijvoorbeeld 7,1 miljard heeft. Volgens Z. Obermaier, ook bekend als OBR, die vaker informatie over gpu's vroegtijdig bekendmaakt, beschikt de gpu over 3200 shader- en 200 texture-eenheden, wat op een totaal van 25 SMM's komt. Ter vergelijking: de GM107 op basis van Maxwell, voor de instapkaarten GT 750 en 750 Ti, beschikt over 5 SMM's.

De kloksnelheid zou bij de GTX 880 900MHz bedragen met een Boost naar 950MHz. De single-precisionrekenkracht zou op 5,7 teraflops uitkomen, wat bijvoorbeeld hoger is dan de GeForce 780 Ti, met zijn 4,8 tflops. Dankzij de efficiënte Maxwell-architectuur zou de tdp met 230W lager liggen dan de 250W van de 780 Ti. Wel is de geheugeninterface 256 bits breed, minder dan de 384bit-interface van de laatste generatie high-endkaarten van Nvidia. Samen met de naamgeving valt daarmee aan te nemen dat het om een mainstreamkaart gaat.

GeForce GTX 880 geruchtGeForce GTX 880 gerucht

Door Olaf van Miltenburg

Nieuwscoördinator

10-04-2014 • 15:05

112

Reacties (112)

112
110
73
7
0
11
Wijzig sortering
Zo veel shader power maar slechts een 256Bit bus.
Lijkt me dan sterk. Je zou dan minimaal 384Bit verwachten. Gezien de specs en potentiele shader performance zou dit best de vervanger van de GTX680/GTX770 of toch de 780 TI kunnen zien.

Maar ik denk dat je de specs wel met een hand vol zout moet nemen.
Geheugen wordt ook veel sneller, wellicht hopen ze op 8 GHz DDR5, wat best in de buurt zal komen. Aangezien dit niet de top-end chip is vind ik 256bit nog niet zo beroerd. Meer bits = VEEL meer logica nodig voor de bus.
Dan heb je nog steeds een bottelnek zeker als je richting 4K gaat.
GTX680 is ook al behoorlijk gebottelnecked. En dan moet je je voorstellen dat je meer GPU power hebt dan de 780TI.

En standaard 8GHz GDDR5 is best lastig. Dan moet je je memory controller ontwerp heel goed op orde hebben. OC naar 8GHz hebben we wel gezien. Maar vergeet niet dat als je standaard al 8 GHz kunnen draaien er nog wel wat rek in moet zitten en je met OC dus mogelijk 8,5 / 8,8 zou kunnen halen.

En als dat al lukt is de bandbreedte nog steeds beperkt.
In dat Opzicht zit AMD goed met de 512Bit voor de 290X. Heb je geen hoge memory clocks nodig. En op 4K persteert die kaart uitstekend. (komt ook door de verbeterde frontend van de GPU maar het geheugen helpt ook)
Met onchip memory en veel betere caching is het zeker mogelijk om de bit breedte van de bus te verkleinen zonder noemenswaardig performance verlies tijdens het gamen.
En dat is waar het bij deze kaarten om gaat.
Dan moet je wel heel veel on chip hebben. En wat wij nu van maxwell gezien hebben bij de 750 zit er niet bijzonder veel on chip.
Dat is dan wel de 750, de toekomstige 880 word veel sneller en daarmee veel complexer.
We wachten af.
Kan maar waarschijnlijk dezelfde architectuur alleen dan opgeschaald. Dus dezelfde verhoudingen.

Maar we gaan het inderdaad zien.
Anoniem: 532949 @Astennu10 april 2014 20:24
Maar omdat die bottelneck dan weer op te lossen kun je natuurlijk er twee kopen in sli ;) ( kassa voor nvidia )
Het geheugen wordt inderdaad sneller, maar alsnog 98GB/s minder doorvoer mogelijk en dus gewoon langzamer dan de vorige serie in datadoorvoer...

Kan inderdaad bewust gedaan zijn om de duurdere serie wel met 384-bit uit te voeren...
En dus waarschijnlijk niet geschikt voor 1440p waar ik wel op hoopte :(
AMD/ATI heeft in het verleden al genoeg bewezen dat een bredere bus, zelfs 512bit, niet zaligmakend is. Ondanks die bredere bus waren de kaarten een flink stuk trager.
De HD2900 had andere problemen. Daar was het vooral de rest van de architectuur die de boel tegen hield. Render back end was niet goed. 80nm had ook veel te veel lek stoom.

En omdat GDDR5 daar na kwam was een grote bus voor de 48xx serie niet nodig.

Het is zeker niet altijd zalig makend. Maar nu we tegen de limieten van GDDR5 aan lopen en de GPU's steeds sneller blijven worden moet je het wel overwegen.
zojuist gemailt met de redacteur van videocardz.com en hij heeft bevestigd dat dit complete onzin is. :)


edit: waarom krijg ik hierop 2 votes met offtopic/irrelevant, ik geef jullie juist info over dit artikel..

[Reactie gewijzigd door emistery op 25 juli 2024 23:17]

Zelf denk ik dat dit 28nm Maxwell wordt en de GTX 900 of een hele nieuwe naam voor 20nm Maxwell.

Want Nvidia zou het niet in zijn hoofd te halen om 256 bit op een (high-end)kaart te zeten :+ (verliezen ze klanten mee, dus klanten die denken dat bij alles meer, beter is).
Anoniem: 325202 10 april 2014 15:08
Betekenen de kleinere chips nou ook dat kaarten goedkoper geproduceerd kunnen worden?
Chips worden meestal afgerekend per mm^2 die-oppervlak (een wafer doet ruwweg 10k euros), en een kleiner productieproces zorgt ervoor dat je meer transistortjes op dat oppervlak kwijt kunt. Gezien deze chip maar ietsje meer transistors in totaal heeft zal het oppervlak flink dalen (huidige 700-serie wordt op 28 nm gebrouwen), je zou theoretisch nu 2x zoveel op dezelfde oppervlakte kwijt kunnen... Dat gaat niet helemaal op (overhead et cetera), maar het helpt absoluut.
Moest de chip een groot deel van de kosten vormen, ja. Maar bij veel high-techproducten is de chip een relatief goedkoop onderdeel. Het terugverdienen van R&D, marketing e.d. is al een grote kost, en daarnaast zijn er nog de kosten van de koeler, stroomaansluitingen, condensatoren,..

Als een relatief kleine kostenpost een klein beetje goedkoper wordt, zal je uiteindelijke prijs niet veel schelen.

Komt nog bij dat Nvidia (en AMD uiteraard) hun kaarten niet prijzen volgens wat ze 'waard' zijn, maar volgens hoe hun dichtste concurrent van de andere fabrikant geprijsd is.
Voor een videokaartmaker is de chip zelf toch echt het duurste onderdeel (pak-em-beet 100 euro), de condensatortjes etc zijn een paar cent at most. Koeler heb je ook voor een tientje, dus ontwerp en chip zijn het leeuwendeel van de kosten.

Uiteraard prijzen NVidia en AMD naar wat ze kunnen krijgen, maar ze houden wel degelijk rekening met de die size. De low-end chipjes zijn niet voor niets veel kleiner (1/8 van de full-size die ongeveer), waardoor ze een stuk goedkoper zijn. Research moet namelijk over alle chips terugverdiend worden, als ze kleiner zijn kun je er meer bakken, en ze dus voor minder verkopen = meer verkoop = meer winst.
ps. Als we op dit soort top-end chips gaan rekenen: wafer 10k = 30 cm diameter = 15*15*3.14 = 700 cm^2 oppervlak ongeveer. Een 780 Ti heeft een die size van 5.6 cm^2, dus er komen pak-em-beet 60-70 werkende chips van 1 wafer. Daarmee kosten die dingen in puur Si al 150 euro. Komt er ontwikkeling bovenop: 250 euro. Winstmarges her en der, verpakking etc: 300 euro. De rest gaat naar verhuizing, verscheping en het bakken van het kaartje.
Ik snap maar niet waarom de geheugen-brandbreedte lager is gemaakt. Althans volgens de specs. Gaat dat veel performance omlaag halen op 4k/1440p resoluties? (256 is meer dan genoeg voor 1080p)

[Reactie gewijzigd door MrFax op 25 juli 2024 23:17]

Dat ligt volledig aan de hoeveelheid en vooral het type geheugen dat ze gaan gebruiken voor deze kaart.
Als het GDDR5 is, dan kan 256bit brede bus wel genoeg zijn.

Het kan ook zijn omdat het de kaart veel goedkoper te produceren maakt, en het dus inderdaad een goedkope kaart voor ons wordt.
Hij zou dus zeker geen 500+ euro mogen kosten.
Doet er niet toe of ie goedkoop is of niet. De huidige nvidia haarten hebben (itt die van amd) al niet veel verschot qua geheugenbandbreedte.

Deze kaart is in theorie krachtiger, maar moet het wel met een 33% kleinere bus doen?
Evt kan je dat gedeeltelijk compenseren door hogere geheugenclocks, maar ook die zijn al hoog bij nvidia-kaarten.

En GDDR5 is echt al een halve eeuw gemeengoed onder high-end videokaarten, tegenwoordig is dat zelfs normaal voor <€100 ...

Zoals eerder gezegd, dit lijkt gewoon onwaarschijnlijk. Ook al omdat er nog steeds zo weinig berichten over 20nm zijn, en de weinige berichten zelf allemaal indiceren dat 20nm op dit moment helemaal niet goedkoper is dan 28nm en het niet voor 2014 zal zijn...

[Reactie gewijzigd door bertp1 op 25 juli 2024 23:17]

Ze vermoeden dat het hier om een mainstream kaart gaat. Mainstream gebruikers hebben 1080p.

4k 1440p is geen mainstream maar voorlopig nog high-end
De huidige 780 is echt geen mainstream kaart. Is nvidia zijn productlijn aan het veranderen?
afwachten, ik weet het niet.
Ik denk dat mensen tegenwoordig te gauw conclusies trekken, zodra ook maar een beetje info naar buiten komt.

Geduld is een schone zaak :)
Misschien is het een idee om de productnamen van GeForce producten te veranderen. Een paar jaar geleden waren de 8800GT en de 8800GTX nog erg populair, en nu komen ze met kaarten genaamd GTX 880. Dit kan nogal wat verwarring opleveren.
Wat een gezever over nummers 8800 of 880 en dan de HD8000 verwarren met een 6 jaar oude
Geforce 8800 , mss is straks de ATI-9700 aan de beurt (AGP kaart btw)
Lijkt wel of er geen verschil is tussen de Golf -1 en Golf -2
Je leest je toch in over de specificaties , waar bij op valt dat de geheugenbandbreedte minder wordt net als de texture-units en de RoP's
Lijkt wel of Nvidia de Bitcoin mining wil ondersteunen
De gewone consument leest zich niet in in specificaties. Die denkt dat hoger altijd beter is en heeft verder geen verstand van specs. 9 van de 10 mensen weet niet eens wat de bandbreedte van hun videokaart is. Er worden wel vaker oude kaarten omgekat naar een nieuw nummer.
Maar een gewone comsument zal niet zo snel een high-end gaming GPU als een Geforce GTX x80 kopen - diegenen die dat wel doen zullen in de regel eerst research doen voordat ze tot aankoop overgaan.
Dat klopt, daar heb je gelijk in. Ik doelde meer op de naamgeving van videokaarten in het algemeen en niet specifiek dit model.
8800 was juist verwarrend omdat AMD deze naamgeving bij haar videokaarten ook gebruikt. Zo is er bijvoorbeeld een HD 8800. Ik ben het wel met je eens dat GTX ervoor ipv erachter verwarrend is.
En ruim voor de HD 8000 serie had je al de geniale 9000 serie waarmee AMD een lading knalkaarten neerzette.

Ik vind het ook totale onzin al die nummers die eigenlijk nergens meer op slaan.

Ik hoor het in mn omgeving ook wel hoor.. "maar hier staat dat dit spel een Radeon 3*** nodig heeft. en mijn computer/laptop heeft een 9*** dus dat moet toch prima kunnen? dat HD er voor letten ze totaal niet op
AMD? De AMD 8800 is van 2012, de NVIDIA 8800 is van 2006. Het is dus niet AMD die deze naamgeving gebruikt.
En daarvoor had Ati de 8xxx serie met daarna de 9xxx serie. zo kan je door blijven gaan op deze discussie.

Het zou mij niks verbazen als Nvidia zijn highend pas uitbrengt tegelijk met de die-shrink naar 20nm. Deze zal dan natuurlijk de 9xxx heten en de 8800 wordt dan een rebrand met eventueel een die-shrink.
W8, t gaat hier over 880, niet 8800.
Mee eens, nog een reden waarom het een zinloze discussie was ;).

Edit:
Het is iig beter dan vroeger, toen waren er kaarten met dezelfde toevoegin aan het einde. Kan er nu niet een bij naam noemen maar om maar een voorbeeld te geven bij ATI was de GTX een binned card terwijl het bij Nvidia dan juist om een topmodel ging.

[Reactie gewijzigd door Sp3ci3s8472 op 25 juli 2024 23:17]

Nvidia:

N2014L (lowend)
N2014M (mid)
N2014H (high)

En dan 1 cijfer erachter voor het model

Ati:

A2014L (lowend)
A2014M (mid)
A2014H (high)

En dan 1 cijfer erachter voor het model

Lijkt me simpel
en dan komt er een mid high end uit als 2e generatie in 2014
krijg je N2014HMSE maar hoeveel mb dan want daar baseren de meeste mensen hun aanschaf op aan
dus N2014HMSE4GB etc

Zo makkelijk is het niet.
SE staat toch altijd voor 'slow edition'? ;)
Simpel maar spreekt ook totaal niet tot de verbeelding. 'HD' en 'GTX Ultra' wel. Uiteindelijk zijn dat soort kleine dingetjes ook gewoon onderdeel van de marketing.
Moeten we daar niet sowieso vanaf? Die onzin termen? Groot, groter, grootst.....

Doe maar normaal, dan.......
Ik denk dat je een gat in de markt gevonden hebt. Word je toch de eerste Nederlandse GPU fabrikant die lekker zijn eigen weg in slaat?

Ben benieuwd hoe die NL14L1 t/m 6 het gaan doen ^^
Bedoel je niet de 9xx en de 880?

Verder zullen ze sowieso voor de volgende generatie (desktop) gpu's een die schrik in de vorm van 1x of 20 nm doen (waar Maxwell voor gemaakt is)
Om eerlijk te zijn zag ik dit wel aankomen. 5XX 6XX 7XX en dan natuurlijk komt de 8XX. Lijkt mij volkomen logies.
Je zult zien dat ze na de 9XX de 1X gaan uitbrengen :p
dit is waarschijnlijk hetzelfde als met de gtx680
de gtx 680 was de gk104 en was "volgends de geruchten" bedoeld als mainstream high end part,
(gtx 660 en 670) echter GK110 was zo groot en lastig en gk104 presteerde zo goed dat het alsnog de gtx680 werd.

daarna kwam er een tussengeneratie de huidige 7XX serie.
de gk104 is de 760-770 serie en de 780-titan is GK110.

met maxwell lijkt Nvidia de zelfde strategie toe te willen passen, mid end GM204 als high end verkopen (wat an sich prima is want het zal echt wel snel zijn) en dan na 6-12 maanden GM210 uitbrengen en een "refresh" voor de rest van de linup. (aka de 9XX serie)
Misschien, maar de GTXx80(ti) was altijd het topmodel van nVidia. Als nu ineens de GTX880 (wat velen als een opvolger van de GTX780 zullen ervaren) een mainstream kaart wordt zullen een hoop mensen bedrogen uitkomen.

Misschien kunnen de GPU fabrikanten voortaan het jaar opnemen in de naam. Waarbij je dan series als
114 - low end 2014
314 - midend 2014
514 - highend 2014
714 - 2 x highend 2014
kunt denken. Als ze het jaar daarop weer een de kaarten een update geven krijgen ze de nummers 115, 315, etc.
dat is exact hetzelfde als wat met de 480 -580 gebeurde (zelfde chip)
en met 580-680 amper sneller omdat van grote naar kleine chip ging.

en meer nummers gaat geen duidelijkheid verschaffen, en dat is ook niet in hun voordeel, dus dat gaat nooit gebeuren.
Haha en daar na gewoon de GTX 1 en de GTX 2
Sorry dat ik het zeg, maar je bent wel echt een complete nitwit als je deze door elkaar haalt.. De 8800GTX (enz) zijn al meer dan 5 jaar oud..
Daarnaast zijn deze gelijkende namen al vanaf de 600/6000 serie een "probleem" en ik denk niet dat dat ineens uit de klauwen loopt nu we bij de 8-serie aankomen.

[Reactie gewijzigd door DominoNL op 25 juli 2024 23:17]

Huh? Nu is de 80 versie ineens mainstream? Eerder was dit altijd de top! (GTX 480/580/680/780)

Vreemd dat dit ineens weer anders moet...
Ja en hij is sneller dan de 780 Ti dus mainstream lijkt het mij ook niet, een met 7,9 miljard transistor lijkt het me geen goedkope chip te worden.
maar die 256 bits bus, kan toch bijna niet kloppen, dan krijg je volgens mij een enorme bottleneck boven 1080p. en voor 1080p lijkt het me dikke overkill.
\sarcasm
Of willen ze alles boven 1080p het AMD segment maken?
Ik vind de benoeming "mainstream" hier ook niet echt gepast. Die kaart is op heel wat vlakken beter dan de Titan, enkel de kleine geheugeninterface moet het afleggen tegen de high-end van de vorige generatie.

Dit is mijns inziens dus gewoon een nieuwe high-end kaart. Ik ben wel benieuwd wat de redenering is achter de 256bit geheugeninterface, en wat de impact is op de prestaties. Laat maar komen die reviews :)
Tweakers zegt dat het hier om mainstream gaat, neem het dus met een korrel zout.
Info over dit soort dingen op deze site, moet helaas als onbetrouwbaar worden beschouwd.
Het totale gebrek aan interesse en eigen onderzoek van de materie is hier de oorzaak van.

Natuurlijk is dit geen mainstream, dit is gewoon high end want de opvolger van de snelste gamers kaarten van dit moment. ( de titan serie buiten beschouwing gelaten)
X90/titan is de top. X80 is volgens mij nog steeds mainstream high end.
Verwijs naar @HKS-Skyline's reactie, die legt het beter uit.

[Reactie gewijzigd door PerfectionVR op 25 juli 2024 23:17]

X90 was altijd de dual gpu variant van de X80. Tot de titan was de X80 altijd de snelste single gpu game kaart van Nvidia.
de X80 is altijd de high-end topkaart. De X90 is de dual GPU versie van die x80 chip. Soms komt er nog een revisie van de x80, en dat wordt dan de 80 (ti). Dat is niet standaard.
Met mainstream word bedoeld dat het op consumenten is gericht, de quadro kaarten zijn gericht op de professionele markt. Het is welliswaar een high end consumentenkaart, maar nogsteeds mainstream.
Wat is nou precies het verschil tussen een mainstream kaart en een high end kaart? Deze kaart zou beter presteren dan een GTX 780Ti maar behoort nog steeds tot mainstream?
correct me if i have it wrong.

High end kaarten zijn niet bedoeld voor gamers oftwel meer in de richten van quadro kaarten en amd's firepro wat weer ingezet word om filmpjes te bewerken enz.

[Reactie gewijzigd door xleeuwx op 25 juli 2024 23:17]

Dat noemt men professioneel.
Dit is gewoon high-end. Zou het zo klassificeren:
x10 - x40: Low-end
x50-x60: Mainstream
x70-x80: High-end
x90: Enthousiast
Ik zou Mainstream hernoemen naar Mid-end.

En mainstream voor consumenten en de rest voor industrie/professioneel gebruik.
Helemaal mee eens. Tweakers roept maar wat onzin.
Ik ben er altijd van uit gegaan dat dit zo was al was mijn naam voor low-end, Budget.
Al moet ik zeggen dat mijn 2x560 nog steeds retegoede (high-end) prestaties leveren na al deze tijd.

Tot de 500 serie liep ik altijd mee met de nieuwste en snelste maar het is gewoon amper meer nodig (zelfs met BF4).
Waar is de echte GPU-killer-game zoals de 1e Crysis de 8000/9000 en ook nog wel de 200 serie op de knieen dwong en er ineens grote stappen werden gemaakt.
Zo klopt het inderdaad.
Ja, zo te zien klopt dat inderdaad. Al vind ik 600+ euro voor een ' mainstream' kaart nou ook niet echt een mainstream prijs. Maar dat is waarschijnlijk omdat ik het begrip mainstream verkeerd gebruik.
Mainstream word hier door tweakers gebruikt.
LIjkt me duidelijk foutief.
zal aan de prijs liggen denk ik en tevens is de titan Z een indruk wekkend stuk beter
Hmm dan wacht ik toch nog maar even met het aanschaffen van een nieuwe videokaart. Als deze binnenkort uitkomt en niet duurder als een titan word is het wellicht leuk :)

er is zelfs een facebook pagina voor xD
https://www.facebook.com/...e-GTX-880/124616581039329

[Reactie gewijzigd door xleeuwx op 25 juli 2024 23:17]

780 GTX - 12000 Kc is volgens mij zo'n 450 euro give or take
880 GTX - 16000 Kc z'on 580 euro. Dat staat tenminste in de referentie

Referentie (of zie topic): http://pctuning.tyden.cz/...ce-gtx-880-se-predstavuje

[Reactie gewijzigd door PerfectionVR op 25 juli 2024 23:17]

€583,07 om precies te zijn. Niet echt wat je noemt een 'mainstream' card. Wel vindt ik dan een bus van 256-bit nogal krap. Tijd dat ze 512-bit gaan hanteren!
De 750 ti heeft ook een kleinere geheugen bus (128bit) . De Maxwell generatie heeft namelijk een veel grotere L2 cache (van 256KB naar 2MB), daardoor zijn deze een stuk efficienter .

de 750ti kan daardoor concureren met een vorige generatie met een een bus van 192-bit.

[Reactie gewijzigd door CaineTanathos op 25 juli 2024 23:17]

Anoniem: 120693 @niektb10 april 2014 17:06
De breedte van de bus is een van de moeilijkste dingen om te verbeteren en heeft maar een beperkte invloed. 512 is dus op dit moment alleen voor de topklasse.
Inderdaad, gewoon niet weggelegd voor een kaart zoals de Titan Z.
Tegen dan komt de volgende aankondiging waar je op kunt gaan wachten.
Mag hopen dat er niet veel van klopt. een lagere geheugenbus is gen goed teken.
Ik weet nog dat ik mijn 512 bits gtx 285 had en die ging langer mee dan bijn 256 bits concurenten puut door de geheugenbus.
De bijna even snelle kaarten met een trager geheugen moeten het veel eerder opgeven bij zware games.

Als ze hier echter een 512 bits instoppen is het een beest van een kaart.
Helaas zal dat ding wel 550 euro kosten wat ik echt niet over heb voor een gpu ik leg de grens bij 350.
Maxwell heeft een L2 Cache van 2MB, dus die 256-Bit Bus is totaal geen probleem.

Daarbij loopt het geheugen nog eens op 7,4 GHz ook. En dat kan mss nog wel geOCed worden naar 8 GHz.
Dat het op een hoger mhz loopt maakt niet veel uit de totale bandbreedte is een forse bak minder

Het is namelijk gewoon 71% trager dan de 780ti.
2MB L2 Cache i.p.v. 256KB
Ja dat zeg je nu voor de 2de keer maar meer cach is geen garantie voor betere prestaties...
Oude intels hadden ook 3x meer cache als een veel goedkopere amd chip en die waren nog altijd trager.
gemiddelde game rendering is ZO veel data dat die 2MB net zo goed een belemmering kan zijn ipv een voordeel.
met2x zo snel geheugen is het misschien beter om direct naar het geheugen te schijven en de cache te negeren.

Onmogelijk om te weten maar ik weet uit ervaring dat high end kaarten met sneller geheugen langer meegaan en zwaardere gamesmet minder problemen draaien.

Op dit item kan niet meer gereageerd worden.