'GeForce GTX 880 en 870 met nieuwe Maxwell-gpu's komen in de herfst'

Nvidia zou van plan zijn om in oktober of november de GeForce GTX 880 en GTX 870 op de markt te brengen. Beide desktopvideokaarten zouden over Maxwell-gpu's van een nieuwe generatie gaan beschikken. Mogelijk krijgen ze additionele arm-cores.

Dat de nieuwe GeForce GTX 800-kaarten in het vierde kwartaal van 2014 komen, wordt gemeld door SweClockers, dat in het verleden bewezen heeft over betrouwbare bronnen in de hardware-industrie te beschikken. De gpu's zouden nog steeds op 28nm geproduceerd worden, net als de huidige generatie en de type-aanduiding zou GM204 zijn.

Volgens VideoCardz gaat het om kaarten die voorzien worden van additionele arm-cores. Nvidia zou de ontwikkeling van GM100-gpu's hebben stopgezet en zich volledig op de GM200-modellen richten. De videochips voor de GeForce GTX 880 en GTX 870 zijn niet de eerste op basis van Maxwell: Nvidia bracht al de GTX 750 en GTX 750 Ti met Maxwell-chips uit, maar dat waren mainstream-kaarten. De komende modellen betreffen high-end-videokaarten. Ook enkele laptop-gpu's in de 800M-serie zijn al op de nieuwe zuinige architectuur gebaseerd.

Maxwell sm-units

Door Olaf van Miltenburg

Nieuwscoördinator

18-06-2014 • 08:18

94

Submitter: CriticalHit_NL

Reacties (94)

94
88
41
9
0
36
Wijzig sortering
Als ik het zo lees gaat men zich meer richten op efficiëntie... geen schokkende performancewinsten maar grote stappen op gebied van verbruik. Zelfde trend als de CPU-markt eigenlijk.
Lijkt mij ook hoog tijd eerlijk gezegd. Als je kijkt wat een top videokaart tegenwoordig aan stroom verbruikt dan is dat toch wel een beetje doorgeslagen.

Neem een Geforce 780GTX, deze verbruikt 240W onder load. Dit lijkt niet schokkend, maar vergelijk het eens met een top kaart van jaren terug zoals een 7800GTX: 80W onder load. Dat is dus een verdrievoudiging. Sterker nog met de 7800GT werd het verbruik alweer terug gebracht naar zo'n 56W. Tegenwoordig zou een kaart met een dusdanig verbruik als low end beschouwd worden.

Een deel van de prestatie verbetering van de afgelopen jaren is dus over de rug van het stroomverbruik gegaan, alhoewel de grootste verschuiving in het high end segment zit.
Ik ben het eens met dat ze eens moeten kijken naar de TDPs (van de high end kaarten), maar ik zie ze niet meer terugkeren naar dat verbruik van de 7000-serie.

Overzicht:
http://www.geeks3d.com/20...esign-power-tdp-database/

Hier kun je zien dat sinds de 8800-serie, het TDP al bijna 200w is voor de top end, en sindsdien schommelt het eigenlijk tussen de 200 en 300 w. Dat is dus nu al bijna 10 generaties zo.

Wat je eigenlijk wil is de performance per watt verhogen. Maar dit is een geleidelijk process, en gezien je de concurrentie voor wil zijn, is het toch wel de bedoeling dat iedere nieuwe generatie sneller is dan de vorige.

Dramatische verlagingen in TDP zullen dus niet gebeuren, tenzij er regulering gaat komen voor grootverbruikers zoals op de automarkt (slurptax), of als ze met AMD rond de tafel zouden gaan zitten. Dat laatste zie ik echt niet gebeuren, en ook dat eerste is vrij dubieus.
Op zich is het leuk als het wat minder energie gaat verbruiken, maar met 4K displays die steeds betaalbaarder worden komt er juist ook weer meer behoefte aan nog meer verwerkingskracht. Met de krachtigste kaarten van dit moment zijn de games op die resolutie wel speelbaar, maar sommige games moet je wel al de detail settings omlaag schroeven. Als je stabiel 60 frames per seconde wilt halen dan heb je zelfs met twee topkaarten niet altijd voldoende.
Gelukkig gaat lager stroomverbruik en hoger haalbaar vermogen op een enkele kaart redelijk hand in hand wat betreft videokaarten. Als je een x aantal cores namelijk kan laten werken met de helft van het vermogen van de vorige generatie dan kun je ook relatief makkelijk twee keer zoveel cores op een chip stoppen. De beperking is over het algemeen het vermogen om het te koelen (en stabiel de stroom te leveren) en GPU's kun je vrijwel eindeloos opschalen wat betreft aantal cores.
hoezo ? maak je daar druk over.. deze chips hebben gewoon het wattage nodig, elke generatie krijg je 8 tot 10 fps meer met de zelfde stroomvebruik, opzich mag je echt niet klagen...

BTW

en 200 watt in een uur dat vreet echt niks

200 wattuur is 0,2 kilowatt 1kilowatt per uur = 21cent

we gaan uit dat je 4 uur per dag gamed dus 4x 0,2 * 0,21 = 0,168 x 365 dagen = 61 euro 32 PER JAAR !!! en 5 euro en 11 cent per maand... als je daar op wil bezuinigen kom op he...

[Reactie gewijzigd door Jeroentjeeuh op 23 juli 2024 08:59]

Je heb het duidelijk breed... niet iedereen heeft het breed en voor 60 euro eet ik 2 en een halve week...
Nou heb ik niks te klagen maar zeggen dat 60 euro niet de moeite is om te bezuinigen vind ik wel erg kortaf.

Daarbij is het ook nog beter voor het milieu maar dat boeit de meeste mensen toch al niks...
Reken eens uit wat wereldwijd dit aan megawatt is waar weer kolen gas en andere troep voor verbrand word!
Ik denk dat de ''verspilde stroom'' door meer vretende gpu's toch al snel oploopt naar de honderden megawatts wat inhoud dat dit om honderd duizenden huishoudens gaat.

individueel makt het niet veel uit behalve voor de portemonnee maar als je het groter bekijkt is het wel echt enorm.
Maak ik me druk ? Nee

Maar het stoort me wel dat mensen er zo makkelijk over doen.
Deze bol kan wel zonder mensen maar andersom is dat niet het geval en dus moeten we er beter voor gaan zorgen.
En Ik vind dat veel diersoorten een groter bestaansrecht hebben dan de mens dus ook daarom irriteert het me.
Wie zijn wij om zo zorgeloos te zijn terwijl we veel leven om zeep helpen?
En kom niet met het verhaaltje dat diersoorten ook zonder ons uitsterven aangezien er de afgelopen 100 jaar 905 uitgestorven zijn (on record) en de afgelopen 8 jaar gemiddeld 15 soorten per jaar!
Als je dat niet zorgelijk vind waar in de wereld moet ik me wel druk om maken dan ?
achja, je moet er iets voor over hebben. De snelheid van desktop CPU's is de laatste jaren niet echt gigantisch vooruitgegaan..
Weet niet waar je dat vandaan haalt maar als je een amd phenom 955 bekijkt wat de high end cpu was en nu de intel 4770k dan is hij minimaal 85% sneller van wat ik snel gezien heb en loopt dat op tot 4x sneller met sommige berekeningen.

En daarbij is de 4770 nog een 3x zuiniger ook.
Het lijkt mij wel evident dat het stroomverbruik niet zo belangrijk is als de performance (al scheelt het wel in het koelen), qua stroomkosten zal het heel weinig schelen voor iemand die een paar uurtjes per dag gamed. Voor miners is het natuurlijk een heel ander verhaal.
Gelukkig wel kan niet wachten om een UHD capabele GPU met een TDP van <200 watt in mijn ITX systeem te leggen.
Performance/watt van Maxwell blijft wel echt botergeil. Ben benieuwd of AMD hier ook maar enigszins bij in de buurt kan komen. (getuige de rare haast tegenovergestelde keuzes op gebied van efficiency in de cpu-divisie, FX9xxx, en recent met de R9 290/x denk ik dat Nvidia de winnaar gaat zijn van de volgende generatie op het gebied van performance per watt)
Moest meteen denken aan http://nl.hardware.info/n...verbruik-videokaarten-aan , dit zou "waarschijnlijk" gaan gelden in 2014.
2x meer performance per watt dan Kepler, dat is zeker geen kleine performancewinst.
Deze efficientiewinst leidt uiteraard naar meer performance, nog meer als in de CPU-markt.
GPU berekeningen kunnen veel meer paralel lopen dan vele CPU opdrachten.
Minder stroom & minder warmte per GPU-core -> meer cores per kaart.
Maar waar extra cores bij een CPU niet altijd (zelden) meer performance betekenen (als gamer), bieden meer GPU-cores wel degelijk stukken meer perfornantie.

Ik denk niet dat de gemiddelde gamer wakker ligt van het stroomverbruik, behalve dan dat ze de hitte moeten kwijt geraken. Logisch dan dat producten gericht op gamers eerder meer performantie zullen bieden aan het vorige verbruik, dan dezelfde performantie aan een lager gebruik.
Ik hoop dat ze hiermee de concurrentie met AMD op het gebied van GPU power een beetje kunnen verstevigen. Zeker op het gebied van power consumption heeft Nvidia zich al bewezen, misschien met zelfde hoeveelheid wattage meer performance?

De afbeelding geeft wel aan 2x meer performance per watt dan Kepler, maar blijft wattage hetzelfde bij nieuwe videokaart of gaat dat naar beneden en blijft de performance gelijk? Vragen waar we nog even het antwoord van af moeten wachten :)

Erg benieuwd naar hoe ze gaan presteren dan, deze herfst. Nog nieuwsgieriger naar de implementatie van ARM chips to be honest :P

[Reactie gewijzigd door thomasv op 23 juli 2024 08:59]

Wat we dus eigenlijk met deze nieuwe lijn kunnen verwachten is een zuinigere, maar niet perse snellere kaart. Ik denk dat we de echte nieuwigheden op het gebied van graphics pas gaan zien met de 900-serie. Ik ben wel benieuwd wat ze precies met die ARM-processor willen gaan doen en hoe ze denken dat dit hun oplossing is om bijvoorbeeld Mantle de nek om te draaien. Wel goed om te weten dat de 800-serie er aan komt. Zo wordt de 700-serie goedkoper en kan men dus toch meer highend kaartjes aanschaffen die niet perse onderdoen qua performance, maar natuurlijk wel qua energiegebruik.

Ik heb trouwens juist gelezen dat DX12 gewoon net zo prima gaat werken op de oudere kaartjes, zoals bijvoorbeeld een 700-serie en zelfs helemaal tot de 400-serie aan toe. Ook zouden ze DX12 gaan verbeteren ten opzichte van DX11. DX zou ook 'Mantle-like' moeten gaan werken. Hoe dit uitpakt geen idee nog. En wel apart: waarom heeft AMD dan eigenlijk hun eigen Mantle lopen maken terwijl DX straks ook anders gaat werken?
Anoniem: 471038 @DAMAGE18 juni 2014 12:51
Ik heb trouwens juist gelezen dat DX12 gewoon net zo prima gaat werken op de oudere kaartjes, zoals bijvoorbeeld een 700-serie en zelfs helemaal tot de 400-serie aan toe.
Yup, bij nVidia worden alle DX11-kaarten ondersteund, dus vanaf Fermi.
Bij AMD alle GCN-kaarten.
Er zullen wel ook enkele nieuwe features in DX12 geintroduceerd worden, die waarschijnlijk alleen op een volgende generatie GPUs gaat werken, die tegen die tijd pas op de markt komt.
En wel apart: waarom heeft AMD dan eigenlijk hun eigen Mantle lopen maken terwijl DX straks ook anders gaat werken?
Ik denk vanwege 2 redenen:
1) DX12 komt pas ergens eind 2015 op de markt. AMD kan dus met Mantle een voorsprong nemen, omdat ze dat nu al op de markt brengen.
2) AMD had er op gegokt dat Mantle ook op de XBox One en PS4 gebruikt ging worden, zodat ontwikkelaars met 1 API meteen 3 platforms konden ondersteunen, waardoor AMD dus ook weer een voordeel had ten opzichte van concurrenten.

Microsoft en Sony hebben echter een stokje voor punt 2 gestoken, en houden vast aan hun eigen APIs.

Edit: 3) Natuurlijk linux support: nieuws: AMD port Mantle naar Linux

[Reactie gewijzigd door Anoniem: 471038 op 23 juli 2024 08:59]

Omdat zonder Mantle, DX12 nooit zo gepushed zou worden.
Als je even op de screen gekeken had is dit ''nieuwé'' design 35% sneller wat voor vga kaarten een enorme stap voorwaards is. en ook no veel zuiniger.

Er kan dus enorm gespeeld worden.

bijvoorbeeld meer cores en minder zuinig maar wel heel snel of minder cores even snel en veel zuiniger.
Ik denk dat alle opties uit gaan komen maar dat de minder zuinige zeer snele weer een TI model gaat worden die weer word bewaard als reactie op wat AMD gaat doen.

1 ding is zeker een volledig unlocked gpu hiermee kan door het lagere gebruik veel meer cores hebben en dus veel sneller zijn het is alleen de vraag wanneer we deze full onlocked gpu te zien krijgen maar dat het een beest kan worden is zeker.

Ik kan persoonlijk niet wachten omdat ik graag een 4k scherm wil maar de huidige kaarten maar half zo snel zijn als nodig om games op 4k te draaien.
Echtenben ik bang dat full unlocked een soort van titan prijskaartje gaat krijgen en dat is me echt te veel.
Dus ik reken er al op dat ik gewoon 2 generaties (980 TI ?) pas single gpu games goed kan draaien en dan worden de games natuurlijk ook zwaarder dus zal het waarschijnlijk nog niet werken...
Ik had natuurlijk het plaatje wel gezien. Maar ze roepen 35%. Dat zal vast gelden voor inderdaad het fully unlocked model. Ik verwacht eerlijk gezegd dat een GTX 880 ongeveer 10% sneller gaat zijn dan een GTX 780 in de praktijk. Ik zeg niet dat het zo is, maar het is een verwachting die ik heb. Je ziet het bijvoorbeeld ook bij de GTX 780 en de GTX 780 Ti. In de praktijk is die slechts 10% sneller, en in sommige gevallen zelfs minder dan 10% sneller terwijl je er toch wel 200 euro meer voor neer moet tellen.

Nvidia is een bedrijf dat gericht is op zoveel mogelijk geld maken. Net zoals elk ander commercieel bedrijf dat doet. En dat is hun goed recht en moeten ze ook vooral blijven doen: daardoor krijgen wij mooie videokaartjes. Ze willen dus elke GPU (Net zoals nu met Kepler de Ti variant bijvoorbeeld) zo veel mogelijk uit melken als het gaat om cashen.

[Reactie gewijzigd door DAMAGE op 23 juli 2024 08:59]

En voor wat dienen deze additionele arm cores?
Misschien dat het hiervoor gebruikt wordt:

That site also mentioned that the GM210 and GM204 GPUs will be the first NVIDIA GPUs to feature an integrated ARM 64-bit processor core. Some speculate that the ARM core is supposed to handle the graphics driver overhead and be NVIDIA’s solution to head off AMD’s Mantle API.
Read more at http://www.legitreviews.c...45247#VeLFWPU4UUIZFbEJ.99
Dus als verweer tegen AMD welke 'driver overhead' delegeert/oplost door CPU low-level instructies te laten doen direct op de GFX chips gaat Nvidia nu een EXTRA CPU implementeren op hun GFX kaarten om dit op te vangen?...

Euhm, ja zo kan het ook natuurlijk.... :+
Ook enkele laptop-gpu's in de 800M-serie zijn al op de nieuwe zuinige architectuur gebaseerd.
De GTX860M is Maxwell. Volgens http://www.videocardbenchmark.net/high_end_gpus.html presteert hij pakweg net zo goed als een Kepler GTX770M.
Ben benieuwd hoeveel later de mobiele high-end Maxwells zullen uitkomen; dat kon ik zo gauw niet opmaken uit het Zweedse verhaaltje.
Die zijn al uitgebracht in maart dit jaar, zie notebookcheck.
Sorry, niet goed gelezen... Dat zijn nog de Keplars.

[Reactie gewijzigd door Rob Krauts op 23 juli 2024 08:59]

De GTX 870M en de GTX 880M zijn geen Maxwells maar opgevoerde Keplers: o.a. http://www.extremetech.co...ouble-gaming-battery-life
Dat is het punt juist; die zijn nog op Kepler gebaseerd.
Niet alle GTX860M zijn maxwell, veel laptops waaronder alienware komen met een GTX860M kepler.
Ahhh, hopelijk is dat de waarheid. Lijkt me heerlijk om minder watt er doorheen te hoeven trekken, voor dezelfde performance. (scheelt toch wel weer een leuk zakcentje bij regelmatig gebruik op jaarbasis)
Anoniem: 382150 @kevin439718 juni 2014 08:30
Met 22 cent per kilowat valt dat zakcentje reuze en reuze mee......
Elke watt die 24/7 verbruikt wordt kost je ongeveer €2 op jaarbasis.
Afhankelijk van hoe vaak je PC aan staat en hoe het powermanagement is kan dat best wat schelen.
Maar denk vooral eens aan je modem (paar watt), access point (al snel 10 watt), STB (die dingen staan soms continu 20 watt te verstoken) en dergelijke...
100 watt winst levert je 32 euro op jaar basis. uitgaande van 4 uur per dag gamen 365 dagen lang. stel dat dit een derde is dan scheelt het nog maar 10 euro.

Maar goed als het 100 watt minder verstookt dan wordt deze winst in mijn ogen voornamelijk geboekt op minder warmte productie. omdat dit puur verlies van energie is. 100 watt minder warmte betekend een koeler systeem. En dat is altijd mooi meegenomen
22 cent per joule per seconde? Dat betekent niets :+

KilowattUUR, dat wordt aangerekend: dat is een energiehoeveelheid, kilowatt is vermogen, dat gaat dus over je verbruik op een bepaald moment, niet je verbruik over een tijdsperiode.
Of gewoon een veel snellere kaart waardoor 4k gaming ineens een sprong dichterbij komt.

Van amd hebben ze qua stromverbruik toch al niks te vrezen. Die liggen mijlenver achter.
Zal de GTX 870 dan de prijs van de GTX 770 aannemen of zal deze hoger zijn? Ik had plannen om een GTX 770 te kopen, maar twijfel of het niet beter is om te wachten tot oktober/november.
Anoniem: 382378 @Dreeass18 juni 2014 10:55
Ik heb dezelfde vraag, op het moment zijn de AMD kaarten erg goed heb ik gehoord, maar toch wacht ik liever op een Nvidia. Zal dat het wachten waard zijn?
Ik verkies Nvidia omdat de kaarten van AMD veel meer (tot soms wel het dubbele) vermogen gebruiken dan gelijkwaardige Nvidia kaarten.
Dit is de laatste jaren ook al een stuk verbeterd bij AMD, maar Nvidia blijft nog beter idd.
Als je de kaart NU nodig bent zou ik nu een GTX 770 halen. Daar kun je nu een stuk goedkoper aan komen dan de GTX 870 straks bij release. Daar vragen ze natuurlijk de eerst komende tijd weer top dollar (euro) voor. Zodra die kaartjes weer een beetje is prijs zijn gezakt ben je alweer een halfjaar verder. En zo kun je steeds blijven wachten met kopen. Of het geld moet je niet uitmaken. Dan zou ik nog even wachten. Maar qua performance verwacht ik persoonlijk niet een monsterlijk verschil. Wel qua energie verbruik.
Dan denk ik wel dat ik de GTX 770 zal kopen aangezien nog een jaar wachten er zeker niet inzit voor mij. Bedankt voor de informatie.
Bart ® Moderator Spielerij @Dreeass18 juni 2014 19:08
Ik zou wachten op de GTX 970, schijnt nog beter en sneller te zijn. Of nee. De GTX 1070, die is helemaal de bom!

Wachten op iets beters is zinloos in computerland , dan wacht je namelijk tot je dood bent, zonder iets te kopen. Er komt altijd weer iets beters aan.
Als je ziet wat een 750ti al aankan qua settings en fps ben ik zeer benieuwd wat de ''high end'' kaarten gaan doen. Misschien word het dan tijd om van een 290 naar een 880 te gaan :P
Maxwell, Haswell, verwarrende naamgevingen komen er weer aan! :)
Ach, Haswell is inmiddels al weer "oud" ;).
Anoniem: 471038 @Pathogen18 juni 2014 09:58
Broadwell.
Mooi zo, met de verbeteringen die Maxwell op 28nm liet zien op 28nm was het natuurlijk nogal jammer als men maar op het problematische 20nm proces zou blijven wachten voordat er meer mee gedaan zou worden, zelfs op hetzelfde proces is Maxwell een gigantische stap ten opzichte van Kepler.

Ik zal nog wel een tijdje bij mijn GTX660 blijven, maar als ik in de toekomst het dubbele aan performance binnen hetzelfde stroomverbruik kan krijgen, graag!

Op dit item kan niet meer gereageerd worden.