Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , 105 reacties
Submitter: yrxcf

Er zijn afbeeldingen verschenen van een printplaat met daarop mogelijk een op de Maxwell-architectuur gebaseerde GM210-gpu van Nvidia en 8GB geheugen. Het zou gaan om een vroege versie van de GeForce GTX 880-kaart.

De afbeeldingen verschenen als eerste op de Chinese site MyDrivers en tonen een printplaat van een videokaart en een close-up van de gpu. Op de gpu staat de code-aanduiding 1421A1 waaruit af te leiden is dat het om een A1-revisie van de chip gaat die in de 21ste week gefabriceerd is.

Volgens de Chinese bron gaat het om een printplaat van de GTX 880 met de GM210, een highend-videochip die op de zuinige Maxwell-architectuur is gebaseerd. De enige chip voor desktopkaarten die Nvidia tot nu toe heeft uitgebracht was de NM204 van de GTX 750 en 750 Ti. Volgens Videocardz gaat het overigens ook bij deze nieuwe foto's om die GM204; de GM210 zou pas in het tweede kwartaal van 2015 te verwachten zijn.

Het prototype is in ieder geval met 8GB geheugen uitgerust, bestaande uit zestien SKHynix H5GQ4H24MFR-modules. Verder zijn er drie stroomaansluitingen, twee zespins- en een achtpins-versies, wat opvallend is gezien de energiebesparingen die Nvidia gerealiseerd heeft. Onduidelijk is wat er vaag gemaakt is op de afbeeldingen. Geruchten gaan wel dat de GTX 880 over een ondersteunende arm-soc zal beschikken.

Printplaat mogelijke GTX 880 GM210Printplaat mogelijke GTX 880 GM210Printplaat mogelijke GTX 880 GM210Printplaat mogelijke GTX 880 GM210Printplaat mogelijke GTX 880 GM210

Moderatie-faq Wijzig weergave

Reacties (105)

zou fijn zijn als ze wat stappen verder komen om het energie verbruik in te dammen.
het is toch eigenlijk raar dat een VGA 2 x a 6 x zoveel stroom vreet als de rest van de pc....
Hoezo is dat raar? De GPU is toch wel het meest krachtige stukje hardware in je pc, dus dan is het niet zo raar dat het ook meer stroom slurpt. Daarnaast gaat het hier om een pre-productie model, dus die aansluitingen zeggen echt 0,0 over de uiteindelijke kaart. Die zijn daar alleen maar bedoelt om een stabiele werking te garanderen. Het enige wat we nu eigenlijk weten is dat ze bezig zijn met de GTX 880 en dat is ook meteen alles. Dingen als geheugen, pcb formaat, stroom aansluitingen, outputs, etc kan allemaal nog wijzigen.
Als je al in dit stadium bent van prototype ontwerp zal je PCB niet al te veel meer wijzigen kan ik uit ervaring spreken
Ja en nee. Kijk je naar de laatste generatie Titan Black (en dat is nog niet eens de Titan Z) verbruikt deze 250 watt terwijl de laatste Intel slechts een peak tdp heeft van 130 watt. Je merkt toch wel dat Intel constant zoekt naar energie zuiniger terwijl Nvidia dit toch beduidend minder heeft. Generatie op generatie lijken GPU's zelfs meer energie te slurpen terwijl CPU's blijven steken rond de 100 watt.
De 8800 Ultra van een paar generaties geleden vebruikte anders toch echt +/- 375 watt. Dus nee, ze gaan niet steeds meer energie verbruiken. Daarnaast kun je het vebruik van cpu's niet vergelijken met gpu's. Dat is hetzelfde als een wasmachine met een drooger vergelijken. Allebij doen ze iets met de was, maar wel iets compleet anders en daarbij ook het verschillende energie verbruik.

En zoals ik al zei, over de GTX 880 valt echt nog niks te zeggen. De PEG stekkers die op de foto's te zien zijn, zijn bedoeld voor het pre-productie exemplaar. Het kan dus maar zo zijn dat de uiteindelijke kaart maar 2x PEG6 of 1x PEG8 krijgt...
zou fijn zijn als ze wat stappen verder komen om het energie verbruik in te dammen.
het is toch eigenlijk raar dat een VGA 2 x a 6 x zoveel stroom vreet als de rest van de pc....
6 x zoveel? Dan heb je wel een hele dikke VGA op een verder vrij zuinig systeem. Het verbruik van videokaarten is al redelijk teruggedrongen. Op fullload pakt zo'n kaart inderdaad wel wat stroom, maar dat is echt geen 80% van het totale verbruik hoor.
Volgens mij moeten we het lezen als twee tot zes keer zo veel als alle andere componenten van het systeem, en zes keer is totaal overdreven. Maar als Nvidea het lukt om hun nieuwe high-end kaart op twee maal zes pins te laten lopen, zal het verbruik tussen de 250 en 300 Watt in liggen, zes plus acht pins kan je op 300 tot 350 Watt rekenen. Voor CPU en moederbord samen kan je zeker voor 125 Watt klaar zijn, en voor alle aanvullende componenten kom ik niet boven de 50 Watt uit (SSD, harddisk, dvd en een controlepanel). Twee keer het verbruik van de andere componenten red één high-end videokaart wel. Twee kaarten kunnen in de richting van zes gaan.

[Reactie gewijzigd door Johannes77 op 3 juli 2014 11:09]

Ik dacht dat het 75W van de PCIE was, 75W voor een 6pin en 150W voor een 8pin.
Dan kom je op een maximaal verbruik van:
- 225W voor 2x 6pin
- 300W voor 1x8pin + 1x6pin

Moest Nvidia erin slagen om een kaart te maken die pakweg 20% sneller is dan een GTX 780 Ti met een maximaal verbruik van slechts 225W, zou dat toch een goede prestatie zijn. Een GTX 780 Ti verbruikt nu namelijk gemiddeld ongeveer 230W, maar het maximaal verbruik gaat tot bijna 300W. Men zou dan kunnen verwachten dat als het maximaal verbruik van de nieuwe GTX 880 op 225W ligt, het gemiddeld verbruik rond de 180W zal liggen. Daaruit volgt dan een prestatie/wat verbetering van wel 50%!
Off topic: Ik heb gehoord dat je volgens de nen1010 3680watt kan voeren door 1 koperen ader van 2.5mm kwadraat. waarom zijn er dan circa 10 aders van 1 tot 2 mm nodig? in een pc?
omdat het 12v is met meer ampere of omdat het dc is?
NEN 1010 gaat over electrische installaties in huizen en bedrijven tot pak 'm beet 1000 tot 1500 V, afhankelijk van of het AC of DC is. En bovenstaande kan wel eens van toepassing zijn op een normale huisinstallatie, dus ca. 230 V. Dan zijn je amperàges veel lager om aan dat wattage te komen.

Daarnaast, voor een gloeilamp is stabiliteit van de spanning niet zo boeiend, want die brandt op 220 V net zo goed als op 240 V. Voor een GPU zijn dat soort schommelingen echter minder tof.
zet maar eens 2 a 3 kaarten paralel dan gaat het heel hard

een gewone i5/i7 op stock snelheden die doen een 60 a 160 w
zet maar eens 2 a 3 kaarten paralel dan gaat het heel hard

een gewone i5/i7 op stock snelheden die doen een 60 a 160 w
Natuurlijk, in een extreme setup kun je het verbruik ook wel flink pushen natuurlijk, maar dat is de welbekende uitzondering op de nog bekendere regel.
nou ik heb wel wat I5 systemen die op top 90 w verstoken ,, en als je daar een leuke bescheiden GTX 660 TI in propt die kaart neem zo 250 a 300 W op

of met een GTX 780 Ti DirectCu II OC waar je zo een 450 a 480 W nodig heb.
Dat hangt ook af van wat de applicatie doet.
Als je een spel speelt dat vooral bezig is met supergedetaileerde graphics en weinig andere dingen dan zal de GPU harder werken dan de CPU.
Een GPU is dan ook bijna een PC opzich dus zo heel raar is het niet, in veel berekeningen ook sneller dan je PC. Wil je zuinig? Kan ook maar dan moet je gewoon geen high end kaart kopen...
Het energieverbruik boeit toch helemaal niet bij high end kaarten? Niemand zal een high end kaart kiezen op basis van energieverbruik.
Een videokaart zit zo rond de 200/250 watt. dat is een derde van een gemiddeld systeem. Dat is dus niet 6x zoveel.
Klopt, hier is een mooi overzicht van een groot aantal GPU's en hun stroomverbruik:

http://www.pc-erfahrung.d.../vga-grafikrangliste.html

Als je de high-end single GPU's vergelijkt kan je er eigenlijk wel vanuit opmaken dan het vergelijkbaar zal zijn, de performance per watt neemt toe maar het stroomverbruik zal wel grotendeels gelijk zijn.
pak maar eens een GTX 780 Ti DirectCu II OC met een 450 a 500 W opgenomen vermogen

en als je een bescheide i5 neemt die tussen de 60 a 90 w op neemt kom je een heel eind in de buurt van mijn stelling
Opgenomen vermogen totaal van het systeem. De kaart zelf neemt maar tot 250watt op. Sterker nog ik Kan die kaart op mijn 500watt voedings systeem prima draaien in combinatie met een zwaar overgeclockte Corei5 Sandy bridge.

Bij reviews wordt vaak eht totaal verbruik gemeten. Dus niet alleen de kaart.
Zuinige kaarten zijn ook gewoon te koop. Er is een markt voor krachtige kaarten en dat kan nu eenmaal niet zonder hoog verbruik.
Volgens de Chinese bron gaat het om een printplaat van de GTX 880 met de NM210, een highend-videochip die op de zuinige Maxwell-architectuur is gebaseerd.
Ik zie anders 1x8-pin en 2x6-pin aansluitingen om dit beestje van stroom te voorzien....
Ah, staat ook in het artikel. Maar ben dan ook wel erg benieuwd waarom deze er zitten. Wellicht om de kaart beter/verder te kunnen overclocken? Of hij is gewoon een stroomvreter....vragen vragen vragen...:+

[Reactie gewijzigd door Perkouw op 3 juli 2014 10:08]

Op prototypes zitten wel vaker veel stroomaansluitingen. Deze kaarten zijn testkaarten, en natuurlijk niet bedoelt voor de markt. Bij bepaalde testen willen ze zich wel verzekeren van voldoende toevoer.
Correct, ze zullen in di geval waarschijnlijk willen testen of 2x6 voldoende is, of dat men 1x6 + 1x8 nodig heeft voor de kaart.

De GPU die die is ongeveer 20x20mm als ik er van uit ga dat de koeler montage gaten rond de GPU chip 55mm uit elkaar staan, zo als bij de meeste high-end kaarten, dat zou dat uitkomen op die van 400mm2.

Daarnaast is het de vraag of het hier om een 20 of 28nm proces gaat, wan als de GPU op 20nm gebakken is, kom je in vergelijking met 28nm, op effectief 550mm2 uit, als ik goed gerekend heb.
Daarnaast is het de vraag of het hier om een 20 of 28nm proces gaat, wan als de GPU op 20nm gebakken is, kom je in vergelijking met 28nm, op effectief 550mm2 uit, als ik goed gerekend
Heb je helaas niet goed uitgerekend, het gaat om oppervlak. Dus wordt het

400 / 20^2 * 28^2 = 784 effectief.

Oftewel bijna dubbel en daar worden de afmetingen van het volgende proces ook al decennia lang op gebasseerd (en zo is Moore's Law ook een self-fulfilling prophecy).

Ben benieuwd hoeveel shaders deze kaart gaat hebben
edit:
@Player-X: Even rondgeneust op internet om te kijken hoe dit in de praktijk uitpakt

Op deze pagina

http://en.wikipedia.org/wiki/Transistor_count

Vind je cijfers over count, process en oppervlak van veel processoren.

Ik heb de Core i7 gepakt van 32nm en 22nm. Deze zou volgens mijn berekening 2,12 moeten schalen. In het echt schaalt deze maar 1,85 met het aantal transistoren per oppervlak.

Kijk je naar Fermi en Kepler op respectievelijk 40nm en 28nm dan kom ik op met mijn berekening op een factor van 2,04 en gaan er daadwerkelijk 2,08 keer zoveel transistoren in hetzelfde oppervlak.

De praktijk blijkt bij NVidia dus wel redelijk overeen te komen met mijn berekening.

Een 400mm die op 28nm kan dus ongeveer 4.8 miljard transistoren bevatten.
Een 400mm die op 20nm kan dus ~9 miljard bevatten.

Dat laatste zou ook meer overeenkomen met een nieuwe high end videochip.

[Reactie gewijzigd door PuzzleSolver op 3 juli 2014 16:35]

Niet helemaal correct, daar transistors in een proces srink niet 100% schalen maar eerder ongeveer rond de 50%.

Edit:
Van wat ik heb begrepen geld dat de verminderde rendement vooral geld voor onder de 28nm, daar er meer ruimte vrij gehouden moet worden om overspraak te verkomen.

[Reactie gewijzigd door player-x op 4 juli 2014 11:26]

zoals GTX750, 28nm waarschijnlijk... de 20nm zijn voor later dacht ik...
Het is natuurlijk een test modelletje, dat hoeft helemaal niet te betekenen dat de kaart in de winkel ook drie stroomaansluitingen krijgt. Wellicht heeft het wel iets met de stabiliteit te maken bij een vroeg exemplaar van een nieuwe chip, of misschien hebben ze gewoon het reference ontwerp van de printplaat nog niet helemaal af en was dit even makkelijker om wel al wat te testen.
In deze opzet heeft deze GPU dus 375W ter beschikking. Ik mag toch hopen dat het maximaal opgenomen vermogen in de definitieve vorm een stuk lager is.
Waarom?

Ik begrijp niet dat mensen steeds maar zitten te miepen om wattage verbruik. Als ik een high end videokaart heb, verkies ik liever een hoger wattage boven mindere prestaties
Meer opgenomen vermogen betekend meer warmte die afgevoerd moet worden, dus ook meer koeling. Meer koeling gaat vaak gepaard met meer / sneller draaiende fans's die meer geluid produceren. Tevens vereist dat ook meer van je voeding.
Meer is niet altijd beter. Je ziet dat de koeling met de refresh van Kepler opeens tien keer beter - en vooral stiller- kon. Toeval? Nee. Er was gewoon meer geld voor vrijgemaakt. Nvidia bouwt een blower die bijna gelijk presteert aan open-air koelers, dat was best een grote stap vooruit, en had niets met het opgenomen vermogen van die GPU's te maken.

Daarbij, je verhaal klopt in theorie maar in de praktijk is met een goed afgesteld fan profiel het verschil tussen 41 dB en 43 dB echt niet merkbaar. Want dat zijn de verschillen waar we het over hebben. Dat geneuzel over opgenomen vermogen is in de high-end gewoon een lulverhaal want alles zit boven de 230w en heeft dus een flinke koeling nodig. Het verschil wordt gemaakt door het type fans en de afstelling ervan, en hoe effectief die het koelblok koelen - niet door 10 watt meer of minder.

Het enige waarvoor die performance/watt echt interessant is qua geluid, is aan de onderkant van de markt waar je steeds meer GPU kracht passief kan gaan koelen.

[Reactie gewijzigd door Vayra op 3 juli 2014 12:35]

Goed ontwerp en degelijke koelers kunnen al zoveel meer warmte afvoeren dan een simpele 90watt kaart met compleet brakke koeling/fan (die in overdrive gaat).

En ik denk dat als jij in dit segment werkt, 'stil' niet echt onderdeel is van het geheel.
Mijn GTX 760 word ook een kookplaat als ik zit te gamen. Maar dat ding maakt alsnog minder herrie dan mijn gouden voeding.
Daarnaast, ik heb geluid aan als ik game, weet niet wat jij doet. Wat maakt geluid sowieso uit, je hoort het toch niet.

[Reactie gewijzigd door batjes op 3 juli 2014 12:07]

En dan graag ook niet gaan "miepen" dat je peperdure kaart niet goed benut wordt doordat de huidige generatie consoles zwak is. Daarvan zitten de gebruikte gpu's qua verbruik/warmte gewoon aan het maximaal haalbare. En qua games zijn we tegenwoordig wat betreft de ontwikkeling toch aangewezen op die consoles.

Iedere keer kaarten maar weer meer energie laten slurpen voor meer performance is ook niet echt vooruitgang te noemen natuurlijk.(niet dat er helemaal geen vooruitgang is op het gebied performance/watt).

[Reactie gewijzigd door TheDukemaster op 3 juli 2014 13:59]

Iemand die een Ferrari koopt kijkt ook niet naar het verbruik.
Geruchten gaan wel dat de GTX 880 over een ondersteunende arm-soc zal beschikken.

Dus krijgt het vlaggenschip van Nvidia nou naast PhysX en de GPU's ook een CPU om data te verwerken? Neemt het dus (deels) de taken over van de main CPU?

[Reactie gewijzigd door Dudwich op 3 juli 2014 10:40]

Het zou kunnen zijn dat inderdaad een gedeelte van de driver overhead overgenomen zou kunnen worden door die ARM CPU. Een beetje zoals Mantle nu (softwarematig) doet voor AMD, alleen dan zonder dat dat specifiek voor de game ontwikkeld hoeft te worden. Interessante ontwikkeling.
Grappig, wie weet gaan ze straks dan ook nog een ssd inbouwen, om de veelgebruikte textures te cachen. Misschien ook direct een gigabit poort, zodat de lag ook minder wordt. Of enkele usb poorten zodat je toetsenbord en muis sneller gaan.
(ja ik weet dat dat zo niet werkt, ik maak maar een geintje)
Alle gekheid op een stokje, iedere nieuwigheid die ze kunnen aanbrengen die de kaart nog sneller doet gaan is uiteraard mooi meegenomen.
Grappig, wie weet gaan ze straks dan ook nog een ssd inbouwen, om de veelgebruikte textures te cachen.
Dat hebben ze al en dat noemen ze: geheugen.
Op zich zou het toch iets kunnen zijn. Misschien heeft het nut om bepaalde gebieden van games in de onboard SSD te plaatsen zonder ze in het geheugen te plaatsen. Dan heb je een langzamere variant van geheugen met wel een grotere capaciteit die efficiënter/sneller de data van Onboard SSD <> GDDR kan kopiëren.

Stel je voor dat je dan bijv. na het laden van het 1e deel van de map de game start. Terwijl de game al draait, is het dataverkeer een stuk lager tussen de videokaart en het moederbord (lijkt mij; er zullen naar mijn idee voornamelijk enkel instructies over de draadjes gaan en misschien wat kleinere ondersteunende assets)

Met de bandbreedte die over is, kan de onboard SSD alvast gevuld worden met extra delen van de map. Het volgende gebied kan dan sneller geladen worden, omdat (in theorie) de bandbreedte Onboard SSD <> GDDR hoger is dan de bandbreedte die beschikbaar tussen de videokaart en de HDD/SSD van het systeem. Of je kan ze zelfs combineren; 50% van de assets van de systeem SSD en 50% van de onboard SSD.

Uiteraard is dit technisch gezien wel erg complex om te realiseren, los van het feit dat er geen gestandaardiseerd API voor is (lijkt mij)

[Reactie gewijzigd door Gamebuster op 3 juli 2014 11:41]

Volgens mij wil je echt niet constante read/write operaties hebben op een SSD tijdens het gamen. Daar is geheugen veel beter geschikt voor en ook veel minder foutgevoelig.
Zit ook weer wat in...
GDDR geheugen is pakken duurder dan flash geheugen. En meer GDDR geheugen aanspreken is niet kwestie van gewoon wat meer plaatsen. De geheugenbus moet het aankunnen en uiteraard de chip die het aanstuurd. (lees voor pakweg 24GB GDDR bestaat dit nog niet)

Waar hij feitelijk naar toe wilt al heeft hij het zelf nog niet helemaal door, je plaatst flash geheugen rechtsreeks op de PCB ter uitbreiding van het GDDR geheugen.

Je krijgt dan 8GB GDDR met 24GB extended buffer in flash geheugen.

Voor het laden van maps lijkt het mij de de moeite niet waard. Immers de interne SDD is even snel als die buffer met uitzondering dat het nog over de PCI bus moet gaan. Maar die heeft ruimte zat dus daar win je bijna niets op. Minder latency maar maakt ook niets uit.

Het enigste waar je dit voor zou willen dat ik mij kan bedenken is om textures on the fly te wisselen. En gebruik maken van het snelste van het snelste op gebied van flash geheugen. Dan zou je meer verschillende textures/hogere kwaliteit gaan gebruiken en aangezien je ze nooit echt allemaal nodig hebt op hetzelfde moment zit er iets in.
Echter is dit enorm lastig om te implimenteren zonder dat het buggy gaat aanvoelen.

Er was een hele tijd geleden een game die hogere kwaliteit textures inlaade voor het gebied naar waar je keek. Het leverde mooie kwaliteit op zolang je naar hetzelfde keek maar van het moment je wat bewoog zag je meteen low quality textures die een paar tellen later veranderen in hogere quality. Het geeft niet enkel een buggy gevoel maar het trekt constant je aandacht wat feitelijk nog erger is. Eenmaal je echt opgaat in een spel maakt het grafische gedeelte niet echt meer uit. Echter in dit spel dus niet. Moest ik nu ook nog op de naam komen (help iemand? |:( )

Al bij al leuk idee maar ik kan mij niet inbeelden dat dit ooit vlot zou werken (is een lapmiddel om niet het duurdere GDDR te moeten uitbreiden). Overigens heeft dit enkel kans in console, op PC ga je nooit te support krijgen hiervoor (betaalde uitzondering daargelaten) van ontwikkelaars.
kan voor van alles zijn:
- ondersteuning voor de SLI frame pacing
- driver overhead
- ontlasten van bepaalde delen van de gpu
- load balancing binnen de gpu
Frame pacing is van AMD niet Nvidia
Frame pacing is gewoon de naam voor het aflevertempo van frames, en dat zullen toch echt alle GPU's moeten doen.
Ik was in de veronderstelling dat AMD het framepacing noemt en niet Nvidia. Vandaar.
Blur is waarschijnlijk omdat het een japanse kaart is ;) j/k natuurlijk

OT: die geheugen race is nu meer gericht op de video kaarten lijkt het, elk jaar komt er nu een kaart uit met meer geheugen. 8gb biedt samen met hopelijk stuk hogere snelheid/power weer meer mogelijkheden voor high end game settings. :D
Er is niet zozeer een geheugenrace bezig, er is eerder een resolutierace bezig bij de schermen. 4K schermen worden meer en meer populair waardoor meer geheugen op een videokaart noodzakelijk wordt.
4 GB is al een minimale vereiste om een beetje te gamen op een 4K scherm. Je ziet dat een 290x hier nVidia concurrenten gewoon volledig wegblaast doordat die gewoonlijk 3GB op een lagere bandbreedte hebben, waarbij verschillen zoals 27FPS voor een AMD voor 3 voor nVidia normaal zijn. Absurd. De 6GB 780TI verhelpt dit probleem dan ook grotendeels al moet de bussnelheid ook gewoon omhoog. 384bit om 512 als ik me niet vergis...
Ik vraag me voor de grap nu toch af hoe zwasr ze de vrm's op dit test model hebben over gespecificeerd, dat het geblurred wordt XD

Wat ik begrepen heb is dat je zo'n hoeveelheid Vram wel moet combineren met een grote bus, anders heb je er toch minder winst dan eigenlijk mogelijk was :/
alleen geheugen schiet niet op nee, dat moet wel goed aan te spreken zijn door de kaart.

@ aval0ne, dat is zo, dat gaat hand in hand, hogere resoluties vs betere hardware, maar voorheen ging het ook wel omhoog maar bleef de 1-2 gb vrij lang hetzelfde terwijl er toen wel die grotere schermen van 24-27" 1440x2560 resolutie bijkwam. Valt me nu gewoon op dat die bijna elke generatie wel een gb of 2 bij komt.
Nouja, als UHD-schermen voor gamers inderdaad in opkomst zijn, is die 8GB nog niet eens overbodige luxe :D Maar het is wel een flinke stap voorwaarts inderdaad.
Nouja, als UHD-schermen voor gamers inderdaad in opkomst zijn, is die 8GB nog niet eens overbodige luxe
Leg dat eens uit. ;)
Hoe hoger de resolutie hoe groter één frame in het geheugen is. Dus om meer frames in de buffer te kunnen hebben is meer geheugen nodig. Daarnaast kunnen we hopen dat wanneer op hogere resoluties gegamed wordt ook grotere textures gebruikt gaan worden waardoor meer geheugen van pas komt.

Zijn vast nog wel meer dingen te bedenken die een link leggen tussen geheugen op videokaart en resolutie van het scherm dat aangestuurd wordt (aangenomen dat op de native resolutie gespeeld wordt).
Er zit een kern van waarheid in je redenering maar het framebufferverhaal blijkt een hardnekkige gevoelskwestie te zijn. Tijd voor wat getalletjes dus :) ;)

Laten we even uitgaan van 4K UHD (2160p) en aannemen dat alle buffers gebruikt worden en in vram staan.
Bij een aspect ratio van 16:9 is 2160p gelijk aan 3840×2160.

Frame buffer (32-bit double buffered): 3840*2160*4*2 = 66.355.200 B
Depth buffer (32-bit): 3840*2160*4 = 33.177.600 B
Stencil buffer: 3840*2160*1 = 8.294.400 B

Dat is bij elkaar 107.827.200 bytes oftewel een kleine 103 MB. In het geval van 8 GB is dat (103/8192)*100% = 1,26% van de hoeveelheid beschikbaar geheugen.

Dit is, naar mijn idee, toch tamelijk verwaarloosbaar te noemen. :)

Voor de getalletjes van 8K UHD (4320p) kan je alles met 4 vermenigvuldigen:
412MB aan geheugen en dat geeft een percentage van 5,02%.

Dit is nog steeds niet iets om steil van achterover te slaan.

Wat textures betreft heb je zeker een punt. Maar ook hier moet je niet de mogelijke overdadigheid vergeten. Wanneer is een hoge resolutie texture echt nodig?
Eigenlijk is dat alleen als je letterlijk met je neus tegen een object zit. En dan nog heb je (grofweg gezegd) genoeg aan een texture met de resolutie van het beeldscherm.
Een andere situatie is het wanneer je met een scope (of verrekijker) van dichtbij inzoomt op een texture. Hogere resolutie textures zouden dan zeker welkom zijn maar je moet je echter ook afvragen wanneer dat nou echt aan de orde is.

Een andere geheugenvreter is Anti-Aliasing (en met name supersampling omdat dit het meest geheugenintensief is). Hierbij wordt, in essentie, een beeld op hogere resolutie gerendert (namelijk in beide dimensies de resolutie x de AA factor) en vervolgens ge-downsampled naar de weergaveresolutie.

Op mijn 24" 1920x1200 (voor het gemak vergelijkbaar met 1920x1080) scherm zie ik het verschil eigenlijk niet meer tussen 4x en 8x AA maar laten we zeggen dat 8x AA nog zin heeft op deze resolutie
3840×2160 is 4x de oppervlakte van 1920x1080 (2x de breedte en 2x de hoogte) dus de dan wordt de maximale zinvolle AA factor 4x.

4xAA betekent dat het gerenderde beeld 16x zo groot is. Laten we het simpel houden en dus de hele zooi met 16 vermenigvuldigen.
Dan hebben we op 3840×2160 met 4x AA dus een totale "framebuffer" van 103*16 = 1648 MB oftewel 1,6 GB.

Dat gaat er al op lijken! :P

Als we hetzelfde grapje uithalen met 8K UHD dan valt er iets op. We hadden gezien dat de framebuffer daarvoor oorspronkelijk zo'n 412 MB was. 8K is 4x het aantal pixels van 4K (wederom 2x de breedte en 2x de hoogte) dus de AA factor kan naar 2x om nog nut te hebben.
2x AA betekent 4x zoveel pixels renderen dus de framebuffer wordt 4*412 = 1648 MB oftewel 1,6 GB.

Uitgaande van de welbekende discussies over het nut van hogere resoluties dan FHD op 6" smartphones, kan je stellen (ik heb de berekening elders eens gedaan maar om deze reactie niet al te lang te laten worden zal ik het samenvatten) dat 16K "super" UHD, uitgaande van een 24" scherm, de grens is van wat je redelijkerwijs nog daadwerkelijk kan zien.

AA is dan dus overbodig en je komt dan uit op een framebuffer van, jawel, 1,6 GB.
Dit is in ons voorbeeld een framebuffer die 20% van het geheugen in beslag neemt.

De grens is daarmee dus, zo ongeveer, wel bereikt wat betreft de framebuffer en dit percentage zal dus alleen maar lager zijn wanneer de hoeveelheid geheugen ook toeneemt. En dat gaat uiteraard gebeuren dus die 20% voor de framebuffer is een totaal onrealistisch worst-case scenario.

Uiteraard zullen er ook grotere schermen komen (waardoor de resolutie ook weer een stapje omhoog moet; dubbele afmeting -> dubbele resolutie) maar dat zal nog wel een suf tijdje op zich laten wachten als ik de huidige slakkengang zie waarmee de resolutie van desktopmonitoren omhoog gaat. En aangezien de hoeveelheid geheugen wederom alleen maar zal toenemen zal de framebuffer alleen maar meer te verwaarlozen zijn.

Tegen die tijd kan je je overigens ook afvragen hoe groot de monitor op je bureau kan zijn en je er ook nog zinvol gebruik van kan maken. Ook de grenzen van beeldschermafmetingen komen dan heel rap dichterbij.

Feitelijk heb je dezelfde beperkingen met de grootte van het scherm als dat je hebt met de maximaal te onderscheiden resolutie.
24" -> 48" -> 96". Twee stapjes en dan staat er een scherm van ruim 2x1 m op 50 cm afstand van je neus.

Voor textures geld nog steeds het bovenstaande verhaal: het is afhankelijk van de resolutie wat je redelijkerwijs nodig hebt. Geinig om -in een game- individuele huidschilfers te kunnen zien door je sniperscope met een vergroting van 1000x maar het is niet heel nuttig.

Meer geheugen wordt uiteindelijk dus alleen maar leuker voor het opslaan van meer verschillende textures. Of voor eventuele nieuwe geheugenvretende techniekjes om het mooier te maken natuurlijk.

Maar om die verdraaide :P framebuffer zou ik me maar geen zorgen maken. :)

't Is laat dus hopelijk heb ik geen stomme rekenfouten gemaakt :)
Als dit een high-end (de '10' aanduiding doet een doorontwikkeling van de Titan-chip vermoeden) onderdeel is dan is het best logisch, van 6GB naar 8GB is niet zo'n enorme stap natuurlijk.
Het valt me op dat die chip klein is, 20nm transistors er onder? Dit lijkt mij namelijk niet de 28nm variant gezien de chip het formaat heeft van een gk104 en toch veel meer aan boord gaat krijgen.
Hier blijf ik ook oven bij tot hij er is.

Ik hoop dat de geruchten kloppen.
Goedkoper dan zijn voorganger, kleiner, zuiniger en sneller.
ik ben bang dat je minsten één van de zaken uit je lijstje wensen weg kan strepen. Ik vermoed dat dat goedkoper zal zijn, de rest zou kunnen.
Hopelijk dat de defenetieve kaarten ook meer geheugen krijgen zoals op dit prototype het geval is, voor gamen op hogere resolutie ideaal, maar ook voor (zoals in mijn geval): 3d design.
Ik werk veel met 3d software en ben van plan om als de 800 serie uitkomt te upgraden naar een 870, veel vram is ideaal voor 3d ontwikkeling aangezien je meer ruimte in de kaart heb voor grote scenes, textures previewen in de viewport, etc.

Ben benieuwd wat de defenitieve kaarten aan boord krijgen, kan niet wachten!
Voor GPU rendering via CUDA, waarbij momenteel de hele scene nog in het vram moet kunnen ingeladen worden, zal deze ook van pas komen. De K6000 met 12GB GDDR5 doet beter, maar kost dan ook enkele duizenden euro's meer.
Ja klopt, dat is inderdaad ook een voordeel nu er steeds meer gpu based renderers en simulatie software komen (iray, octane, vray rt)
Vraag me wel een beetje af of ze zichzelf hier niet een beetje mee in de vingers snijden. Al zal het ook wel weer zo zijn dat openGL en double precision gewoonweg een stuk minder snel is als op de quadro kaarten.
Benieuwd naar de benchmarks straks.
Sorry hoor, maar kun je voor 3d werk niet beter een andere kaart pakken dan deze?
Als je graag een paar duizend euro voor een videokaart uitgeeft wel. Ligt er een beetje aan waar je in de markt zit, een studio die zn gehele inkomen uit 3d werk haalt is quadro the way to go want dan maken de kosten niet zoveel uit. Voor de gemiddelde persoon is een goede geforce kaart met veel vray veel meer bang for the buck.
HDMI 2.0 hopelijk...
of een nieuwe displayport. of meerde displayporten net zoals AMD doet zou nog beter zijn. Ik geef toe dat ik een nvidia/intel fanboy ben maar ik hou wel van die DP connectors.
het is toch GM210??
High-end kaart maar dan heeft ze maar 1 aansluiting. (DVI ?) hmm..
Edit: ofwel is het displayport, dan kan je de schermen daisychainen..

[Reactie gewijzigd door efari op 3 juli 2014 10:12]

Waarschijnlijk dat het daarom uit geblurred is, aansluitingen zijn ze waarschijnlijk nog aan het bedenken

Op dit item kan niet meer gereageerd worden.



Apple iOS 10 Google Pixel Apple iPhone 7 Sony PlayStation VR AMD Radeon RX 480 4GB Battlefield 1 Google Android Nougat Watch Dogs 2

© 1998 - 2016 de Persgroep Online Services B.V. Tweakers vormt samen met o.a. Autotrack en Carsom.nl de Persgroep Online Services B.V. Hosting door True