Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Je kunt ook een cookievrije versie van de website bezoeken met minder functionaliteit. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Door , , reacties: 35, views: 12.164 •
Submitter: himlims_

Nvidia heeft tijdens de Gpu Technology Conference een nieuwe roadmap laten zien met daarop Volta, een nieuwe gpu-architectuur. Volta zal Maxwell opvolgen, de gpu-architectuur die in 2014 uitkomt, en moet gebruik gaan maken van 'stacked dram'.

Nvidia toonde de roadmap tijdens de GTC, waar Anandtech aanwezig was om verslag te doen. De meest opvallende feature van Volta is het gebruik van stacked dram, oftewel gestapeld geheugen. Nvidia wil het geheugen in dezelfde package plaatsen als die van de gpu en het met de gpu laten communiceren met behulp van through silicon via's, in plaats van via de gebruikelijke geheugenbus die nog uit 'ouderwetse' draden bestaat. Het voordeel is dat de geheugenbandbreedte dan explosief kan toenemen; Nvidia mikt op een geheugenbandbreedte van 1TB/s. Zowel Nvidia's als AMD's snelste gpu's moeten het vooralsnog doen met een geheugenbandbreedte van 288GB/s. De vraag is of het mogelijk wordt om 3GB of zelfs 6GB aan geheugen rondom de gpu te plaatsen, respectievelijk de hoeveelheid geheugen waarover de HD 7970 GHz en de GTX Titan beschikt.

In tegenstelling tot bij eerdere gpu-architecturen durfde Nvidia het niet aan om een jaartal te verbinden aan Volta. Daarom weten we alleen dat Volta komt na Maxwell, dat in 2014 het levenslicht moet zien. Eerder dan 2016 is al onwaarschijnlijk, maar Nvidia is ook gebonden aan het procedé-schema van TSMC en het is vooralsnog gissen over welk procedé TSMC over drie of meer jaar beschikt. Verder liet Nvidia in het midden of Volta gebruik gaat maken van 3d-transistors, terwijl het al wel weet dat de Tegra-processor met codenaam Parker gebruik gaat maken van dergelijke transistors. De prestaties van Volta zouden rond de 24Gflops per watt liggen, terwijl Kepler, de huidige architectuur, een efficiëntie van slechts 5,5Gflops per watt haalt.

Behalve over Volta geeft de roadmap nog enige informatie prijs omtrent Maxwell, met Unified Virtual Memory als belangrijkste feature. Dit houdt in dat andere processors, zoals de cpu, ook gebruik kunnen maken van data die zich in het geheugen van de gpu bevindt. Hierdoor kan software door zowel de cpu als de gpu worden uitgevoerd, zonder dat er data uitgewisseld hoeft te worden tussen het werkgeheugen van de cpu en de gpu. Dit is vergelijkbaar met AMD's heterogenous system architecture. Voor Nvidia lijkt deze feature vooral van belang voor zijn Tegra-socs, aangezien de volgende generatie uitgerust zou worden met een Maxwell-gpu.

Nvidia gpu roadmap 2013

Reacties (35)

Mooi om te zien dat t.o.v. CPUs, de technologie voor de GPU-markt nog wel enorme performance stappen blijft maken. Niet alleen voor gamers maar zeker ook voor de grafische- en videoindustrie een goede ontwikkeling.
Wat je in de videokaarten wereld ziet is dat er nu echt naar power consumptie word gekeken. Je ziet hier ook een grafiek van GFlops per Watt.

Dit gebeurd in de CPU wereld ook zeer zeker, denk aan een E8400 (120 watt dacht ik zo uit mijn hoofd) en een 3570k (77 watt). Het enige verschil van de GPU en de CPU wereld is dat in de high end markt nu ook GPU's in de CPU's zitten. Van deze combinatie eisen we ook GPU kracht, en dat kost nu eenmaal energie. De CPU's zijn tegenwoordig bij lange na de bottleneck niet dus wordt hier de focus ook niet op gelegd, de GPU's in CPU's zijn wel de bottleneck en dus word hier meer aandacht aan besteed.

Conclusie: De CPU markt staat absoluut niet stil, maar de aandacht is verschoven naar de combinatie van GPU en CPU.

Persoonlijk kijk ik echt naar uit wanneer deze goed samenkomen, dit zal dan resulteren in veel kleinere computerkasten waar geen videokaart van 250mm in hoeft.
De CPU's zijn tegenwoordig bij lange na de bottleneck niet (...)
-hum-

Nooit een dedicated CAD programma gedraaid? Die slokt wel degelijk de CPU op.


Ik hoop dat deze Volta GPU er snel zal komen, en dat de bandbreedte op de graka's daadwerkelijk zo groot zal worden. En dat deze kernen dan ook kunnen worden ingezet voor renderkaartjes, want AutoCAD is af en toe wat magertjes qua snelheid.

Hierbij vraag ik me ook af of de PCIe niet een opvolger moet krijgen tegen die tijd. In hoeverre kan deze GPU core dan volstaan met de bandbreedte van CPU naar GPU? Even er vanuit gaande dat we dan PCIe 4.0 hebben... 16 GT/s is nogal wat...
Nooit een dedicated CAD programma gedraaid? Die slokt wel degelijk de CPU op.
Hoeveel procent van het gemiddeld gebruik wordt besteed aan dedicated CAD?
Ga een film converteren, of grote bestanden comprimeren en je hebt ook zo 100% cpu te pakken.
Film converteren? Wie doet dat tegenwoordig nog op de CPU? Dat gaat velen malen sneller via de GPU of Intels Quick Sync.

Comprimeren is een lastige, dat is wat afhankelijk van de gekozen compressie methode, maar dat kan ook heel goed op de GPU draaien, hoewel de performance winst minimaal is...
Iedereen die Handbrake gebruikt? GPU encoding is nog steeds ruk. Slechte kwaliteit, weinig software die er mee om kan gaan, soms niet eens sneller dan cpu: http://www.extremetech.co...-state-of-gpu-transcoding

[Reactie gewijzigd door coffeejunkee op 20 maart 2013 14:17]

Film converteren doet men nog wel degelijk op de CPU -- als je tenminste een beetje om kwaliteit geeft.
Ben ik deels ook wel met je eens hoor. De CPU markt staat inderdaad niet stil, maar met vooral de focus op zuinigheid en GPU power. Voor de zakelijke (office) markt en het gros van de consumenten biedt dit alleen maar voordelen (klein, stil en zuinig).

Toch blijft er altijd behoefte bestaan naar performance winst. Een losse GPU kaart heeft voor die groep gewoon de voorkeur, puur omdat je daar veel meer uit haalt dan op enkele cm2-ers. Voor alle taken die de GPU niet kan verzorgen wil je dan ook gewoon een dikke CPU (of meer) in je werkstation. Het zou dus fijn zijn, als de lijn met performance CPU's ook echt blijven doorgroeien in de performance. En juist die ontwikkeling vlakt aardig af de laatste 3 jaar.
die e8400 is 65 watt hoe jij op 120 watt komt met een zuinige dual core voor zijn tijd weet ik echt niet zelfs de stroom vretende q6600 is 105 watt..
E8400 TDP was 65W. De helft minder cores en geen igp, nog steeds wel indrukwekkend maar iets minder dan jij het doet voorkomen.
E8400 was 65watt. Ik heb nu een Q9450 en die is 95watt. Wat dat betreft heeft ChieluzzB gelijk als hij zegt dat de vooruitgang van GPU's veel hoger ligt als CPU's.

Mijn GTX460 vebruikt bijna evenveel als een GTX670.
pricewatch: Intel Core 2 Duo E8400 Boxed
E8400 is 65W, niet 120W.

Maar daarintegen is de 3570k een quadcore terwijl de E8400 een dualcore is.
Ik ben benieuwd wanneer we de 7xx series van Nvidia kunnen bewonderen.

Het meeste kijk ik nog uit naar iets als de 770GTX. De 570GTX en nu de 670GTX maken het kopen van de top kaart eigenlijk geheel overbodig. Bijna dezelfde performance, maar veel vriendelijker geprijsd.
Wat is overbodig? Op sommige resoluties en settings is zelfs het beste nog niet toereikend: http://be.hardware.info/r...eveel-titans-heb-je-nodig
Tja... 5760x1080 is wel extreem.

Ik zou zelf zeggen dat 1920*1080 (1920*1200) nu de norm is. Op die resoluties kan een 570GTX en een 670GTX hele aardige performance neerzetten zonder dat je in hoeft te leveren op kwaliteit. In feite laten de grafieken dat daar ook zien.
tja, niet als het aan je collega tweakers ligt die zeuren dat ze 4K willen......
Hij maakt gewoon een vergelijking met de GTX 580, 680 en 780. Die zijn amper beter dan de GTX x70 varianten.
Voor de portemonnee is het idd het meest verstandig om altijd in de midrange te kiezen. Voor 90% van de toepassingen en game-settings hou je voldoende marge over voor een leuke prijs, want ook deze kaarten blijven lekker meegroeien met nieuwe generaties. Met de komst Volta (misschien al met Maxwell), kom je op hetzelfde niveau als met de huidige topkaarten.

Voor overige toepassingen blijft pure horsepower prioriteit en speelt budget vaak een mindere rol. Gebruikte kaarten worden dan misschien minder frequent vervangen, maar wel weer met een volgende topkaart. Tegen de tijd van Maxwell in 2014 is bijvoorbeeld 4K (UHD) meer gangbaar. Nee, waarschijnlijk nog niet als film content of bij consumenten in de huiskamer, maar wel om realtime mee te editten. In de jaren daarna is de generatie Volta meer dan welkom.
Kunnen we dan eindelijk naar real time ray tracing gaan??!!!
ja daar wacht ik ook al op sinds de Amiga...

OT: Mooie ontwikkelingen, al moeten we nog even wachten op de eerste hands-on ;)

[Reactie gewijzigd door moreasy op 20 maart 2013 11:18]

raytracing an zich is niet super interessant, path tracing daarintegen wel:
http://www.youtube.com/watch?v=OyY9pQEJkSk

http://www.youtube.com/watch?v=gZlCWLbwC-0

maargoed voor we dit ruisvrij kunnen doen op hoge resolutie kost nog wel een aantal jaren.
ze bedoelen dus eerder 2015-2016.
Opvolger Maxwell komt voorlopig echt niet.

Ik zit trouwens wel te popelen om snellere GPU's die OOK betaalbaar zijn.
Beetje facepalm dat alles zo lang duurt, zeker als hardware fan/ overclocker een regelrechte RAMP!!!

Titan is ook geen optie voor die dikke 950 euro, belachelijk duur voor een reference kaart met reference PWM fases en die hele meuk.
Voorheen ging alles stukke vlotter qua luanch... eerst 8800 GTX toen GTX 280... schoot teminste op!

Begin me echt te irriteren aan het feit dat de tijd stil staat en je het dubbelle moet betalen voor wat snellere prestaties ....

Kan je trouwens met 3d gates nou onder 4 Nanameter komen?
Wat is het punt van 3d gates eigenlijk met de huidige techniek...

[Reactie gewijzigd door A87 op 20 maart 2013 15:26]

Gebeurt er dan in 2013 niets spannends op discrete GPU-gebied?
persoonlijk vind ik titan best spannend
Ok, dat is waar, maar ik bedoelde meer iets dat betaalbaar is voor de iets minder fortuinlijke tweaker
Hm, wonderbaarlijk wat een verschil 5,5 gflops vs 24gflops per watt. Het zal wel nodig zijn om in de toekomst met quad HD tv´s te gaan werken. Mogelijk dat de Playstation 5 hier dan gebruik van kan maken :)

Bij mobiele tablets en laptops en zelfs telefoons, kan het handig zijn om het energieverbruik sterkt terug te dringen. Al blijft bij deze apparaten nog steeds het scherm de over grote energievreter en zullen pas met het uitbrengen van full color e-ink schermen daar gigantische sprongen vooruit gemaakt worden kwa batterijduur.

Edit: Ik vraag me af of we ooit computer graphics krijgen die er echter uit zien dan de werkelijkheid. Kan dat überhaupt en hoe ziet dat er dan uit? Of houdt de ontwikkeling van grafischekaarten op zodra we alles er uitziet alsof het echt is?

[Reactie gewijzigd door benbi op 20 maart 2013 11:13]

Ik denk dat de ontwikkeling nooit ophoud, misschien dat de focus wordt verlegd.
Het is maar net waar de trend ligt, en wat de technologische mogelijkheden zijn.
Als ik die cijfers zie wacht ik wel tot de Volta-chip kaart uitkom :+

Nee, ik heb net een 660ti erin geprikt en die doet het wel prima, maar ben toch wel benieuwd wanneer en met wat AMD/Nvidia hun nieuwe series aankondigen. Moet heel eerlijk zeggen dat dat me meer intereseerd dan de specs voor kaarten die de komende 4 jaar nog niet uitkomen. (Geen tweakers-bashing, daar kunnen zij niks aan doen ;) )
begrijp ik het nou goed, gaan ze het geheugen bij de GPU inbakken ?

een ding weet ik wel, over 3 jaar vervang ik me high end pc met paar van deze top kaarten
GTX580 eigenaar hier. Ik ga er niet op wachten. Het aantal games dat ik nu nét niet voluit kan spelen kan ik op één hand tellen, maar het worden er wel steeds meer. Als de nieuwe generatie consoles om de hoek komt kijken zal het wel vlot gaan, maar over het algemeen heb ik helemaal niets te klagen. GTX6xx laat ik aan me voorbij gaan en hoop dit jaar een GTX780 te kunnen krijgen waar ik het ~3 jaar mee uit wil gaan houden :)

Overigens vraag ik me af of PCI-e 3 genoeg zal zijn voor de snelheden die bij Volta worden genoemd.
Ik game nog steeds met een GTX 275. Laat die maxwell maar komen en dit jaar. Maar waarom geen ssd geheugen op gpu`s plakken? Of zeg ik nu iets heel raars?
nee, maar SSD opslag is zover ik weer hetzelfde als je dingen op je ram geheugen gaat opslaan.
RAM is toch echt nog wel een factor x sneller dan SSD chips.
Voor zover ik weet is conventioneel RAM nog steeds een stuk sneller als flashgeheugen. Bovendien is het (veel) goedkoper en zal je flash-geheugen, zodra je dat als conventioneel RAM gaat inzetten, een behoorlijk belabberde levensduur hebben.

Ik vraag me trouwens af welk probleem jij met dat flashgeheugen probeert op te lossen? Waarom zou Nvidia dat willen doen? Ik kan geen reden bedenken.

Op dit item kan niet meer gereageerd worden.



Populair:Apple iPhone 6Samsung Galaxy Note 4Apple iPad Air 2FIFA 15Motorola Nexus 6Call of Duty: Advanced WarfareApple WatchWorld of Warcraft: Warlords of Draenor, PC (Windows)Microsoft Xbox One 500GBTablets

© 1998 - 2014 Tweakers.net B.V. Tweakers is onderdeel van De Persgroep en partner van Computable, Autotrack en Carsom.nl Hosting door True

Beste nieuwssite en prijsvergelijker van het jaar 2013