Cookies op Tweakers

Tweakers maakt gebruik van cookies, onder andere om de website te analyseren, het gebruiksgemak te vergroten en advertenties te tonen. Door gebruik te maken van deze website, of door op 'Ga verder' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt, bekijk dan ons cookiebeleid.

Meer informatie

Nvidia kondigt Ampère-architectuur voor GeForce en Tesla aan

Nvidia heeft de A100 aangekondigd, de eerste gpu die het bedrijf op zijn nieuwe Ampère-architectuur produceert. De chip komt als eerste naar een DGX-systeem met acht A100-gpu's. Ook GeForce-kaarten krijgen een gpu op basis van Ampère.

Ampère moet uiteindelijk niet alleen Volta maar ook Turing vervangen en als enkel platform dienen voor zowel de enterprise- als de consumentenkaarten, zei Nvidia-ceo Jensen Huang voorafgaan aan de aankondiging volgens Marketwatch. Volta is de architectuur van de gpu van de Tesla V100-accelerator; GeForce-kaarten op basis van Volta verschenen er nooit. De GeForce 20-kaarten zijn op de Turing-architectuur gebaseerd. Over Ampère voor GeForce zei Huang verder niets, alleen dat er veel overlap zal zijn met Ampère voor Tesla maar met andere configuraties.

De eerste gpu op basis van Ampère is de Tesla A100 en deze is bedoeld voor high performance computing, kunstmatige intelligentie en andere datacentertoepassingen. Deze chip laat Nvidia op 7nm produceren en bevat 54 miljard transistors. Het oppervlak van de die is 826mm². Daarmee is het aantal transistors flink toegenomen tegenover de GV100-gpu van de Tesla V100, die 21,1 miljard transistors heeft, terwijl het chipoppervlak niet veel groter is: de GV100 meet 815mm².

Het aantal cudacores van de A100 is ten opzichte van de V100 verhoogd van 5120 naar 6912. Het aantal tensorcores is afgenomen, van 640 naar 432, maar het gaat om tensorcores van de derde generatie die verbeterd zijn ten opzichte van de vorige generatie, volgens Nvidia. Bij fp64-rekenwerk bieden deze meer dan dubbel zo hoge prestaties. Bij fp32-rekenwerk zou dat zelfs een vertienvoudiging zijn, maar Nvidia vergelijkt hier berekeningen op basis van zijn eigen tensor float 32 met floating point 32-rekenwerk. Volgens Nvidia 'werkt tf32 net als fp32 zonder dat code veranderd hoeft te worden'.

De geheugenbus van de A100 is 5120 bits breed en de maximale geheugenbandbreedte bedraagt 1555GB/s. De accelerator heeft 40MB on-chip level cache, zeven keer meer dan de vorige generatie, en kan over 40GB vram beschikken, verdeeld over zes hbm2e-stacks.

Nieuw is verder de aanwezigheid van multi instance gpu voor virtualisatie. Elke A100 kan hiermee in tot aan zeven instances opgedeeld worden die elke geïsoleerd en met hun eigen geheugen aan het werk kunnen voor verschillende gebruikers. Daarnaast is er ondersteuning voor een nieuwe nv-link-interconnect om gpu's in een server met elkaar te verbinden. Deze biedt een gpu-naar-gpu-bandbreedte van 600GB/s.

Nvidia kondigde direct een eerste systeem met de A100 aan: de DGX A100. Dit bevat acht A100-accelerators met een totaal van 320GB geheugen en ook is dit systeem van 200Gbit/s-interconnects van het door Nvidia overgenomen Mellanox voorzien. Opvallend hierbij is dat Nvidia de overstap van Intel naar AMD heeft gemaakt: de vorige DGX-2 had twee Intel Xeon Platinum 8168-processors. De fabrikant is van plan om de DGX A100 gebundeld in een cluster van 140 systemen aan te bieden in de vorm van de zogenoemde DGX SuperPOD.

Nvidia Tesla-serie
Tesla A100 Tesla V100s Tesla V100 Tesla P100
Gpu 7nm GA100 12nm GV100 12nm GV100 16nm GP100
Die-oppervlak

826 mm²

815 mm²

815 mm²

610 mm²

Transistors

54 miljard

21,1 miljard

21,1 miljard

15,3 miljard

Sm's

108

80

80

56

Cudacores

6912

5120

5120

3840

Tensorcores

432

640

640

NA
FP16 Compute

78 tflops

32.8 tflops

31,4 tflops

21,2 tflops

FP32 Compute

19,5 tflops

16,4 tflops

15,7 tflops

10,6 tflops

FP64 Compute

9,7 tflops

8,2 tflops

7,8 tflops

5,3 tflops

Boost-kloksn.

~1410MHz

~1601 MHz

~1533 MHz

~1480MHz

Max. geh. bandbr.

1555 GB/s

1134 GB/s

900 GB/s

721 GB/s

Eff. geh. kloksn.

2430 MHz

2214 MHz

1760 MHz

1408 MHz

Geheugen

40GB HBM2e

32GB HBM2

16GB / 32GB HBM2

16GB HBM2

Geheugeninterface

5120-bit

4096-bit

4096-bit

4096-bit

Tdp

400

250W

300W

300W

Formfactor SXM4 / pci-e 4.0 pci-e 3.0 SXM2 /pci-e 3.0 SXM

Door Olaf van Miltenburg

Nieuwscoördinator

14-05-2020 • 16:54

47 Linkedin

Submitter: Balance

Reacties (47)

Wijzig sortering
Kan iemand hieruit herleiden wat dit gaat betekenen voor onze a.s desktop-gpu's?

Bijvoorbeeld, gaat de RTX/GTX3080 veel sneller zijn?
voor zover ik heb gehoord gaat de raytracing performance flink omhoog (de 3070 zou zelfde raytracing performance hebben als de 2080Ti) maar de "normale" performance jump zou vergelijkbaar zijn met Pascal > turing
Er zijn ook geruchten die zeggen dat de 3060 dezelfde raytracing performance zou hebben als de 2080Ti. We moeten het maar afwachten :)
zou leuk zijn voor de 3000-kaarten maar de resell value van mn 2080 zal wel flink gaan kelderen, zeker nadat het ook al flink naar beneden is gegaan na de release van de super kaarten
Dat is meestal als je de topkaart koopt.
Daar moet je ook even bij vertellen dat die topkaart ook heel erg lang mee kan gaan. Ik zit hier nog steeds op een 980Ti alles te spelen op zeer hoge settings. Wel op 1080 maar na 5 jaar gamen is hij het geld wel waard.

/Edit: lol@ Tesla flair.

[Reactie gewijzigd door dycell op 14 mei 2020 20:15]

Dus dit. Zit nu 4 jaar op een 1080ti en speel vrijwel (bijna) alles nog op Ultra op 1440p. Ik heb er een nier voor moeten afstaan, maar het is het geld dubbel en dwars waard. Gelukkig heb ik nog een tweede nier...
De 2080 serie zijn top kaarten, dus die zullen best nog wel wat op gaan brengen..

Blijft high end gaming voor de minder bedeelde ook nog leuk en voor de early adapter ook omdat je die centen bij een recent model kunt neerleggen..

Iedereen blij :)
De 2080 serie zijn top kaarten, dus die zullen best nog wel wat op gaan brengen..
Niet als de aankomende mid-range straks dezelfde performance gaat geven.
Alleen de RTX gedeelte krijgt zo'n boost, gewone (niet-RTX) prestaties gaan maar mild omhoog.
Daarom dat ik de 2xxx serie overgeslagen heb met mijn 1080Ti.
Tegen dat de 3xxx kaarten in de schappen liggen kan ik er misschien nog 300€ voor krijgen.
het gaat hier om raytracing performance. Het berekenen van rays. Dat staat volledig los van traditionele 3d berekeningscapaciteit. Het kan dus goed zijn dat de lowend kaarten van de 3000 serie beter zijn in het berekenen van rays als de 2080ti, maar dat de rest van de performance achterblijft, wat resulteert in lagere fps, minder hoge max resoluties, en minder hoge settings van graphics in games. Maar wel met global illumination bijvoorbeeld. Een bijzondere mix. We gaan het zien.
Daar had ik het toch over? ;)
"(de 3070 zou zelfde raytracing performance hebben als de 2080Ti)"
Als 2080ti eigenaar kan ik oprecht zeggen dat die raytracing perfomance niet indrukwekkend is. Het moet op ze minst x2 gaan, want minecraft rtx is leuk enzo, maar dipt vaak naar de 40fps.
Oh heerlijk! Nog even geduld hebben dus... dank voor de reactie!
à propos geduld, wanneer zullen de consumenten-GPU's naar verwachting op de markt komen?
Als alle geruchten waar zijn... (Zijn ze dat ooit?)
Dan rond september..
Dankjewel. Geduld hebben, dus. Ik zou heel graag nu al een PC willen bouwen, maar het wordt einde vh jaar dus, zeker omdat de volgende generatie Ryzens ook nog wel even nodig hebben
Volgensmij was zelfs de bewering dat de 3060! dezelfde RT performance zou hebben als de 2080Ti.
Een RTX 2080Ti heeft een FP32 Compute van 14.2Tflops. Deze kaart bereikt er 19.5, ruw dus ongeveer 33% sneller dan een RTX 2080Ti.
Zou je voor de vergelijking in het juiste segment niet moeten vergelijken met de "gehele" RTX Titan die 16.31 TFLOPS FP32 haalt? Dat is een steiging van ~20%.
Ik denk wel dat ze gaan inzetten om waar mogelijk hun TF32 te laten gebruiken aangezien ze dat zo veel sneller hebben kunnen maken. TF32 is een 19-bit formaat (19 bits per component iig) met de precisie van FP16 en de range van FP32 en de bedoeling is dat het intern gebruikt wordt voor tensor-operaties, met gewoon FP32 input en output (maar dus wel lossy).
Is nog lastig te zeggen. De A100 is echt gericht op GPGPU.
Waarschijnlijk gaat het aantal Cuda cores omhoog in de nieuwe desktop GPU's. Daarnaast kan je denk ik ook wel een IPC verbetering verwachten per CUDA core.
Ik ben benieuwd wat ze met de tensor cores gaan doen. Ze zouden deze ook mee kunnen nemen. En dan met driver optimalisaties de tf32 in zetten om FP32 te doen. Maar dat moet nVidia dan regelen. Ik zie het game dev's niet snel inbouwen.

En de verwachting is dat ze ook groot gaan inzetten op RT. Moet ook wel want nu is het niet echt bruikbaar gezien de performance hit.

Ik denk dat je deze stap wel groter kan worden als in 30-50% sneller dan de huidige kaarten. De vraag is wel wat gaat dit allemaal kosten.
Waarschijnlijk gaat het aantal Cuda cores omhoog in de nieuwe desktop GPU's. Daarnaast kan je denk ik ook wel een IPC verbetering verwachten per CUDA core.
Zou het? Volgens mij valt er aan IPC weinig te winnen bij moderne GPU's, dat is allemaal in-order 32 threads tegelijk in lock-step. De standaard trucs om IPC te verbeteren in CPU's zijn volgens mij niet of nauwelijks van toepassing op GPU's. Daar moet het allemaal uit allemaal bandbreedte, kloksnelheid en aantal cores komen eigenlijk. Enige wat ik zou kunnen verzinnen is dat bepaalde arithmetic built-ins (instrinsics) misschien een hogere doorvoer zouden kunnen krijgen, maar als ik me niet vergis is daar bij NVidia een paar generaties terug al een enorme verbetering in geweest.
Dingen zoals cach geheugen hebben wel degelijk impact. Ik versta dat soort dingen er ook meer onder waardoor de CUDA cores dan beter benut worden en je ondanks gelijke clocks en een gelijk aantal CUDA cores toch betere prestaties kan neerzetten.
Dat is waar, maar op basis van wat ik tot nu toe heb gezien geloof ik niet dat Ampere daarin erg veel verschilt van de vorige generaties NVidia GPU's, buiten het toevoegen van extra hardware blocks (tensor, ray tracing) en het verhogen van het aantal cores verandert er eigenlijk al jaren weinig aan die aspecten van hun GPU architectuur.
Cache is verbeterd en dat kan wel weer aardig wat impact hebben op prestaties en deels verbruik.
Het is geen gigantische makeover nee. Dit is in de basis volgens mij nog steeds vergelijkbaar met Fermi. Alleen dan elke keer door ontwikkeld en er zijn nieuwe hardware capabilities toegevoegd.

[Reactie gewijzigd door Astennu op 15 mei 2020 10:38]

De vraag is wel wat gaat dit allemaal kosten.
Ik denk eerlijk gezegd dat we dat allemaal liever niet zouden weten...
Hopelijk wordt big navi concurrerend zodat de prijzen weer iets kunnen zakken..
Het is niet zo maar big Navi het is Navi 2X want deze chips krijgen een nieuwe architectuur (RDNA2).
Dat gaat zeker helpen. Ik denk zelf dat hij tussen de 3080 en de 3080 Ti komt te zitten (mits de leaks over Ampere van mores law is dead kloppen). Afhankelijk van de prijs is het dan zeker concurrerend.

Het zou ook kunnen dat AMD een 80CU versie maakt met HBM2e om toch een gooi naar de prestatie kroon te doen.
Al kan nVidia een Titan met A100 uit brengen voor 3000 en dan toch de kroon claimen.

We gaan het zien. Het zal in ieder geval spannend gaan worden. En AMD zit nu niet meer zo stil. Er is nu meer geld beschikbaar om door te blijven ontwikkelen. RDNA3 staat ook al op de roadmap.
een kort en simpel antwoord op je vraag: nee niemand kan dat vertellen. Heb wat geduld, het zal waarschijnlijk over een jaar of 2 bekend zijn.
Eerder tegen de herfst van dit jaar nog
wat, over de volgende consumer/gaming lineup?
lijkt me sterk. vanwaar dat gerucht?
Door het feit dat nvidia om de 2 jaar de volgende generatie kaarten op de markt brengt en het alweer 2 jaar geleden is dat de rtx 2000 serie uitkwam. Verder wordt op allerlei techsites het gerucht verspreid dat de 3000 serie eind van de zomer of tegen de herfst uitgebracht wordt. Door het hele corona gedoe verwacht ik hoogstens een paar maanden vertraging.

Het hangt er ook een beetje van af wat amd gaat doen natuurlijk. De radeon VII (pro?) komt al redelijk in de buurt van rtx2080 performance en ze zouden vermoedelijk ook dit jaar nog de big navi productline uitbrengen dus dan moet nvdia wel volgen om marktleider te blijven.
Wanneer je de huidige geruchten voorzichtig combineert met kennis van de launches van vorige generaties en, daarbij nog, deze aankondiging, kom je toch al een heel eind.

- Raytracing flink verbeterd, waarbij een RTX 3060 met Raytracing ingeschakeld ongeveer gelijk presteert aan een 2080Ti met Raytracing ingeschakeld. Waarschijnlijk voornamelijk door de die-shrink van 12nm naar 7nm, waardoor er relatief goedkoop meer RT-cores geplaatst kunnen worden. Die 7nm is nu dus door Nvidia zelf bevestigd.
- Getuige o.a. diezelfde die-shrink, een (non-raytracing) prestatieverbetering die minstens gelijk, maar zeer waarschijnlijk ietwat hoger ligt dan die van Pascal naar Turing.
- Prijzen die nog enigszins mee moeten vallen (dus niet alweer een grote sprong hoger zoals bij de afgelopen generaties), zeker als AMD snel met een vorm van concurrentie ('Big Navi') komt.
- Release gepland in Q3 van dit jaar.
We gaan het zien! Ik ben zelf geen enorm fan van speculeren over releases etc. meestal zorgt dat voor teleurstelling. Uiteraard extra nice als het wel allemaal blijkt te kloppen :)
Geruchten gaan dat zelfs de simpelste modellen van de "30 serie" veel betere raytracing performance hebben dan de 2080.
Zoals het gerucht gaat "the RTX2080 won't age well"...
Deze architectuur lijkt een hele dike vooruitgang te hebben in transistors per CU. Waardoor misschien de tflops jump niet zo heel indrukwekkend lijkt, maar dat de performance dat we zullen zijn.
Deze specs zijn echt wel extreem te noemen. Misschien in een paar dingen niet t.o.v. huidige RTX modellen, al twijfel ik daar ook aan. Maar zeker in verhouding tot de GTX kaarten.

Nou zijn dit natuurlijk geen specs van de consumer kaarten, maar toch.. Ben erg benieuwd waar ze mee gaan komen. Nog even geduld. :)
Mooi, volgend jaar een upgrade. 3080 kaartje + 48'oled scherm, ivm HDMI 2.1. (nu 34' 4k scherm + 1080 kaartje).
Game je dan op de bank, neem ik aan? Mijn bureau is daar niet diep genoeg voor, dat formaat. Dan zit ik er wel erg bovenop :-)

Ik houd het op een 3080 en een 34 inch 1440p 21:9 144+hz, denk ik. Nu 25 inch 1440p en een 970 kaartje.

[Reactie gewijzigd door john milton op 14 mei 2020 18:30]

Wow, een 48 voet oled, dat is nogal wat :+
De hamvraag is natuurlijk: Will it run Crysis ?
hoho, minecraft rtx is de nieuwe maatstaaf hè!
Mwa beest van een specsheet maar wat dat voor de desktop zegt. Niets.
Ik hoop echter wel dat de 3070 een flinke vooruitgang is ten opzichte van de 2070 super.

10 a 20 % zoals sommigen zeggen zou echt een enorme domper zijn. 1440p ultra kan nu bij veel games al niet op hoge fps en dan komt er einde van het jaar eindelijk een fatsoenlijke console waardoor game specs omhoog gaan en pc fps naar beneden.

Ik zit nog steeds op 1080p omdat ultra en fps zwaarder wegen dan een groter scherm en 1440p en het ziet er naar uit dat dat nog steeds zo blijft.
Dacht dat zo'n beetje iedereen die al een 10xx kaart had de 20xx had laten liggen. Zeker omdat bij de 20xx release als ik het mij goed herinner al bekend was dat de ampera er aan kwam?


Om te kunnen reageren moet je ingelogd zijn


Apple iPhone SE (2020) Microsoft Xbox Series X LG CX Google Pixel 4a CES 2020 Samsung Galaxy S20 4G Sony PlayStation 5 Nintendo Switch Lite

'14 '15 '16 '17 2018

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2020 Hosting door True