Nvidia introduceert RTX A6000 met 48GB GDDR6 voor workstations

Nvidia introduceert de RTX A6000 en A40. Eerstgenoemde is een Ampere-videokaart voor workstations en de A40 is een variant voor datacenters. De gpu's hebben 48GB GDDR6 met error correcting code. Nvidia lijkt de Quadro-naamgeving te laten vallen.

De RTX A6000 en de A40 zijn gebaseerd op de GA102-gpu, net als de GeForce RTX 3090 en 3080. Bij de nieuwe kaarten voor workstations en servers is de gpu volledig ingeschakeld, wat goed is voor 10.752 Cuda-cores. De gpu's voor gamers hebben een deels uitgeschakelde gpu, met 10.496 en 8704 cores voor respectievelijk de RTX 3090 en 3080.

Nvidia gebruikt GDDR6-geheugen bij de RTX A6000 en A40, terwijl de GeForce-varianten Gddr6x hebben. Dat snellere geheugen is echter nog niet verkrijgbaar in chips met een capaciteit van 16Gb/s en omdat Nvidia de workstationkaarten van 48GB wil voorzien, is voor regulier GDDR6 gekozen.

Nvidia RTX A6000 en A40Nvidia RTX A6000 en A40

De A40 is vrijwel gelijk aan de RTX A6000. Het A40-model is gemaakt voor datacenters en heeft geen actieve koeling. De kaart moet in een serverbehuizing gestopt worden waar al veel airflow aanwezig is. Nvidia voorziet de A40 van DisplayPort-uitgangen; bij eerdere Tesla-gpu's voor datacenters was dat niet het geval. De nieuwe gpu's komen eind dit jaar uit, prijzen heeft Nvidia niet bekendgemaakt.

Opvallend is dat Nvidia in zijn aankondiging nergens de Quadro-naam noemt. De RTX A6000 is de opvolger van Quadro-workstationkaarten als de RTX 8000 en RTX 6000. Eerder dit jaar stopte Nvidia al met het gebruik van de Tesla-naamgeving, die werd eerder gelinkt aan gpu's voor datacenters. De fabrikant zou die naam niet meer gebruiken vanwege het gelijknamige automerk.

Nvidia-videokaarten voor workstations en datacenters
RTX A6000 A40 RTX 8000 GV100
Cuda-cores 10752 10752 4608 5120
Tensorcores 336 336 576 640
Boostclock ? ? 1770MHz ~1450MHz
Geheugensnelheid 16Gbps GDDR6 14.5Gbps GDDR6 14Gbps GDDR6 1,7Gbps HBM2
Geheugenbus 384-bit 384-bit 384-bit 4096-bit
Vram 48GB 48GB 48GB 32GB
Ecc Deels (dram) Deels (dram) Deels (dram) Volledig
Half Precision ? ? 32.6 TFLOPS 29.6 TFLOPS
Single Precision ? ? 16.3 TFLOPS 14.8 TFLOPS
Tensor Performance ? ? 130.5 TFLOPS 118.5 TFLOPs
(FP16)
TDP 300W 300W 295W 250W
Koeling Actief Passief Actief Actief
NVLink 1x NVLink3
112.5GB/sec
1x NVLink3
112.5GB/sec
1x NVLInk2
50GB/sec
2x NVLInk2
100GB/sec
GPU GA102 GA102 TU102 GV100
Architecture Ampere Ampere Turing Volta
Manufacturing Process Samsung 8nm Samsung 8nm TSMC 12nm FFN TSMC 12nm FFN
Launch Price ? ? $10,000 $9,000
Launch Date 12/2020 Q1 2021 Q4 2018 March 2018

Tabel samengesteld door AnandTech.

Door Julian Huijbregts

Nieuwsredacteur

05-10-2020 • 16:00

47

Reacties (47)

47
47
12
2
0
31
Wijzig sortering
Het eerste wat mij opviel is dat deze kaarten gebruik maken van een enkele reguliere 8-pin connector ipv de nieuwe 12-pin connector of twee 8-pin connectors. Is een enkele toch wel genoeg? Waarom dan twee of soms zelfs drie 8-pins op de consumentenkaarten van AIB's?

[Reactie gewijzigd door secretqwerty10 op 22 juli 2024 15:25]

Zodat ze binnen de 300W spec vallen wat vaak gebruikt wordt in DCs e.d., Op de render zie je namelijk ook een EPS 12V en geen PCI-E's. Dan haal je makkelijk 300W.. PCI-E + PEG 8 is uiteraard 75+150 en met EPS halen ze het naar de 300W uit puur de connector :D

[Reactie gewijzigd door Quartant op 22 juli 2024 15:25]

Aha. Dat klinkt al een hele hoop logischer.
deze kaarten worden alleen gebruikt in o.a. CAD/CAM omgevingen, de rekenkracht om hoge framerates voor gaming eruit te persen is nihil. Daarentegen hebben deze alleen pure rekenkracht om complexe (complexer dan een spelletje) berekeningen te maken voor designers en animators. Dus dan volstaat alleen een 8-pin peg-connector.

[Reactie gewijzigd door qbig1970 op 22 juli 2024 15:25]

Das dus het grappige.. Je gaat waarschijnlijk zien dat in de meeste CAD/CAM software juist de game kaarten beter zullen draaien doordat deze gewoon de power gaan trekken die ze willen + hoogstwaarschijnlijk een hogere clock. Tenzij deze chips zo ontiegelijk goed gebinned zijn, maar dat is allemaal speculatie/glazen bol werk..

De software die geoptimaliseerd is op Quadro/Titan zal idd op deze echt vele malen beter draaien. https://www.igorslab.de/e...e-if-price-is-not-all/11/ is al een aardige comparison te zien, zoals vaker is Autodesk Software juist gretig met hogere clocksnelheden ook op GPU...

[Reactie gewijzigd door Quartant op 22 juli 2024 15:25]

Ik vraag me af hoe lang mensen nog autodesk gaan gebruiken nu autodesk zijn licentiemodel aan het omgooien is van floating licenties naar licenties per user.
Erg smerige streek is dit inderdaad, gaat veel bedrijven flink geld kosten denk ik. Zeker omdat er mensen zat zijn die maar relatief incidenteel bepaalde software gebruiken.
Ik loop er zelf ook tegenaan. Ik gebruikte CAD maar af en toe om eens een paar kleine bewerkingen te doen dus mijn licentie is ingetrokken. Moet nu of met gratis software werken (bijvoorbeeld libreCAD) of via GIS oid... Aangezien ik nog wel eens wat dingen in 3D doe werkt dat nu heerlijk vertragend en frustrerend. Ik weet echter dat bij ons het bedrijf al naarstig op zoek is naar alternatieven.
Persoonlijk vind ik het juist alleen maar beter. Je betaald namelijk per licentie per user ipv per software aanschaf.. De kosten voor bedrijven die juist elke keer de pakketten opnieuw moesten kopen zijn hier blij mee om bij de tijd te blijven. In mijn branche waren die pakketten per keer per gebruiker 10k per jaar.. Nu zit je een stuk goedkoper..

Voor dit soort gebruik heb je dingen als AutoCAD LT en dat valt ook wel mee met hoeveel het kost. Een volle AEC licentie kost om en nabij 350 euro de maand of 3.2k per jaar.. License servers zijn echter wel nogsteeds een ding voor bedrijven die meer dan een x aantal licenties heeft. Zelfde met bedrijven die Office 365 per gebruiker te duur vinden.. en tot 2019 gewerkt hebben met office 2013...

[Reactie gewijzigd door Quartant op 22 juli 2024 15:25]

In ons type bedrijf heb je vrij veel mensen die maar incidenteel een Autodesk product nodig hebben, nu vang je dat op met een paar netwerklicenties. Als we over moeten (gelukkig pas over 2,5 jaar, vlak voor de tijd waren we per toeval slim genoeg om gebruik te maken van een 3 jaar verlenging) zal dit ervoor zorgen dat we fors meer licenties nodig hebben dan nu het geval is.

Het is een manier om vooral de winst van Autodesk te maximaliseren. Kwam o.a. deze straks tegen: https://old.reddit.com/r/...ncing_that_their_network/

[Reactie gewijzigd door Tortelli op 22 juli 2024 15:25]

Ah in die zin.. Dan zal je waarschijnlijk zien dat men per licentiekey gewoon algemene email adressen zal gebruiken en die dan zal "sharen"... Veel plezier voor Autodesk om dat te bewijzen :P. Het is voor de core users van de software i.p.c. alleen maar beter. Geen gedoe meer met stomme servers die er uit klappen of onbereikbaar zijn met thuiswerken als de VPN eruit klapt..

[Reactie gewijzigd door Quartant op 22 juli 2024 15:25]

Je kan Fusion nog steeds gratis gebruiken, wat mis je dan aan de nu gratis versie ?
Fusion360 is niet in alle gevallen gratis, mocht je dat bedoelen.
Dat niet alleen, veel software draait niet meer onder OpenGL van Autodesk maar juist onder Direct 3D. AutoCAD, Civil 3D, Revit en InfraWorks draait allemaal onder Direct 3D. Een game kaart werkt vele male beter als de oude quadro's. Quadro's draaien daarentegen velen malen beter wanneer er gebruik wordt gemaakt van OpenGL. Gamekaarten kunnen dat overigens ook maar dat zit hem dus juist in de drivers.
Bullshit. De meeste CAD programmas gebruiken gewoon DirectX oftewel de standaard gaming api. Je behaalt meer FPS met een goede gaming kaart dan een "workstation" kaart. De mythe dat je een workstation kaart nodig hebt voor CAD komt van salesmannetjes die je duur spul willen aansmeren.

[Reactie gewijzigd door Osiummaster op 22 juli 2024 15:25]

Wat betreft het wattage van de 8-pin weet ik het niet, maar ik vermoed dat workstation kaarten de komende tijd nog geen 12-pin zullen krijgen. Juist workstations en datacenters zijn gebouwd op de lange termijn, daar wil je denk ik geen propietary aansluitingen in hebben als dat betekent dat je eigenlijk nooit meer van merk kunt switchen.
Pas als 12-pin een standaard is die iedereen gebruikt zie ik heb voor me dat de professionele kant van Nvidia ook overgaat hier op.
Een typisch datacentrum wordt rackscale gebouwd en vervangen. Gaat er iets in een server defect, dan wordt de server uitgeschakeld. Diagnoses en reparatie zijn te duur. Daarom heeft Microsoft ook een datacentrum onderwater getest. Als je toch niet erbij hoeft, waarom dan niet onderwater waar de koeling beter is?

Een losse GPU wordt dus zeker niet geupgrade, zelfs niet bij een defect.
Schijnt ook dat de keuze voor GDDR6X de reden is dat de RTX3000 serie zoveel trekt, en dat de workstation-kaarten met regulier GDDR6 daardoor aanzienlijk zuiniger zijn.
Er komt idd niet zoveel wattage af zodat maar een connectie nodig is.
Ik zal wel eens willen weten hoe duur ze zijn.Dit zijn echt kaarten voor autocad of redit.
Geef mij maar liever twee RTX 3090 in SLI met 48 GB totale ram (dat kan via de drivers als het goed is)

Een heel stuk goedkoper en sneller dan de kaarten die beschreven zijn in dit artikel.

Oke geen ECC e.d. maar voor renderen in VRay, Corona, enz enz is de opstelling met twee RTX 3090 kaarten veel sneller en goedkoper dan die kaarten. Bovendien kan je er zelfs nog een derde kaart van de RTX 3090 serie bij zetten, alleen niet gekoppeld met Nvlink, maar dat maakt niet uit bij renderen, al heb je dan wel maar 24GB videogeheugen tot je beschikking aangezien het niet gekoppeld is.

Voor wie zijn deze kaarten die wel 5 a 7x zo duur zijn bedoeld, en wat is het voordeel vraag ik mij af?

[Reactie gewijzigd door Davidoff1976 op 22 juli 2024 15:25]

Met SLI gebruik je alleen het geheugen van de eerste kaart. Alleen met NVlink kan je het geheugen aanspreken van alle kaarten.

[Reactie gewijzigd door Macfreakje op 22 juli 2024 15:25]

Dat is niet waar! En NvLink is overigens SLI!

Met alleen de quadro kaarten (dus niet de consumenten kaarten) is het geheugen samen te voegen met de tweede kaart. Dus als je een quadro kaart hebt met 16GB dan heb je dus effectief 32GB geheugen, dit is dus onmogelijk met 'niet' quadro kaarten zoals de RTX 2080ti e.d.

Als je een derde kaart toevoegt (wat je dus ook kan selecteren in de render opties in Vray als voorbeeld) dan heb je dus weer 16GB video geheugen, en niet dus 48GB, dus renderen gaat dan weer trager omdat het werkgeheugen aangesproken moet worden bij grote textures en/of veel geometry.

Daarom denk ik dat als je drie RTX3090 kaarten hebt, dus maar 24GB aan videogeheugen effectief kan aanspreken. Ik weet alleen niet of met twee RTX3090 kaarten effectief 48GB eruit te halen is, aangezien het consumenten kaarten zijn en niet zoals de RTX A6000 die weer ander soort drivers gebruikt, en waar ik totaal ook niet bekent mee ben?

[Reactie gewijzigd door Davidoff1976 op 22 juli 2024 15:25]

Ik weet alleen niet of met twee RTX3090 kaarten effectief 48GB eruit te halen is, ...
Ja, dat kan nu wel inderdaad, dat is het 'nieuwe' van de consumenten versie, dat bij een tweede kaart er bij, ze over de PCIe 4.0 bus elkaars geheugen kunnen aanspreken, zonder sli connector als ik het goed begrijp.

Side note: De GPU kan over PCIe 4.0 ook direct bij de nvme zonder tussenkomst van CPU. Bijvoorbeeld om een 4GB video in 1seconde in te lezen :)
Octane users veelal denk ik. Corona is niet GPU-based toch?
Corona is zeker wel GPU-Based, maar dan alleen met denoising...dat had ik er wel even bij moeten zeggen.

Nadeel met Octane is weer dat je volledig afhankelijk bent van het GPU geheugen, en bij Vray en Corona in principe niet.

Bij (wat ik weet) Vray is het de mogelijkheid zelfs verschillende videokaarten aan te spreken alsmede de kracht van de processor tijdens het renderen.

Je kan zelf een GTX 970 aanspreken samen met een RTX3090 maar of dit slim is dat heb ik nog nooit getest.
Deze kaarten zijn niet gemaakt om te gamen maar word in de industrie gebruikt voor oa autocad of reddit te draaien.Deze kaarten kunnen heel goed 3 d renderen in realtime en kan het getekende object wat ze maken aan alle kanten bekijken.Ze hebben nu natuurlijk deze gemaakt omdat deze op de ampere cores draait wat weer anders is als de andere technieken die ze in het verleden hebben gebruikt.En zo heeft nvidia alles wat wils.

[Reactie gewijzigd door rjmno1 op 22 juli 2024 15:25]

Wat je nu beschrijft is totaal wat ik ook dus bedoel. Overigens zijn er al eerdere testen geweest met consumenten kaarten en de duurste quadro series, en daar kwamen de consumenten kaarten beter uit de bus. Ik heb het totaal dan niet over gaming e.d. maar serieus gebruik.

Alleen de Quadro kaarten hebben bepaalde functies die consumenten kaarten niet hebben en zijn ook op driver en hardware gebied veel betrouwbaarder. Maar voor programma's als Houdini, 3DSmax e.d. van Autodesk, Cinema 4D, Adobe producten zou ik deze niet aanraden met de woekerprijzen die ze ervoor vragen. Bovendien werken deze programma's vooral met de CUDA cores en VRay bijvoorbeeld ook met de RTX cores (als ik het zo mag noemen) https://www.chaosgroup.co...ds-support-for-nvidia-rtx

Zou voor middel/klein bedrijf nooit een quadrokaart kopen met zulke prijzen. Renderen gaat vele malen sneller en goedkoper met de duurste consumenten kaarten.
Het is idd zo dat die kaarten peperduur zijn nog duurde als de duurste consumenten kaarten.
Voor de partijen die nu in Machine Learning, gezichtsherkenning, videoherkenning (de big data centers van Amazon, Google, Facebook, etc) maakt dit soort prijzen niets uit. Sterker nog, die kopen in met korting, want die nemen racks vol af. Om maar iets meer gegevens van hun gebruikers te krijgen door hele neurale netwerken in te kunnen zien verdienen ze dit makkelijker terug. Nu kunnen ze in 1u van bijvoorbeeld 42 al makkelijk 4x zoveel kracht stoppen == minder serveroppervlak. Let straks maar eens op de drop van kaarten die nu 10 of 20k kosten, die gaan zo naar de helft op de tweedehands markten.

Verder nog de grotere CAD gebruikers, tekenaars, renderaars, ontwikkelingstudio's voor films, etc.

Dan nog eens het MKB met tekenen. Elk uur dat scheelt renderen kan er gewerkt worden, dus uiteindelijk zijn sommige prijzen wel te behalen, zo'n videokaart + workstation mag je best als 0,33 FTE rekenen om vervolgens in 3 jaren af te schrijven.
Ik had het dan ook expliciet over klein bedrijf evt. eigen gebruik waar ook zeer mooie prestaties mee te bereiken zijn!

Heb het niet over 'deep-learning' projecten of kosten m.b.t. renderen! Kwantiteit en kwaliteit is belangrijker!

[Reactie gewijzigd door Davidoff1976 op 22 juli 2024 15:25]

Is de 4096 bit geheugenbus van de GV100 niet een foutje?
Nee, dat is correct. Die kaart hebruikt HBM2, met brede bus en een langere kloksnelheid.
Hoe werkt dat door in prestaties als ik het zou willen vergelijken. Lineair kloksnelheid * bussnelheid is gok ik iets te kort door de bocht?
Voor de bandbreedte kloksnelheid * busbreedte, ik neem aan dat je dat ook bedoelde. Throughput van HBM is veel hoger dan voor GDDR6.

Latency is voor HBM weer hoger (dus langzamere toegang tot wiollekeurige data).

Voor graphics is throughput belangrijker en voor compute (mits je correct programmeert) ook.
Dat is het verschil tussen HBM2 memory en GDDR6:
HBM memory bus is very wide in comparison to other DRAM memories such as DDR4 or GDDR5. An HBM stack of four DRAM dies (4‑Hi) has two 128‑bit channels per die for a total of 8 channels and a width of 1024 bits in total. A graphics card/GPU with four 4‑Hi HBM stacks would therefore have a memory bus with a width of 4096 bits. In comparison, the bus width of GDDR memories is 32 bits, with 16 channels for a graphics card with a 512‑bit memory interface.[11] HBM supports up to 4 GB per package.
https://en.wikipedia.org/...ndwidth_Memory#Technology

[Reactie gewijzigd door bartvdbraak op 22 juli 2024 15:25]

AH ok, dat verklaart het. Dank voor de toelichtingen.
Nope, dat is geen foutje. HBM(2) werkt heel anders dan (G)DDR(6(X)), met een veel bredere bus.

https://en.wikipedia.org/wiki/High_Bandwidth_Memory
Anoniem: 1463186 5 oktober 2020 16:40
Ik ben wel benieuwd wat de gedachtegang is achter de naamgeving van deze kaarten. Het lijkt me dat juist de Quadro aanduiding het duidelijk maakte welke kaart waarvoor bedoeld is. Ik heb altijd het idee gehad dat RTX juist doelde op de Raytracing, aangezien ze RTX en GTX naast elkaar hebben. Maar nu hebben ze besloten dat ook de workstation kaarten RTX gaan heten, maar weer niet allemaal?
Blijft fascinerend om te zien hoe bedrijven als Intel en Nvidia (en AMD in mindere maten) zo veel moeite hebben met een consistente en logische naamgeving van hun producten.
In die sector is naamgeving helemaal niet relevant. Het gaat erom wat het ding kan. Nogmaals, geen consumer product. Al was het SSXS90005 , who cares.
Anoniem: 1463186 @BruT@LysT6 oktober 2020 10:33
Nee ik snap dat het in die sector niet uitmaakt, maar juist voor de consumentensector. Want als je nu gaat zoeken naar RTX, kom je dus workstation en consumenten kaarten tegen. Dan bel je retailer x, en die moet je dan uitleggen dat ze de RTX a6000 niet hebben, want dat is een workstation kaart maar ze hebben wel een andere RTX. Dat lijkt me een bijzondere situatie.

Dus mee eens, voor workstations maakt het niet uit, maar als je de naamgeving van consumentenkaarten gebruikt zit je dus niet alleen met die doelgroep.
Never mind, my mistake.

[Reactie gewijzigd door BramVroy op 22 juli 2024 15:25]

Opvallend dat er net zo'n "curve" in de shroud zit als bij de stock RX 5700XT.
dat ligt aan de fan die is gebruikt. daar wil je de airflow sturen naar de heatsink ipv dat het rodnjes om de fan heen draait. als je goed oplet dan zie je het bij alle koelers met zoon centrifugaal fan.
De pricewatch: AMD Radeon RX 5700 heeft exact dezelfde fan, maar geen curve.
die vorm zit aan de binnenkant, bij de rx5700xt en de A6000 kan je deze aan de buitenkant zien.
als je blower fans graphics card googled zie je wat ik bedoel
Dat is ook een erg vreemde opmerking, want tot voor kort had geen enkele kaart die curve zichtbaar aan de buitenkant! Dus hoezo 'alle' koelers met een centrifugal fan? Dat er aan de binnenkant vaak een rondig zit om de airflow te sturen is overigens wél waar. Oudere kaarten hadden nog wel eens een grotere ronding bij de ventilator t.o.v de luchtschacht. Maar zo'n indent zoals de 5700XT heeft had ik nog nooit eerder gezien.

[Reactie gewijzigd door BruT@LysT op 22 juli 2024 15:25]

Heeft de RTX 8000 geen 24 GB geheugen?

Zat verkeerd te lezen, excuses.

[Reactie gewijzigd door bounto op 22 juli 2024 15:25]

Op dit item kan niet meer gereageerd worden.