Eerste benchmarkresultaten van Nvidia A100-gpu verschijnen bij OctaneBench

Er is een benchmark verschenen van Nvidia's A100-gpu op basis van de Ampère-architectuur. De Octane-benchmark toont dat de gpu zo'n 43 procent sneller is dan de huidige Turing-gpu's, zonder gebruik van raytracing.

De benchmarks werden gedeeld door Jules Urbach, de ceo van Otoy. Dat is een bedrijf dat zich specialiseert in cloudgraphics. Urbach meldt dat de Nvidia A100 in zijn tests ongeveer 43 procent sneller is dan de huidige Turing-architectuur in de Octane-benchmark van Otoy. Het gaat hierbij om de sxm4-variant met een tdp van 400W. De pci-e-variant van de A100 heeft een tdp van 250W, maar heeft verder vergelijkbare specificaties. Die snelheidsverbetering komt ook naar voren wanneer er geen gebruik wordt gemaakt van raytracing. Voor de A100 gebruikte Urbach bijvoorbeeld de 'standaard OB4-benchmark' op een Linux 5.3-systeem, zonder raytracing. Daarin behaalde de videokaart een score van 446 punten, zo meldt de ceo.

Ter illustratie: op het moment van schrijven is de snelste gpu in de OctaneBench-database de Nvidia Titan V-gpu, die 401 punten haalt. Daarmee is de A100 ongeveer 11 procent sneller. De snelste Turing-videokaart in de OctaneBench-database is de Titan RTX-gpu, met een score van 322. Daarmee is de A100 uit Urbachs tests ongeveer 40 procent sneller. Een GRID-versie van de RTX 8000 doet het overigens iets beter in OctaneBench, met een score van 328.

Nvidia kondigde zijn Ampère-architectuur en de A100-gpu in mei aan. Die gpu heeft een die-size van 826 mm² en is vooral bedoeld voor datacenters of andere hpc-toepassingen. Vooralsnog wordt de nieuwe architectuur alleen gebruikt in de A100-gpu, maar op termijn komen er ook GeForce-videokaarten voor gamers op basis van Ampère. Het is nog niet bekend wanneer Nvidia dergelijke gpu's uitbrengt.

Otoy Benchmark Screenshot

Een screenshot van de huidige Octanebench-resultaten. Afbeelding via Otoy

Door Daan van Monsjou

Nieuwsredacteur

24-07-2020 • 16:44

64

Submitter: BiG_ChilD

Reacties (64)

64
60
38
2
0
7
Wijzig sortering
Ik ben een beetje bang dat NVIDIA net als Intel steeds hogere maximaal aantal Watt gaat gebruiken. En dat er dus weinig echte verbeteringen zijn. Maar goed, ben benieuwd straks naar performance/Watt testen.
De markt waar deze kaart voor gemaakt is kijkt niet echt naar verbruik.
En met de huidige kaarten krijg je meer performance per watt bij Nvidia dan bij AMD.

er gaan wel geruchten dat de top consumenten versie van de Ampere (de 3800) vrij veel verbruikt, maar dat kan ook zijn dat ze zich flink verkeken hebben in de kwaliteit van het procede van Samsung.
Iedereen die een DC runt is bezig met vebruik. En iedereen die servers in racks ophangt ook.

Elke watt die naar een kaart in een server moet, moet namelijk door hun eigen infra, hun eigen noodstroom, hun eigen voedingen om overal en nergens in dit process ongewenst in warmte om gezet te worden, die allemaal ook weer door middel van grote airco's en chillers het pand uit moet, meestal tegen wederom een kostenpost van een factor 20% van het originele stroomverbruik aan verbruik voor de cooling.
https://en.wikipedia.org/wiki/Power_usage_effectiveness

Uiteraard is er vaak genoeg een *grotere* wens naar performance, maar dat is altijd een afweging tegen de TCO die deze hardware met zichmeebrengt in stroom en coolingskosten.
40% van datacenter kosten is koeling. Los daarvan.

Densiteit en performance per watt zijn veel belangrijker dan het verbruik. Voor een klant is stroomverbruik maar een klein deel van de onkosten, dus die 400w zegt helemaal niets. Als ik kijk naar onze renderstack zitten de kosten voor t verbruik op 7% van wat het oplevert. Kijken we naar DaaS en CaaS oplossingen dan is dat nog maar 3% of minder.

Afbetaling van de hardware, licenties en onderhoud .. Daar liggen de echte kosten van een klant.

Edit ter nuance

[Reactie gewijzigd door millman op 24 juli 2024 00:26]

Dan doet jouw DC iets niet helemaal goed.
Een modern DC zit op een PUE van rond de 1.1 tot 1.2, zit het erg daarboven, dan is er iets niet in de haak of is het gewoon een oud datacenter waar zaken als hot/cold aisles niet geregeld zijn, of men nog daadwerkelijk airco's gebruikt het hele jaar door.
Ligt ook aan de toepassing van je datacenter: een algemeen DC die zich richt op cloud hosting of 'kale' webhosting zal andere PUEs hebben dan een DC waar ze zware HPC / supercomputers met combi van duizenden CPU en GPU cores draaien als een enkel systeem/hpc cluster.
En ook een puur traffic DC (eg amsix/lynx/decix l9katies/ruimtes) is anders dan een cloud dc (AWS, Google, MS Azure etc) of algemeen 'housing/hosting' dc waar klanten 1 of 2 racks huren voor kleine virtualisatie clusters etc.
Maar in het algemeen is voor de ontwerpers van DCs het stroomverbruik zeker heel belangrijk waarbij de kale kosten vd prik zelf nog niet eens het belangrijkst zijn maar wel de vervolgkosten als ups/generatoren, koeling kosten en capaciteit en maximale belasting per (rack) pdu etc etc
Maar er zullen vast gebruikers zijn die gpu verbruik minder belangrijk vinden dan ansolute rekenkracht.
Maar als ik zie hoe vaker ik 'near max phase use' alarmen ik krijg in mijn lab; waar 90% vd systemen volledig idle draaien (test/repro lab van emea support afdeling van grote computer, storage, netwerk en solutions leverancier waar we de meeste gangbare systemen (en kant en klare oplossingen als vxrail) hebben om gerapporteerde klant problemen te reproduceren. Die machines draaien meestal heel weinig load (& meeste worden elke vrijdag uitgezet en alleen weer aangezet als ze nodig zijn) en zelfs daar is stroomverbruik per 19" HE zo gestegen dat de pdu's vaak 'max load' meldingen geven en we in de laatste jaren al 2x de toevoer hebben moeten verzwaren zonder dat de ruimte groter werd en er amper meer kasten zijn bijgeplaatst.
(Wel vaker dat equipment niet meer elk weekend wordt uitgezet omdat steeds meer systemen dat niet waarderen of de opstarttijden zo lang worden dat uitzetten niet practisch is (met name bij SANs en HyperConverged).
Eigenlijk kunnen enkel losse bare metal servers en netwerk systemen nog makkelijk worden uitgezet (netwerk systemen voor reference doelen: niet de systemen om t lab zelf draaiend te houden: dat blijft uiteraard doordraaien)

En ik heb t hier enkel over een klein lab; geen datacenter (zon 35-40 vrij volle 19" kasten) en daar speelt prik al een grote rol
Ik heb het voor kosten in opbouw van een datacenter?
De voorganger van deze kaart zat al op 300 watt.
https://wccftech.com/nvid...0-worlds-largest-7nm-gpu/

Denk dat het met de prestaties per watt wel goed zit vergeleken met Volta.
Denk dat het met de prestaties per watt wel goed zit vergeleken met Volta.
33% hoger TDP voor 43% hogere prestaties. Dat is niet echt een grote vooruitgang als je bedenkt dat de voorloper van deze Ampère kaart meer dan 2 jaar geleden uit kwam in maart 2018. Je zou denken dat alleen al het overgaan van 12nm naar een 7nm procedé meer dan een slordige 15% prestaties op zou leveren bij gelijk TDP. Nog los van dat je mag verwachten dat de nieuwe architectuur verbetert zou moeten zijn in twee jaar tijd.

Als deze cijfers kloppen en zicht enigszins laten vertalen naar FPS in games dan gaan de nieuwe Ampère kaarten teleurstellen ben ik bang.
Ligt er een aan wat je workload is. Uit een ander bericht begreep ik dat de prestaties in bepaalde AI berekeningen/acties 20 keer sneller zijn dan de huidige series. Het lijkt helemaal hip te zijn om alles met AI te 'ondersteunen' dus ik gok dat hier de focus van Nvidia op ligt/lag bij Ampere. Dit soort spullen wordt vaak op 1 heel specifiek doel ontwikkeld en gekocht. Dus persoonlijk vind ik performance cijfers van dit soort kaarten niet heel boeiend als gamer en voor wat videobewerkring her en der. Hele andere tak van sport.

Kan niet echt recente harde cijfers vinden maar ik vermoed dat de markt waar de consument in zit nog steeds maar een vrij beperkt aandeel is voor de totale omzet van Nvidia net als bij Intel. Maargoed eerst maar eens zien wat er daadwerkelijk aan RTX30xx op de plank komt over een maand of 3. Zou voor de portemonnee helemaal mooi zijn als AMD met RDNA-2 eindelijk een concurrerend (en vooral leverbaar) antwoord heeft in de high-end dit keer.
"Het lijkt hip te zijn om alles met A.I te ondersteunen"

Hoe kan een functionele techniek louter 'hip' zijn? Dat is hetzelfde om te zeggen dat mp3 hip is. Met ai kan je een efficientie slag maken. Bijvoorbeeld AI upscaling is een mooi voorbeeld om efficienter met data om te gaan.
Hip is een manier om te omschrijven dat iets populair is maar niet per se overal een voordeel bied. De term hype wordt vaak als negatief gezien dus vandaar deze omschrijving. Kennelijk was hip ook niet duidelijk genoeg in deze context.
Nog los van dat je mag verwachten dat de nieuwe architectuur verbetert zou moeten zijn in twee jaar tijd.
Je mag natuurlijk een hoop verwachten, maar dat betekent niet dat het mogelijk is. Elke techniek loopt een keer tegen zijn einde aan, en hoe dichter bij het einde, hoe trager de vooruitgang. Dat is in het verleden al vele malen gebleken.
Je moet echter de boel ook nog kunnen koelen...
DC koeling.. Lijkt me geen enkel probleem? Onze renderstack met 2080tis en titans komt niet boven de 75c uit met OC. En dan staan er 4 naast elkaar.. 1200w.
Ze bedoelen koeling waarbij men meerdere servers met meerdere GPUs in meerdere racks heeft. Dan is elke watt koelen een meerkost op lange termijn die de kosten van de hardware zelf bijna overstijgen.
We zijn bezig met het uitwerken van een volledig submerged setup voor het DC in Kloetinge. Ik ben degene die de plannen uitschrijft dus om die vraag te beantwoorden ..ja.:)

Ik sta tot m'n knieën diep in de ontwikkeling en opbouw van het datacenter in de atoombunker in Kloetinge. Zowel in het verzorgen workload, advies en consult aan klanten en partners en m'n compagnon helpen met het uitwerken van het koelingplan. Vandaar m'n kennis van voor tot achter hoe een datacenter werkt, wat de kosten zijn enz enz. Vraag maar raak als je wat wilt weten.

[Reactie gewijzigd door millman op 24 juli 2024 00:26]

Dan snap ik helemaal niet waarom je kan claimen dat koeling (en verbruik) geen issue is.
Waarom zou je anders een DC submergen? Is dat gewoon fijner dan? :D

PS.

Tenzij u bedoelt dat de datacenters hievoor voorzien zijn. Koeling capaciteit is geen zorg voor de klant, dat klopt waarschijnlijk wel.
Maar ik kan mij natuurlijk niet inbeelden dat dit niet wordt doorgerekend naar de klant.

[Reactie gewijzigd door bruinebeer op 24 juli 2024 00:26]

Het gaat voornamelijk om performance /watt, densiteit en functionaliteit. Het gaat erom dat in een DC het geen enkel probleem is om die 400w te koelen.

Natuurlijk wordt verbruik doorgerekend aan de klant, maar dat staat niet in verhouding met wat er aan die 400w verdient wordt, het zijn onkosten.

Met deze V100 kan je 40% meer klanten bedienen in een hyperconverged setup. Dat wil zeggen dat je deze V100 net zoals een CPU opdeelt in verschillende VMs/containers). Reken maar dat zon upgrade voor rack density alleen al goede zaken doet.

Submerged bied een hoop voordelen, maar de initiële kosten liggen voor de klant hoger. Het voordeel ligt vooral bij t datacenter (betere efficiëntie) echter dient de klant wel te investeren in custom blokken en case, 1500€ per server ongeveer. Voordeel voor de klant is levensduur en performance. We zijn dus nog aan t kijken hoe en of we dit verder gaan uitrollen, iets waar ik mede in moet beslissen.

[Reactie gewijzigd door millman op 24 juli 2024 00:26]

Ik volg je niet helemaal. Performance per watt kan je belangrijk vinden vanwege de warmte die vrijkomt of de stroomkosten. Maar enerzijds zeg je dat de verbruikskosten niet significant zijn en anderzijds zeg je dat de warmte er ook niet toe doet. Vervolgens zeg je dat een DC submergen beter is voor de levensduur en performance. Maar die betere levensduur en performance bereik je toch juist doordat je de boel koeler kan houden?
Je moet kijken vanuit 2 partijen, enerzijds de klant, anderzijds het DC.

Voor de klant maakt die 400w niet uit, het staat niet in verhouding met de inkomsten. Voor een datacenter is t zeer belangrijk omdat de kosten voor de bouw van koeling in verhouding veel hoger liggen dan die van de klant.
Ja, ik denk dat iedereen begrijpt dat de klant vooral naar performance en time to completion van een bepaalde taak kijkt. Maar dat was helemaal het punt van de originele reactie niet :D.

Uw eerste reactie: "DC koeling.. Lijkt me geen enkel probleem?"
Nu zojuist: "Voor een datacenter is t zeer belangrijk omdat de kosten voor de bouw van koeling in verhouding veel hoger liggen dan die van de klant."

Deze twee quotes zijn toch tegenstrijdig me dunkt?
Als de DC ineens in de problemen komt omdat racks volstaan met zulke setups, moet de klant toch elders gaan kijken? Dus daarmee waarschijnlijk de reactie "Je moet echter de boel ook nog kunnen koelen...", ik vind dat een terechte zorg.
Met die initiële opmerking bedoelde ik dus dat deze kaarten in een datacenter gebruikt worden waar het geen enkel probleem oplevert deze 400w te koelen.

Daarnaast zijn er dus 2 partijen, het datacenter en de klant. Voor de klant is het verbruik een stuk minder van belang dan voor een datacenter.

[Reactie gewijzigd door millman op 24 juli 2024 00:26]

Je moet eens een 2080ti overclocken en dan de eigen stroom betalen....... en dan gamen Merk je meteen per maand op de rekening
Appels met peren vergelijken?

Deze kaart is voor een volledig andere markt. Zoek de specs ervan eens op. De doelgroep ervoor lacht om dit verbruik.
Krijgen we straks Thermal throttling op de NVIDIA gpu's als we geen liquid cooling gebruiken? Ik ben ook bang dat het die kant op gaat.
Nee, dit zijn eerder server gpu's, ze zullen de afgeleide consument gpu's bijtweaken zodat ze voldoende kunnen gekoeld worden op klassieke manieren.
Aanvullend kunnen ze het ook niet te gek maken met het verbruik.

Waar we de laatste jaren met kleine stapjes terug zijn gegaan in verbruik, zijn de consumenten systemen hier ook op aangepast. Wij verkopen tegenwoordig meerendeels rond de 500/600 Watt voedingen in geassembleerde systemen.
1000 Watt voedingen of meer raken we aan de straatstenen niet kwijt.

Als Nvidia nu enorm zou gaan knallen met het verbruik betekent dit voor een hoop consumenten dat ze dan ook meteen een andere voeding nodig zullen hebben. Dat maakt de aanschaf van een dergelijke kaart meteen een stuk minder aantrekkelijk.

Gezien de terugkomst van AMD op de GPU markt zal nvidia zich hier ongetwijfeld maximaal voor inzetten en de kaarten terug brengen tot een acceptabel niveau.
Waarom ben je daar bang voor, tot nu toe zijn de nvidia gpu's nog net zo zuinig al niet zuiniger dan de amd gpu's als ik er niet naast zit.
Heb je Nvidia ooit de performance crown zien weggeven als ze met meer gebruik konden winnen? Goed voorbeeld is Fermi, de HD5870 was de kaart die zuiniger was (en imho de betere kaart). De GTX 480 was zo'n 10-15% sneller maar gebruikte heel wat meer dan die 10-15%, daarnaast kwam deze later uit.
Bij Maxwell was het voor Nvidia niet meer echt nodig om monsterlijk veel te gebruiken omdat ze toen de betere architectuur hadden (Kepler stelde weinig voor en i.t.t. GCN 1.0-1.1 is nu onbruikbaar).
Het is niet zo vreemd dat er meer wattages nodig zijn gezien er nu naast de GPU core ook tensor en RTX cores gebruikt worden. In combinatie met steeds meer en sneller geheugen (geen idee of dat over de jaren heen zuiniger is geworden qua verbruik).

Het is natuurlijk niet zomaar even wat meer stroom er doorheen jagen zodat de boel sneller is. Daar moet de architectuur en chips wel tegen kunnen. Gezien dit de snelste variant is zal de consumentenversie uitkomen op hooguit 300 watt vermoed ik. Dat is toch prima voor een high end kaart? 43% over de vorige generatie is een enorme vooruitgang. Voor de meeste gamers is verbruik bijzaak zolang de koeling goed geregeld is.

[Reactie gewijzigd door biggydeen2 op 24 juli 2024 00:26]

De kaarten zullen voor gamers prima te koelen zijn, maar zo in de zomer vind ik het best fijn als er 100 ipv 300W de kamer ingeblazen wordt als ik een keer een spelletje speel.

Die performance winst is wel erg mooi als die zich ook naar games vertaalt, misschien tijd om afscheid te nemen van de trouwe 980ti.
Zeker, hoe minder verbruik hoe beter. De RTX3000 zal je voornamelijk gaan gebruiken voor 1440p of 4k gaming. Of je moet al een 240hz 1080p free/gsync scherm hebben.
Ik snap iedereen niet zo met ''koeling'' vooral op youtube miljoenen mensen met hun PC met exotische kasten en gpu koelers.

Ik heb een micro atx kast, had een 2080ti op 2ghz en dat was een blower model. Geluid heb je amper last van. Zonder overclock hoor je de kaart geeneens met gaming

[Reactie gewijzigd door A87 op 24 juli 2024 00:26]

Er zijn wel tijden geweest dat ik wel degelijk mijn videokaart hoorde blazen als ik geen headset op heb. Maar met headset is dat eigenlijk nooit een probleem.
Zit al in de naam he, ampère.
Zit al in de naam he, ampère.
Misschien kunnen ze het beter hernoemen naar hectoampère ;) .
Wij renderen met Octane en hebben twee systemen. Een systeem met 6x gtx 780 ti (ons oude systeem) en een 5 x 1080 ti systeem. Deze systemen scoren rond de 600 en 1100 Ob op OctaneBench. Met twee van deze kaarten kom je al bijna op de 900 uit. Ook al is het verbruik misschien hoger per kaart is hij zuiniger als je naar de score kijkt. Daarnaast is deze bench gedaan zonder RTX. Dit geeft gemiddeld een boost van een factor twee, in sommige scènes kan het oplopen tot 5x) (dus twee kaarten zouden dan 1800 tot 4500 ob kunnen scoren). Dat is echt een mega winst in verbruik.

[Reactie gewijzigd door nr12 op 24 juli 2024 00:26]

Dit, wat denk je van 7700k. Met laag salaris verbruikt zoiets al genoeg stroom.
Dat zijn ongeveer 5x GTX1060 kaarten volgens mij? Ik render nu +- 6 jaar met Octane, en met een OB score van 446 is de workflow zeer aangenaam kan ik mij voorstellen. Een interieur render met alle toeters en bellen, HDRI`s, IES-lampen en 4K textures op 1080p zou denk ik een paar minuten duren..de AI denoiser werkt namelijk ook ontzettend goed!
Voor t geld dat je betaald voor deze v100 kun je een rig samenstellen met een 24-core threadripper en 4 2080tis met een score van 1200OB. Over relaxte workflow gesproken
Een threadripper is onverstandig om te gebruiken. Compileren gebeurt voornamelijk op 1 core. Verder hangt het er helemaal vanaf wat je renderd. Deze kaart heeft 38 GB geheugen. Als je hele grote scènes renderd kan het niet op een 11 Gb kaart. Of je moet out of core memory gebruiken maar dan heb je een enorme penalty hit.

Overigens denk ik dat millman whersmy vooral doelt op de rtx gamer kaart die hier van uitkomt.

Edit: had verkeerde naam gebruikt.

[Reactie gewijzigd door nr12 op 24 juli 2024 00:26]

Een v100 koop je niet voor renderwerk, maar wel voor NVGrid toepassingen, AI deeplearning enz enz.

Onze eigen renderstack bestaat uit RTX titans voor de grotere jobs, maar voornamelijk uit 2080tis. 95% van de renderjobs zijn prima voor2080tis. Overigens zijn threadrippers prima CPUs voor een renderstack, CPU rendering is nogsteeds een ding en 25-30% zijn cpu renderjobs.

[Reactie gewijzigd door millman op 24 juli 2024 00:26]

Hangt dus van je toepassing af. Sommig studio’s gebruiken ze. Verder had ik het over compileren van de data die voor de GPU’s geschikt moet worden gemaakt. Dit is een single core toepassing. Ik neem aan dat als je een systeem maakt met 4 x 2080 ti, je hem voor gpu rending gebruikt. Dus dan heb je minder aan een threadripper.
Maar zoals ik al zei ging whersmy”s bericht denk ik over de game variant hier van.

Edit:typo

[Reactie gewijzigd door nr12 op 24 juli 2024 00:26]

Onze renderstack is voor zowel gpu als CPU rendering, waarom zou je dat apart doen?
Wij hebben ze gesplit. Omdat het in onze ogen sneller/stabieler is. GPU en cpu simultaan renderen brengt soms de nodige problemen met zich mee. En wij willen het compileren voor de gpu zo kort mogelijk om zo veel mogelijk gebruik te maken van de render kracht van de videokaarten.
Ok, maar onze renderstack heeft een mooie verdeling qua load en de nodes zijn nu multipurpose. Elke node heeft 128GB ram en we zijn bezig met Threadripperstacks met 256GB ECC voor CaaS en DaaS services. Natuurlijk renderen wij geen GPU en CPU jobs tegelijk.
Ligt wel aan je interieur scene hoor, want als het iets schemerig moet zijn zit je al over een paar minuten heen :P
Octane is puur GPU, dus daar kunnen nog wel een paar 2080tis bij ;)

NB
Op een gegeven moment heb je een "sweet-spot" qua render tijd. Octane schaalt linear, dus op een gegeven moment heb je na 4x 2080tis, nogmaals 4x 2080tis nodig om twee keer zo snel te renderen. Als de rendertijd initieel iets van 10 minuten zou zijn, dan is het enkel interessant voor animaties.
Is die lineaire schaling ook de reden dat deze nieuwe Ampere kaart maar 11% sneller is dan de Titan V? De A100 heeft 25% meer fp32 en fp64 performance en 72% meer geheugenbandbreedte dan de Titan V en haalt 'maar' 11% meer performance. De oude Volta deed het blijkbaar goed in deze toepassing. Na Volta hebben we nog Pascal en Turing gehad en nu dan Ampere, je zou verwachten dat dat toch wel een doorontwikkeling van de cuda cores moet zijn, maar deze 11% lijkt dan wat tegen te vallen.

En dan nog het verbruik, de Titan V heeft een tdp van 250 watt, de A100 400 watt, al begrijp ik dat die 400 watt voor de hele chip is, dus cuda en tensor cores. Ik ben dan ook benieuwd wat het verbruikte vermogen van de A100 was ten opzichte van de Titan V. Ik hoop toch wel dat de A100 onder het verbruik van de Titan V is gebleven. :? :X

Edit:
Linkje gegevens: https://en.wikipedia.org/wiki/Ampere_(microarchitecture)

[Reactie gewijzigd door Rudie_V op 24 juli 2024 00:26]

Een tdp van 400W, dat geeft toch veel hitte af in je kast? :o
Dit zijn geen desktop kaarten ;)
Dat, en een gescheiden koelingssysteem (die&vrm) dat asymmetrisch is:
1 fan+heatsink onderaan vooraan
1 fan+heatsink bovenaan achteraan
Toen ik mijn 2x R9 290 nog gewoon op lucht liet draaien was het warm maar niet exceptioneel. Als de airflow in de kast goed is kan dat prima. Bovendien komt er niet heel veel stralingswarmte van af, wel warme lucht. Deze kaart zal dus ook wel prima gaan als de heatsink groot genoeg is.
Ik denk dat we voorlopig alleen maar grotere koelers gaan krijgen. We zitten nu al op 2,5 slots, of zeg maar gerust 3, maar dat zal denk ik nog groter worden dmv grotere fans oid tenzij er meer kaarten met geïntegreerde loops komen zoals https://tweakers.net/pric...erforce-8g/specificaties/
AuteurAverageNL Nieuwsredacteur @akaash0024 juli 2020 17:03
Het gaat hier dus specifiek om de sxm4-variant, de pci-e-versie heeft een lagere tdp :)

Ik dacht dat dat duidelijk genoeg was, maar ik in de comments meer verwarring ontstaan, dus ik zet dat bij dezen nog specifiek in het artikel
Die hogere TDP past dan weer precies in het nieuws rondom de nieuwe connector, of zie ik dat verkeerd?
Nvidia, ik wacht op de datum van de nieuwe kaarten.. Wil de RTX3080 binnen hebben voor Cyberpunk 2077 :9
Als dit waar is vind ik dit toch ietwat teleurstellend... had meer verwacht .

Op dit item kan niet meer gereageerd worden.