Gerucht: Nvidia GeForce RTX 4090- en 4080-pcb ondersteunen tot 24GB GDDR6X

De Duitse techwebsite Igor'sLAB heeft foto's van een RTX 4090- en 4080-referentie-pcb ontvangen. Daaruit blijkt dat die kaarten tot 24GB GDDR6X-geheugen zouden ondersteunen. De AD102-gpu en de huidige GA102 moeten daarnaast pin-compatibel zijn.

Het doorgaans goed ingelichte Igor'sLAB heeft foto's van een referentie-pcb voor de AD102-gpu ontvangen van zijn bronnen. Die moet gebruikt worden in de GeForce RTX 4090 en RTX 4080. Het gaat om foto's van een kale pcb, waaruit details over de komende generatie RTX-videokaarten zijn af te leiden.

Igor'sLAB schrijft bijvoorbeeld dat de referentie-pcb maar liefst 24 vrm-fasen voor de gpu bevat. Dat zou nodig zijn voor de AD102-gpu, die volgens eerdere geruchten een hoge tdp van 600W krijgt. Nvidia zou voor de vrm-lay-out drie uP9512-controllers gebruiken, die ieder acht fasen kunnen genereren. Daarnaast zijn er nog vier fasen voor het videogeheugen.

Ook zijn er twaalf soldeerpunten voor het GDDR6X-vram te zien. Dat geheugen wordt gemaakt door Micron en is beschikbaar in modules van ieder 1 of 2GB. Dat betekent dat de AD102 uitgerust kan worden met maximaal 24GB aan videogeheugen. Lager gepositioneerde RTX 40-modellen zouden bijvoorbeeld geleverd kunnen worden met 8 of 16GB geheugen, schrijft Igor'sLAB.

De website schrijft daarnaast dat de komende AD102-gpu en de huidige GA102-gpu in de RTX 3090 Ti, 3090 en 3080 onderling pin-compatibel zijn. Als dat klopt, dan zouden aangepaste videokaartontwerpen voor de RTX 3090 Ti deels hergebruikt kunnen worden voor de RTX 4080 of RTX 4090. Dat zou de ontwikkeltijd en -kosten voor boardpartners beperken. Igor'sLAB speculeert dat de RTX 3090 Ti een soort proefrun is voor de komende AD102-kaarten met hogere 600W-tdp. Fabrikanten zouden een GA102-chip met aangepaste 600W-bios gebruiken om hun ontwerpen voor de komende AD102-gpu's te testen, schrijft de techwebsite.

Nvidia's komende Lovelace-architectuur en AD102-gpu voor consumenten wordt in de tweede helft van dit jaar verwacht. Naar verwachting krijgen de kaarten meer CUDA-cores en L2-cache dan hun voorgangers. Onlangs introduceerde Nvidia al zijn nieuwe Hopper-architectuur, maar die is specifiek bedoeld voor hpc en datacenters en komt niet naar consumentenvideokaarten.

Een diagram van de AD102-referentie-pcb, op basis van foto's. Bron: Igor'sLAB

Door Daan van Monsjou

Redacteur

25-03-2022 • 11:37

104 Linkedin

Lees meer

Reacties (104)

104
99
47
5
0
4
Wijzig sortering
Vooruitgang? Eerder achteruitgang. Waar is de efficiency en waar is de “beste performance per watt”? Dat vind ik veel belangrijker dan maar de wattage omhoog knallen voor een paar procent betere performance. Just my 2 cents.
De huidige generaties hebben een betere performance/watt. Kijk maar naar deze tabel: https://tpucdn.com/review...ges/energy-efficiency.png

Het is Nvidia 3000 en AMD 6000 die het hoogste scoren. Het meest efficiënt is de 6800 gevolgd door de 3070 en 6900XT. Het minst de RX Vega 64. De 6800 is 2,5x efficiënter dan de Vega 64.

Daarnaast kun je onderklokken om de efficiëntie te verhogen. Mijn 3080 draait op 85% power limit wat 5% in performance scheelt.

[Reactie gewijzigd door lordawesome op 25 maart 2022 12:22]

Het is natuurlijk om te huilen als je (als Nvidia) luidkeels verkondigt dat er met de nieuwe architectuur (3000-serie) een 90% effeciëntie slag behaald is, en er vervolgens in de praktijk maar luttele procenten van overblijven.

De praktijk is dat videokaarten nu op een ongekend hoog verbruik zitten en AMD en NVIDIA wordt geen strobreed in de weg gelegd om de volgende generatie ditzelfde (of zelfs nog erger) te doen.

De 1060 zat op zo'n 100-125 watt, nu met de 3060 haal je makkelijk de 175 watt. Dat is gewoon een toename van meer dan 50%.

Ik vind het niet uit te leggen dat we in een tijd waarin we steeds bewuster worden van ons energieverbruik en de impact daarmee op het klimaat dat we een kachel van soms wel 500/600 watt op/onder ons bureau plaatsen om met name de wand erachter te verwarmen...
Ja dat verbaast mij ook! De TDPs lijken alleen maar toe te nemen, toegegeven de performance klimt elk jaar ook een beetje. Gamers blij! En dan komt er nieuws van Apple, die met zijn M1 chips een GPU integreert die slechts een fractie van dit vermogen lijkt te gebruiken, en toch (geclaimed door Apple) een hoge performance neerzet. Nu is Apple hardware natuurlijk moeilijk te benchmarken met dezelfde games als Nvidia en AMD, maar ik blijf me wel afvragen hoe de GPU hardware van Apple zo veel efficienter lijkt. Doen ze bij Nvidia en AMD iets verkeerd? Zijn de cijfers van Apple vertekend? Het kan niet alleen door de nieuwe TSMC node komen waar Apple mee werkt. Mis ik iets?

[Reactie gewijzigd door DwarV op 25 maart 2022 15:10]

Ik heb nog geen behoorlijke benchmarks met wattages gezien, maar Apple claimt dat zijn M1 Ultra maximaal 215 watt gebruikt: https://support.apple.com/en-am/HT213100

Dat komt waarschijnlijk door TSMC 5nm, terwijl een 3080 Samsung 8nm is, wat al minder efficiënt is dan TSMC 8nm. Alder Lake zit op Intel 7, wat ook hoger dan TSMC 5nm is.

Ik verwacht daarnaast dat Apple zijn CPU en GPU niet zo agressief heeft geklokt. Ze hebben immers veel minder concurrentie. Oh, en dat geheugen is unified, dus je hoeft minder geheugen van stroom te voorzien.
Apple gebruikt een mobiele GPU architectuur die oorspronkelijk bedacht is voor vermindert stroomverbruik. Het is alleen reteduur om deze te schalen naar desktopprestaties.
De 1060 zat op zo'n 100-125 watt, nu met de 3060 haal je makkelijk de 175 watt. Dat is gewoon een toename van meer dan 50%.
Zolang de performance mee schaalt is dat natuurlijk niet direct een probleem.
Kijk bijv. naar deze review: https://www.youtube.com/watch?v=8rz32GVndEM

De door hun geteste 1060 zit op 116W, de geteste 3060 op 178, een +-53% hoger verbruik.
Kijk je echter naar de performance is deze gemiddeld over 14 games op 1080P +-104% hoger als je kijkt naar de 1% lows of 100% hoger wanneer je kijkt naar gemiddelde framerate.

Op 1440P is dit respectievelijk +-97% en 95%, waarbij een 1060 eigenlijk niet te gebruiken is voor 1440P terwijl de 3060 het prima doet.
Door mijn 3080 te undervolten naar 0.818Mv met een max clock van 1830mhz(ook om temps wat in toom te houden) daalde ik met gemak 100Watt aan stroom verbruik en afhankelijk van het spel zak ik naar ~160 watt. Doorgaans hang ik tussen 200 tot 230 watt aan stroom verbuik op mn GPU.

Dit is wel softwarematige uitgelezen dus niet 100% accuraat maar het toont wel aan dat deze GPU's niet enorm inefficient zijn. Nvidia lijkt hun GPU's nu tegen de rand aan de fabriek uit te schoppen.
Dit is wel softwarematige uitgelezen dus niet 100% accuraat maar het toont wel aan dat deze GPU's niet enorm inefficient zijn. Nvidia lijkt hun GPU's nu tegen de rand aan de fabriek uit te schoppen.
Dat laat juist zien dat deze GPU's in de basis zeer efficient zijn, enkel dat Nvidia ze niet voor optimale efficiëntie tuned, in ieder geval in het consumenten segment. Wat natuurlijk klopt, zowel Nvidia als AMD verkopen hun GPU's niet getuned op het voor efficiëntie optimale punt op de v/f curve, simpelweg omdat dat performance kost die ze wel willen bieden aan klanten. Daarnaast is het ook een vorm van binning, niet iedere chip heeft dezelfde eigenschappen, en de meest efficiënte gaan naar naar de zakelijke markt.

Maar dat maakt wel dat undervolten door de consument vaak tot goede resultaten kunnen leiden, waren de chips in de basis niet efficient, dan was dat juist niet mogelijk geweest. Undervolten is dan ook zeker aan te raden als je jouw GPU maximaal wil tunen, zowel bij Nvidia als AMD trouwens, mijn 6900XT scoort bijv. ook beter met een undervolt.

Maar neemt ook daar niet weg dat een RTX 3080 een stuk efficienter is dat een GTX 1080 wanneer je naar mijn eerder geposte review kijkt.

De GTX 1080 verbruikt 197W, de RTX 3080 327W, +- 66% meer.
Op 1080P is de +-86% sneller bij 1% lows, +-90% bij average framerate.
Op 1440P is dit respectievelijk 110% en 116%

Wat overeenkomt met de review conclusies dat de RTX 3080 geen 1080P GPU is, maar juist een beter rendement heeft op hogere resoluties.

Maar ook hier je, hoewel meer afhankelijk van de workload (1080P is bijv. niet super, maar nog altijd een verbetering), dat een 3080 hoewel hij flink meer verbruikt, simpelweg ook flink efficiënter is dat een GTX 1080, waarbij je met handmatige tuning met een 3080 normaal gesproken zelf ook nog eens meer kan winnen dan bij een 1080.

[Reactie gewijzigd door Dennism op 25 maart 2022 19:14]

En wat scheelt die -15% dan precies in verbruik, in kWh? Ben ik benieuwd naar.
Veel dus. Je hebt op een gegeven moment een hoop extra voltage nodig hebt om wat extra MHz eruit te persen, zoals je waarschijnlijk al weet.

Zie hier een handig filmpje startend op 4:10 met een diagram van de wattages bij verschillende mV's en MHz's: https://youtu.be/FqpfYTi43TE?t=250

Natuurlijk geld "your mileage may vary" maar hierbij even wat copy paste voor de beeldvorming voor deze RTX 3080 FE:
2000Mhz @ 987mV (overclock met undervolt): 315 watt
1920MHz @ 1026mV (stock): 318 watt
1800MHz @ 806mV (underclock en undervolt): 215 watt

Verschil tussen 2000MHz met undervolt en 1800MHz (dus 10% GPU clockspeed afname) met undervolt is dus 100 watt, bijna 1/3e van het verbruik. En dat is met undervolt in beide gevallen. Simpelweg undervolten en de clockspeed niet wijzigen zal ook ong. 50 watt besparing opleveren.
Nee eerlijk gezegd weet ik er vrij weinig van, maar was met name benieuwd naar wat die winst dan onder de streep is. Dus stel je neemt die 100 watt, dan moet je toch 10 uur gamen om een verschil van 1 kWh te realiseren op je energienota? Dan moet je toch heel wat dagen héél lang gamen om hier echt in de portemonnee wat van te merken? Misschien zie ik iets over het hoofd.
Je berekening is juist. Bij een kWh prijs van 0,45 euro bespaar je dan inderdaad 0,45 euro na 10 uur gamen. Of dat veel of weinig is ligt eraan hoe je het bekijkt. Ik vind het dat het waarschijnlijk wel waard voor die paar uur die ik game in de paar maanden, als dat daadwerkelijk betere gameplay of graphics oplevert.

Echter kan de daadwerkelijke performance winst nogal tegenvallen. Zoals je in de rest van het filmpje (waar maar 1 spel getest wordt en de resultaten mogelijk biased zijn) maakt het maar een paar frames per second (FPS) verschil in 4K in Rainbow Six Siege waar zo'n 180 FPS wordt gehaald (verwaarloosbaar dus), althans zoals daar getest. En of je het verschil van enkele tientallen FPS in de 300 FPS range zinvol vind in die 1440p resolutie, dat ligt aan je wensen. Ik kan me best voorstellen dat je dat wil als je bijv. een 360Hz monitor hebt. Maar als dit representatief is, dan is het dus duidelijk dat er veel wattage extra nodig is om die paar extra procenten performance eruit te persen. En die paar procenten maken helaas regelmatig net het verschil om boven de concurrent in de benchmarks te eindigen, waarna de conclusies van velen al snel getrokken zijn (het leidt tot Youtube content titels als 'X absolutely destroys Y).

100 Watt vind jij niet veel. Ik zou zeggen dat 200 Watt i.p.v. 300 Watt een enorm efficiëntieverschil is. Het argument van velen hier is denk ik dat dit wel degelijk een aardig verschil vormt op globaal niveau als je alle gamers bij elkaar neemt.

Je kan het argument gebruiken dat iedereen een duit in het zakje zou moeten doen, of zijn energiegebruik (zeker die van fossiele brandstoffen en evt. kernenergie) zou moeten doen minderen of in ieder geval niet of minimaal zou moeten laten toenemen, de gamer, de autobestuurder, degene die de stofzuiger bedient, degene die de temperatuur in het huis aangenaam houdt, etc.

En dan kan je als tegenargumenten gebruiken dat 100 of 200 watt extra voor een hobby als dit niet zoveel is in vergelijking met sommige andere praktijken, zoals autorijden in dikke auto's. Het ligt er ook weer aan hoe je zo'n videokaart gebruikt. Hoe vaak game je, en draait hij dan daadwerkelijk op 100%, of met undervolts en met zaken zoals v-sync aan zodat hij niet eens de helft van het maximale wattage verbruikt.

Hoe je het ook wendt of keert, een stijging van 300 a 450 watt voor een RTX 3080 / 3090 naar 400 a 600 watt voor een RTX 4080 / 4090 is aanzienlijk. Ik vermoed dat veel mensen een videokaart redelijk stock draaien. Hoor bijv. vaker van gamers dat ze bijv. een custom fan curve instellen al teveel moeite en risico vinden, terwijl dat nog een stukje eenvoudiger is dan het aanpassen van voltage curves. Hoe meer je erover nadenkt, hoe meer je (mogelijk) gaat denken dat het best wel zonde is dat die kaarten stock zo zijn ingesteld (100 Watt extra), terwijl de meeste gamers er weinig van merken (soms zelfs minder dan 5% performance extra). En met de nieuwe serie topkaarten wordt dit dus misschien wel 150 a 200 Watt, als deze vergelijkbaar werken.
Begrijp me niet verkeerd, ik koop al mijn apparatuur A+++ en gebruik met ons gezin 1800 kWh per jaar. Energiebewust denken vind ik zeker wel belangrijk. Alleen in het geval van die videokaart zie ik dan weer iets van een tegenstrijdigheid: je legt er (belachelijk) veel geld voor neer, en dan leg je jezelf restricties op in kwaliteit voor grofweg 5 cent per uur (en tot voor kort 2-3 cent). Ik zou dan persoonlijk liever op andere zaken bezuinigen, of compenseren via zonnepanelen ofzo.
Dus ik heb met mijn 6900xt een efficiente kaart :-) Wordt wel vrij warm met zijn 300W. Je hebt echt wel goede koeling etc. nodig als dat verdubbeld lijkt me zo.
ik heb mn 6900 xt reference design voorzien van een waterkoeler en een MPT van 500 watt :-D
Furmark goes brrrrrrrrrrrrrrrrrrrrrrrrrrrrrrrr
Kort samengevat, je wil voor efficiëntie een kaart op een zo nieuw mogelijk productieprocedé (TSMC 7nm is nu wel het beste, IGP's en de RX6500 niet meegerekend) en een zo laag mogelijke kloksnelheid. Bij veel moderne kaarten kun je de door de kloksnelheden en voltages te verlagen een veel efficiëntere GPU krijgen, voor een gering prestatieverlies.

De RX6800 en RX6600 doen het wat dat betreft het beste op de standaardsnelheden. Nvidia blijft een beetje achter vanwege Samsung's productieprocedé.

[Reactie gewijzigd door bwerg op 25 maart 2022 13:48]

heb mn 6800xt met 200mhz terug geklokt, verbruik is van 300w naar 225 gegaan. de hot spot is maximaal 85 graden en gpu 75graden, merk bijna niets van dat ik minder frames heb, maar wel dat er achterin minder hitte naar buiten komt
Beter een undervolt curve maken. 10%, meer performance voor 10% minder verbruikt.
Daarvoor moet je niet bij een 3080 of hoger zijn.
Ik denk dat de volgende generaties het vooral moet hebben van veel meer raytracing cores. Dit om een hogere kwaliteit real-time global illumation, ambient occlusion en reflections waar te maken. Mogelijk met meer bounces...

Ik denk dat het het nu vooral gaat om de volgende generatie veel meer raw muscle te geven, en zolang de cores niet op een flink lager aantal nanometer gebakken wordt, zal het tdp sterk toenemen.
Precies. Als het wattage nou dubbel is dan verwacht ik ook een verdubbeling in performance. Dit zou er natuurlijk niet zijn.. :'(
lijkt mij ook heel gek om constant maar het verbruik omhoog te pompen vooral nu met de huidige stroomprijzen. als je met een 3090 aan het gamen bent zit je met 100 uur zo op de €30 aan stroomkosten. kan je beter gaan streamen.
Het wordt ook tijd dat er grenzen aan gesteld worden. Is bijvoorbeeld in California al een feit
Dat geheugen wordt gemaakt door Micron en is beschikbaar in modules van ieder 1 of 2GB
Hoop dat ze dit op 2 GB houden. Ze hebben geleerd dat 1Gb chips niet handig is, omdat de chips erg heet worden en eigenlijk geen koeling hebben behalve een dun plaatje aluminium.
Fabrikanten zouden een GA102-chip met aangepaste 600W-bios gebruiken om hun ontwerpen voor de komende AD102-gpu's te testen
Hoop zelf dat dit niet een standaard TDP wordt voor de 4xxx series. AMD is tegenwoordig flink bezig met het optimaliseren van de kaarten. Minder wattage meer performance. Dit zou NVIDIA ook moeten doen. Ik denk persoonlijk dat zij het niet helemaal bij kunnen houden momenteel. Ik vond het wattage al veel met de 3xxx serie, maar een verdubbeling op wattage? Dan mag ik ook hopen dat ze een verdubbeling in performance.
In princiepe zouden de 2GB chips meer moeten verstoken, per stuk. De oververhitting kan ook te maken hebben met slechte koeling van keuzes van NVIDIA of AIBs.

Tenslotte worden de geheugen configuraties meer uitgekozen op bus breedte en geheugen bandbreedte. De 3060 met 12GB heeft meer VRAM dan de 3060Ti, 3070 of 3080. Waarschijnlijk omdat ze geen 6GB kaart nog wilden maken. Echter die GPU is ook weer niet krachtig genoeg om naast Ultra quality settings (als je daar al aan komt), ook nog de giga textures packs er bij te laden.

Mag inderdaad hopen dat 600W TGP niet de standaard worden. Wellicht komen er wel gekke kaarten uit die dat doen. Maar over het algemeen wordt de meeste winst behaald met efficientieslagen in process en architectuur. Welk TGP op de doos staat maak ik mij nog niet direct het meest zorgen over (met vsync of verwant begrens je dat weer iets). Als AMD bijvoorbeeld 50% efficienter is en NVIDIA maar 30%, dan is wel duidelijk wie potentieel de dikste kaarten kan bouwen... mits hoog genoeg TGP en geen andere bottlenecks, want FLOPS <> FPS is niet 1:1 schaling helaas.

[Reactie gewijzigd door Hans1990 op 25 maart 2022 12:32]

2GB chips worden toch net zo heet als 1GB chips? Of wil je zeggen dat je er dan minder nodig hebt, dus minder om te koelen?
Waar op gedoeld wordt is dat een 3090 nu chips aan beide kanten heeft waar een 3080(Ti) deze alleen aan de voorkant heeft.

Aan de voorkant kan het geheugen netjes contact maken met de koeler, op de achterkant is dat nu alleen een backplate zonder actieve koeling :).

Met 12x2GB kan alles aan de voorkant. Met 24x1GB komen ook chips op de achterkant :).
De AMD 6800XT verstookt rond de 300 watt, de Geforce 3080RTX 320watt, dat is geen groot verschil.
Dit is met performance per watt flink recht getrokken. Dit was veel erger een paar jaar geleden.
Deze 2 presteren ongeveer gelijk ook.
Inderdaad dat klopt. Ik bedoelde het niet zo. AMD verbruikt laatste jaartjes minder stroom in vergelijking met performance wat je krijgt. Nvidia daar in tegen is gestegen qua wattage.
Voornamelijk naar elkaar toegegroeid uiteraard. Ik verwacht dat beide fabriekanten met de volgende lichting een fors verbruik gaan vertonen. Al gaan er geruchten dat AMD nu met een soort van GPU chiplets gaat werken.
Standaard, out of the box , ja. Ga je hiermee aan de slag, en je tweakt het een beetje, kwam ik met mijn kaart na 10 minuutjes werk uit op een max load van 180 watt met exact dezelfde of betere prestaties. dat toont wel aan dat de kaarten extreem efficient (kunnen) zijn, echter zal dat niet voor elk model gelden. Ik heb een 6800xt btw.
Ja dat geldt ook voor de 3080rtx. Flink undervolt potentieel. Maar dat was met voorgaande generaties ook zo.
zet de gpu maar eens op 2150mhz van je 6800xt, dan zakt het terug naar 225W.
scheelt je gelijk wat temperatuur. mijn mening is dat AMD automatisch te ver overklokt voor minimale extra prestatie tegen hogere energie verbruik en (te) hoge temperaturen
Ik heb een 3080RTX in dit geval, heb deze op 1920mhz draaien met een flinke undervolt. Rond 240watt verbruik max. Beetje hetzelfde verhaal, alleen in dit geval had ik al standaard 1920mhz out of the box. Extra voltage erdoorheen pompen zorgde niet voor betere prestaties.
Wat je kan besparen aan energie waardoor je gelijk minder warmte hebt.
Zal wel marketing zijn van beide kanten.......
laten we geen voorbarige conclusies trekken, misschien is dit nog een pre productie schets en staat nog niet hardware matig en technisch vast.Ze hebben een lay-out gemaakt en is misschien niet gebasserd op het echte productie model.
De performance die gaat mee. Het is al bekend dat ze op de architectuur van de 3000serie blijven hangen als je 2x 3080 doet dan zit je op de 600 watt, verwacht maar dat we flinke stappen gaan maken met de volgende serie kaarten. Daarbij is monolithisch ontwerp de nieuwe toekomst(2 dies op 1 pcb of het wordt samen gevoegd tot 1 chip).

AMD kan niet echt niet achterblijven die gaan heus wel mee met het verbruik.
600 watt GPU? Zo kan ik de prestaties ook wel verhogen ja...

De doelgroep van deze kaarten zal het waarschijnlijk weinig kunnen schelen, maar heel vooruitstrevend kan ik dit niet noemen.
600Watt, is gewoon de specificatie van de nieuwe PCI-e bus,

dus als het refferance ontwerp dat aan kan kunnen all 4XXX series kaarten gewoon gemaakt worden ongeacht het verbruik dus zo raar is dat niet om de max aan te geven .

Dit wil echter niet direct zeggen dat men de max ook gebruikt
Ter verduidelijking:
Niet zozeer van de PCI-e bus maar de nieuwe stroomstekker die ze er bij ontworpen hebben.

600 watt door die PCI-e bus baantjes zou wel een uitdaging zijn voor het moederbord.
De interferentie alleen al als je zoveel door die baantjes pompt.
Dat is ongetwijfeld waar, maar er staat specifiek in het artikel dat de GPU een TDP van 600W meekrijgt. Gaat dus niet om de bus, maar wel degelijk om de GPU.

Wil inderdaad niet zeggen dat de max ook gebruikt wordt, maar in de praktijk wordt de TDP vaak wel gehaald.

[Reactie gewijzigd door adamvansanten op 25 maart 2022 15:24]

Mijn 750W powersupply trekt toch ook niet constant 750W uit de muur, dit is wat deze max aan zou kunnen (in theorie). Het is afwachten op benchmarks om iets zinnigs te kunnen zeggen over verbruik.
Moah van mij mogen ze wel economisch blijven betreft stroom verbruik, gezien de gas/electrische prijzen ook om hoog springen.

Maar vermoedelijk dat de RnD nog al kostelijk zal zijn voor zulke richtingen.
Het probleem is dat GPU's vrij rechttoe rechtaan werken, het zijn "relatief" simpele compute units, hoe meer je er op knalt, hoe breder je de bus maakt etc hoe beter de prestaties. Natuurlijk zijn er zeer veel nuances. Maar het verbruikt is direct gelinked aan het procede en filosofie van de architectuur. Het is heel lastig deze energie zuiniger te maken zonder een kleine procede te gebruiken.

Je ziet daarom ook bij beiden Nvidia en AMD het energie verbruikt de lucht in gaan.
Zolang prestaties met > 100% toenemen, is het helemaal zo slecht niet, dan wordt de kaart ook efficiënter, en kun je hem vervolgens weer underclocken als het teveel stroom kost.

Als de prestaties/watt achterblijven, is het heel erg jammer met de huidige stroomprijzen.
En die PCB is voorzien van een speculaasje? :o
Het is puur speculatie he :Y)
Speculaasje for size
do you accept cookies?with this product ;)
De afbeelding is op basis van foto's, dus dat klopt.
Als er speculaas bij geleverd word ben ik verkocht.
Dit gaat nergens meer over, het is namelijk niet dat de 3090 en sommige 3080's al 'efficiënt' waren. Die 600 watt is natuurlijk nog niet bevestigd, maar als dit definitief wordt is het waarschijnlijk al voor de FE modellen. Zodra er nog een FTW of strix model komt gaan die er sowiezo overheen, richting de 700 watt. Hoe krankzinnig dat al klinkt lijkt het me niet dat je dat überhaupt nog kan luchtkoelen. Dan moet je ook al een kast hebben voor een 360mm aio, of de custom route afgaan.

Ik dacht in het pascal tijdperk nog dat het tijd werd om m'n 1000watt voeding maar eens te downsizen, maar laat dat maar zitten. 4x 8pins here we come! 8)7 8)7
Onzin. De 3000 series GPU's zijn qua performance per watt veruit de meest efficiente kaarten die Nvidia uitgebracht heeft.
Kan goed zijn, maar ik zie liever enkel en alleen de performance stijgen i.p.v. zowel de performance als het verbruik.
Kan goed zijn, maar ik zie liever enkel en alleen de performance stijgen i.p.v. zowel de performance als het verbruik.
Performance per watt volgt primair uit de architectuur. Het verbruik heb je vervolgens je zelf in te hand. Zonder volle belasting gebruik je niet het volle vermogen. Denk aan een frame rate limiter, vsync, enz. Heb je die performance überhaupt niet nodig dan kun je beter een goedkoper model kiezen. Dan heb je nagenoeg dezelfde performance per watt alleen je piek prestaties liggen lager.

Het zou overigens een beetje raar worden om anderen die dat prestatie niveau wel 'nodig' hebben die producten te ontzeggen.

[Reactie gewijzigd door sdk1985 op 25 maart 2022 12:24]

Ja, maar er is geen vooruitgang als de 4000 serie zoveel meer gaat gebruiken om een woopsie 30% meer frames te geven.
Het wordt gewoon niet efficiënter terwijl we toch alweer twee jaar verder zijn. Daar gaat het om.
24GB he? Dat betekent denk dat we weer 12GB en 10GB 4080's zullen zien. Want het 24GB 3090 bord is ook hetzelfde als het 3080 bord.
Nee, waarom zou je dat denken? 16GB 3070Ti en 20GB 3080 waren ontwerpen op een gegeven moment maar die zijn geschrapt.
Kan iemand mij vertellen waarom er een stuk speculaas linksonder is gewatermarked? Speculaas als in speculeren? Speculaaskoekje voor schaal?

[Reactie gewijzigd door Kuusje op 25 maart 2022 11:56]

Mag hopen niet voor schaal. Anders zijn de VRAM chips zowat nog groter :) :)
Eigenlijk wel logisch dat je 600W gaat ondersteunen.

Met de nieuwe standaarden krijgen we zodirect het volgende rijtje

Nvidia RTX 4090 | AMD RX 7900 - 600W
Nvidia RTX 4080 | AMD RX 7800 - 450W
Nvidia RTX 4070 | AMD RX 7700 - 300W
Nvidia RTX 4060 | AMD RX 7600 - 150W
Nvidia RTX 4050 | AMD RX 7500 - motherboard (75W)
Ook een speculaasje voor jou :p.
Mooi lijstje, maar kaarten worden niet op basis van opgenomen vermogen in de markt gezet :).
met de standaarden voor de voeding die er zijn/komen:

https://www.tomshardware....u-standard-adds-connector
En als je niet zo’n voeding hebt 2x een 8-pin, 1x een 6-pin en de 75W uit je pci-e slot :p
600W... Lijkt alsof we weer aan dezelfde race bezig zijn als met de Pentium 4 destijds.

Alleen toen hadden we nog geen energie en klimaatcrisis (nouja eigenlijk al wel maar we wilden het niet horen)

Maar wel benieuwd naar meer performance voor VR. Zelfs mijn 3080Ti is niet de topper die ik had verwacht.
Als we Nvidia jongens nu eens wat helpen, en gradueel taxeren of gewoon limiteren wat stroomverbruik betreft. Doet ook Europa toch al met stofzuigers, enz..
Dat faciliteert vast wat middelen en creativiteit in R&D.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee