Gerucht: Nvidia GeForce RTX 4090 krijgt 16.384 CUDA-cores en tbp van 450W

Bekende Nvidia-leaker kopite7kimi heeft nieuwe mogelijke specificaties van de eerste GeForce RTX 40-videokaarten gedeeld. Specifiek gaat dat om de vermeende RTX 4090, 4080 en 4070. De eerste van die videokaarten worden later dit jaar verwacht.

Kopite7kimi, die in het verleden regelmatig correcte informatie over Nvidia-gpu's deelde, publiceert op Twitter informatie over de mogelijke RTX 4090, RTX 4080 en RTX 4070. Volgens de leaker krijgt de RTX 4090 een AD102-300-gpu, die wordt gebaseerd op de Ada Lovelace-architectuur. De gpu moet 16.384 CUDA-cores krijgen, wat overeenkomt met 128 streamingmultiprocessors. Daarbij zou de videokaart 24GB GDDR6X-geheugen krijgen op 21Gbit/s en met een 384bit-geheugenbus. Dat zou overeenkomen met een geheugenbandbreedte van 1008GB/s. De total board power ligt naar verwachting rond de 450W.

De GeForce RTX 4080 krijgt volgens kopite7kimi een AD103-300-gpu met 10.240 CUDA-cores verdeeld over 80 sm's. De videokaart krijgt 16GB geheugen op een 256bit-geheugenbus, maar mogelijk gaat dat niet om snellere GDDR6X-modules. De leaker stelt dat de videokaart mogelijk GDDR6-geheugen op 18Gbit/s krijgt, maar hij of zij zet daar zelf een vraagteken bij. De huidige RTX 3080 heeft bijvoorbeeld GDDR6X-geheugen op 19Gbit/s. De tbp van de RTX 4080 zou op 420W liggen.

De GeForce RTX 4070 moet verder een AD104-275-gpu krijgen met 7168 CUDA-cores. Daarbij zou de videokaart 10GB GDDR6-18Gbit/s-geheugen op een 160bit-geheugenbus krijgen. Eerdere geruchten stelden dat die videokaart 12GB geheugen en een 192bit-geheugenbus zou krijgen. De tbp van die kaart wordt rond de 300W verwacht.

Er gaan al langer geruchten rond over de komende RTX 40-serie, die later dit jaar wordt verwacht. De kaarten krijgen naar verwachting bijvoorbeeld een veel grotere hoeveelheid L2-cache, wat ook de vermeende lagere geheugensnelheden van de RTX 4080 en 4070 kan verklaren. De Founders Editions krijgen naar verwachting ook een nieuwe PCIe Gen5-stroomaansluiting.

Volgens eerdere geruchten brengt Nvidia de eerste RTX 40-kaarten volgende maand uit, maar dat is volgens meer recente berichten intern uitgesteld. Naar de huidige verwachting verschijnen de kaarten aan het einde van het derde of het begin van het vierde kwartaal, schrijft techwebsite VideoCardz. Nvidia zou eerst met een RTX 4090 komen en later lager gepositioneerde videokaarten uitbrengen.

Nvidia GeForce RTX 40-kaarten naar hun RTX 30-tegenhangers
Videokaart RTX 4090 RTX 3090 RTX 4080 RTX 3080 RTX 4070 RTX 3070
Architectuur Ada (TSMC N4) Ampere (Samsung 8nm) Ada (TSMC N4) Ampere (Samsung 8nm) Ada (TSMC N4) Ampere (Samsung 8nm)
Gpu AD102 GA102 AD103 GA102 AD104 GA104
Sm's 128 82 80 68 56 46
CUDA-cores 16.384 10.496 10.240 8704 7168 5888
Geheugen 24GB GDDR6X (21Gbit/s) 24GB GDDR6X (19,5Gbit/s) 16GB GDDR6 (18Gbit/s) 10GB GDDR6X (19Gbit/s) 10GB GDDR6 (18Gbit/s) 8GB GDDR6 (14Gbit/s
Geheugenbus 384bit 384bit 256bit 320bit 160bit 256bit
Bandbreedte 1008GB/s 936GB/s 576GB/s 760GB/s 360GB/s 448GB/s
Tbp 450W 350W 420W? 320W 300W 220W
Releasedatum September-oktober 2022 September 2020 Oktober-november 2022 September 2020 November-december 2022 Oktober 2020

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Redacteur

23-06-2022 • 11:07

221 Linkedin

Reacties (221)

Wijzig sortering
Ik maar hopen dat kaarten efficiënter gaan worden. Minder stroom verbruik en minder hitte productie. Was voornamelijk enorm verbaasd wat de grafische kaart in de M1 pro/max kan doen met de gegeven TDP. En dan zie ik hier voornamelijk Nvidia (ook Intel) continu compleet de andere richting uit aan het gaan zijn puur omdat ze niet meer prestaties daaruit kunnen halen dan gehoopt?
Die verwachtte TDP's die ik hier zie zijn ongelofelijk hoog. Stijgende elektriciteitsprijzen is hierbij ook geen helpende factor.
Reageer
Efficiënter hoeft niet te betekenen minder verbruik.

Een GPU die 600W verbruikt tijdens het uitvoeren van een workload (bijv. renderen) en deze workload afrond in laten we zeggen 10 minuten is efficiënter dan een gpu met een verbruik van 300W over het uitvoeren van diezelfde workload 30 minuten doet.

En aangezien er een grote vraag blijft naar alsmaar snellere gpu's is het redelijk logisch dat het maximale verbruik ook omhoog gaat. Echter zolang die kaarten efficiënter zijn dan de vorige generatie is dat helemaal niet zo erg, mits je dat hogere verbruik ook kan koelen. Immers wanneer de kaart efficiënter is zal die kaart uiteindelijk minder verbruiken om hetzelfde te doen als een kaart uit de vorige generatie, of meer werk kunnen verzetten bij hetzelfde verbruik. Wat dus ook al heeft de kaart een hoger TBP uiteindelijk betekent dat voor het uiteindelijke energie verbruik de nieuwe kaart gunstiger is.

En als jij dan voor gaming geen GPU wil van 450W, omdat je dit niet nodig hebt en je niet graag zoveel warmte in je gaming room hebt, dan pak je een lager gepositioneerde Sku met bijv een TBP van 200 of 250W (of nog lager) die normaliter nog altijd betere prestaties zal leveren op dat TBP dan een GPU uit de vorige generatie met een vergelijkbaar TBP. Normaal gesproken is het immers zo dat bijv. de x70 Sku dezelfde of betere prestaties heeft dan de x80 Sku uit de vorige generatie, terwijl het verbruik van de nieuwe x70 Sku normaal gesproken minder is dan het verbruik van de x80 Sku van die vorige generatie.

[Reactie gewijzigd door Dennism op 23 juni 2022 11:45]

Reageer
Uw redenering klopt, heb daar niets op te zeggen.
Maar kijk naar deze gegevens:
RTX 2080 TDP 215 Watt
RTX 3080 TDP 320 Watt
RTX 4080 TDP 420 Watt

RTX 2080 -> RTX 3080
TDP increase ~49%
Gaming performance increase Tussen de 30% a 35%

RTX 3080 -> RTX 4080
TDP increase ~31%
Gaming performance increase: Dit is een speculatie, maar ik ben hier niet zo heel optimistisch over. Vooral als ik de nummer van Cuda cores vergelijk tussen de 2080 en de 3080 welk beide op ongeveer hetzelfde boost frequentie draaien. En dan het vergelijk met de nieuwe aangegeven aantal cuda cores voor de RTX 4080, ben ik niet zozeer zeker of de performance verschil even groot gaan zijn als bij de overgang van RTX 2080 naar RTX 3080, maar we kennen de clock frequencies nog niet, dus laten we zeggen dat het vergelijkbaar is, en dat het ook tussen de 30 a 35% ligt in termen van gaming performance, met de nadruk op gaming.

En nu als laatst:
RTX 2080 -> RTX 4080
TDP Increase ~95% !!
In twee generaties tijd, TDP is bijna verdubbeld!
En laten we heel optimistisch zijn, en twee keer 35% van performance gain spreken.
Dan komen we op een resultaat van ~82% performance increase.
Voor 95% meer power consumption hebben we "maar" 82% performance increase. Waar is de efficiëntie hier. Oke dit blijft een heel speculatief nummer. Maar laten we zelfs nog meer optimistisch zijn, en dat de performance increase op 95% komt ipv 82%. Al hetgeen dat je hebt is puur meer performance dat met de prijs komt met een hogere TDP.

Uw voorbeeld van 300W werk aan 30min en 600W aan 10min is wel heel mooi.
Maar daar heb je het over een performance increase van 200% voor een hogere power consumption van 100%.
Dat zijn nummers die totaal niet overeenkomen met de laatste generaties van NVidia.
Reageer
Uw redenering klopt, heb daar niets op te zeggen.
Maar kijk naar deze gegevens:
RTX 2080 TDP 215 Watt
RTX 3080 TDP 320 Watt
RTX 4080 TDP 420 Watt

RTX 2080 -> RTX 3080
TDP increase ~49%
Gaming performance increase Tussen de 30% a 35%
Die nummers kloppen niet, zie o.a. https://www.techpowerup.com/gpu-specs/geforce-rtx-2080.c3224

TDP is inderdaad 49% hoger, echter o.a. TPU geeft wanneer de RTX 2080 100% een performance wist aan van 63%. Zie https://imgur.com/YcLF31a

Maar ook bijv. Hardware Unboxed geeft een performance winst van 47% op 1440P: https://imgur.com/c9qFDgO
En 68% bij 4K: https://imgur.com/wAsMoB6

Kijkende naar hun verbruikscijfers doet de RTX 3080 per beter in perf per wat dan de 2080.

Verbruik door hun gemeten in game (alleen de kaart): https://imgur.com/PQOcPb7
254W (hun 2080 verbruikt dus meer dan aangegeven) v.s. 327W, of te wel 28% meer verbruik voor de 3080 in de geteste workload, waarbij in ieder geval hun RTX 2080 zich niet aan het normale TBP lijkt te houden, terwijl de RTX 3080 dat wel redelijk lijkt te doen met 'slechts' 7W overschrijding.

Performance per watt: https://imgur.com/YMSdjqz

Ik zie nergens in deze cijfers naar voren komen dat een RTX3080 accross the board maar 30-35% beter presteerd dan een RTX 2080, nee, de cijfers lijken juist te suggereren dat gemiddeld genomen de RTX 3080 wel zeker efficiënter is dan een RTX 2080. Wil natuurlijk niet zeggen dat dit in alle workloads zo is, maar ik kom geen duidelijke voorbeelden tegen waar dit niet zo is.

Maar kijk ook eens naar het volgende:

Een RTX 3060Ti zit redelijk dicht bij de 2080 qua performance, 107% wanneer de 2080 100% is, terwijl het verbruik lager is.

Performance techpowerup: https://imgur.com/DePiQrf
Performance Hardware Unboxed: https://imgur.com/raCkYVO

Hardware Unboxed power consumption voor 4 kaarten (helaas hier alleen total system, niet alleen de kaart) https://imgur.com/2FsAk48

Waarbij je ziet dat alle 4 de geteste RTX 3060ti's zuiniger zijn dan de RTX 2080, terwijl ze beter presteren.

Je krijgt bij de 3000 serie wanneer je een 3060Ti koopt dus een x60 tier kaart met een iets betere performance dan de 2080, een x80 tier kaart, van een generatie daarvoor, terwijl het verbruik minder is, ook dat laat al zien dat de 3000 generatie een hogere efficiëntie heeft, was de 3000 serie niet efficiënter was dit namelijk simpelweg niet mogelijk geweest.

[Reactie gewijzigd door Dennism op 23 juni 2022 14:45]

Reageer
De waardes zijn gehaald, ongeveer uit deze cijfers:
https://www.notebookcheck..._9286_10487.247598.0.html

Je kunt daar performance scores zien voor alle games en benchmarks.
Maar je hebt wel een punt, typisch heb je meer performance als je op 1440p of 4K draait.

Dus als je exclusief dat doet, heb je in wezen meer bang for your buck, maar dat geldt ook niet voor iedereen.
Over de power consumption, ga ik ook geen commentaar op gegeven, gegeven ik niet weet of de voorbeelden die jij aangeeft Reference modellen zijn of niet, en afhankelijk van de case van uw machine als je betere cooling hebt, kunt je ook betere boost frequenties halen.
Want wanneer een klant een kaart koopt krijgt die niet mee wat "effectieve power consuption" is voor dat specifiek kaart.
Reageer
De kaarten verbruiken meer stroom en halen inderdaad meer performance, maar de efficientie gaat wel degelijk omlaag als je meer power in dezelfde chip plaatst. De reden is heel simpel uitgedrukt in deze formule:

Power in Watts = 0.5 * Capacitance * Frequency * (Voltage ^ 2)

Chipfabrikanten kunnen niet om de natuurkunde heen lopen. Wil je meer snelheid, dan moet de frequency omhoog. Als de CPU/GPU frequency stijgt, moet de spanning ook stijgen om de snel wisselende 0'en en 1'en niet door elkaar te halen. En daar gaat het mis: als je de spanning 10% verhoogt (factor 1.1) dan stijgt de power verbruik met 21% (1.1 ^2). Daarbovenop moeten al die miljaren parasiete condensators (FET'jes) ook vaker opgeladen en ontladen worden. Uiteindelijk betaal je voor die 10% extra performance misschien wel 20-50% extra power.

En nu terugkomend op jouw lange verhaal. Waarom haalt de RTX 3090 de hoogste performance per watt? Waarschijnlijk omdat zij in bovenstaande formule de Capacitance verlaagd hebben. De RTX 3080 heeft een 8nm procede, terwijl de RTX 2080 een 12nm procede heeft. De FETs en dus ook de capacitances zijn kleiner. Daarom verbruikt de chip an sich al minder stroom, en dat wordt nu gecompenseerd door nog meer power in te stoppen, om de performance te maximaliseren.

Deze gekkigheid moet stoppen, fabrikanten moeten niet strijden in de aller hoogste top performance, koste wat het kost, maar moeten hun chips efficienter maken. Snelheid moet komen van betere architectuur, slimmer ontwerpen en kleinere chipproductie. Niet in de allerhoogste GHz'en en Boost Modussen en andere marketing onzin.
Reageer
Ja het "probleem" is ook vooral dat die GPU's ingezet gaan worden voor gaming, een taak die niet "versnellend/verkort" kan worden door een krachtigere kaart.

Als de kaar 2x zo snel zou zijn in het renderen van video, of het trainen van een AI dan zou dat mooi het extra verbruik kunnen compenseren.
Reageer
Maar voor gaming koop je dan ook simpelweg een kaart die of wel het performance niveau hebt dat je graag wil hebben of wel een verbruik heeft dat voor jou aanvaardbaar is, of als je geluk hebt beide in een kaart. Is voor dat performance niveau een verbruik hoger dan X nodig, en wil jij dat niet, omdat dit bijv. op een zolderkamer in de zomer teveel warmste afgeeft, dan moet je een concessie doen en een kaart kopen die verbruik Y heeft, met het daarbij horende performance niveau.

Of je koopt toch de kaart met verbruik X en undervolt deze bijvoorbeeld in de zomer tot een verbruik dat je in de zomer aanvaardbaar vind, zodat je de rest van het jaar geen concessies hoeft te doen qua performance.

[Reactie gewijzigd door Dennism op 23 juni 2022 14:23]

Reageer
Mee eens dat undervolten en iets terug klokken vaak veel oplevert.

Het probleem met de meeste gamers is dat ze beïnvloedbaar zijn door marketing, ze zien bijvoorbeeld hun favoriete streamers met een 4090 en dat beïnvloed ze om vergelijkbare kaart te kopen, bijv een 4080. Dit terwijl hun bijv "oude" 3060 vaak nog prima is.
Reageer
Dat kan natuurlijk best kloppen, maar heeft denk ik weinig plaats in een discussie over efficiënte. Er zullen inderdaad genoeg mensen zijn die niet de juiste kaart kopen voor hun gebruikspatroon, maar dat maakt niet dat die hardware dan 'slecht' of inefficient is, enkel dat ze de verkeerde hardware kopen voor wat ze ermee willen bereiken of wat ze er van verwachten.
Reageer
Ja dat is natuurlijk waar, de hardware zelf is duidelijk efficienter geworden.
Ben niet echt onder de indruk van de 4070 en 4080 varrianten, maar de 4090 is wel indrukwekkend. 100 Watt extra, ongeveer 1/4 meer verbruik, geeft je ~6k extra cuda cores, ongeveer een 60% meer performance. Kan me voorstellen dat deze kaart populair gaat worden onder crypto miners, en machine learning reseachers.
Reageer
Klopt niet hoor :
https://www.tomshardware....geforce-rtx-3080-review/6

Enkel als je GPU limited bent zit je aan 30% verschil, wat absurde vergelijking natuurlijk is.
Als je niet gpu limited bent :

reviews: Nvidia GeForce RTX 3080 Ti - Het onverkrijgbare vlaggenschip
https://www.techspot.com/review/2099-geforce-rtx-3080/

In zowat alle performance per watt vergelijkingen (1440p/4k) scoort een 3080 beter dan een 2080. Dus enkel als iemand gek genoeg is om te gamen op 1080p in een gpu limited game zal je idd zien dat die minder efficient is, in alle andere gevallen is die efficienter.
Reageer
Zo denk ik ook. Dit is gewoon meer van hetzelfde in een kleinere package proppen zonder echte vooruitgang. Laat die 4000 serie maar komen, ik wil graag een 3080 Ti voor een leuke prijs....
Reageer
Maar als je raytracing meetelt en hoe goed de huidige kaarten zijn in minen (mits niet gelimiteerd) en in renderen dan denk ik dat het iets meer is dan 2x 35%. Tuurlijk als je puur voor max fps gaat in gaming dan wel, maar ik denk dat als je het totaalplaatje bekijkt dat dit niet op dezelfde manier kan worden gewogen.
Reageer
Games zijn ook geen data type.

Daadwerkelijke performance increase is alleen te meten aan hoe snel operaties op Strings, Integers, Floats etc. worden afgehandeld.

Het is dus maar net hoe een game geprogrammeerd is.
Reageer
Ik snap je punt, met iets meer watt veel meer berekeningen kunnen doen. Dat is waar de marketing afdelingen van nVidia, AMD en Intel ook altijd op wijzen.

Maar uiteindelijk speel je gewoon een spel en waar mijn 1660 Super bijv 100 watt verbruikt, verbruikt een 3000 serie bijv. 300 watt. En dadelijk gaan ze 450 watt verbruiken. Dat is toch écht meer verbruik voor hetzelfde: een spel spelen.

Of bijv. consoles. Een SNES verbruikt 10-20x (schatting) zo weinig als de laatste generatie. Tja, ben je dan zuiniger of niet?

[Reactie gewijzigd door Aikon op 23 juni 2022 16:34]

Reageer
De belasting van een 3000 series is lager dan bij jouw 1660 Super bij hetzelfde spel.
Reageer
Mensen (zoals ik) die een 3080ti of vergelijkbaar kopen spelen spellen niet op dezelfde resolutie en framerate dan mensen die tevreden zijn met een 1660 Super.

Mensen vragen vaak waarom je in Gods naam een 3080ti nodig hebt, maar bij alles wat ik speel, van oud tot nieuw, tikt de kaart de 100% usage aan.
Reageer
Dat hangt maar net van de settings af en wanneer het spel uitkwam. Een spel dat nu uitkomt kan je nog wel op Ultra spelen op een 1660S, een spel dat over 5 jaar uitkomt niet meer. Met een 3060 lukt dat waarschijnlijk nog wel.

Dan speelt er ook nog mee dat een 3000-serie gebruik kan maken van RTX en DLSS, dus dit is sowieso een blanket statement die je niet echt kan maken.
Reageer
Men staart zo blind op het feit dat een nieuwe kaart wel XXX w meer verbruikt maar dat is niet per definitie altijd zo. Afhankelijk van zoveel verschillende factoren.

Ik had eigenlijk in mijn statement moeten zeggen "hetzelfde spel, dezelfde settings".
Reageer
In je voorbeeld heeft de GPU van 600 watt wel degelijk een lager verbruik ;)
Dat was ook precies het punt wat bij probeerde te maken. Een hoger TDP hoeft niet te betekenen dat je ook een hoger stroomverbruik hebt voor dezelfde workload.

Wellicht is efficientie niet altijd het juiste woorde. Op het moment dat je gaat gamen en de kaart continu pushed om maar meer fps te krijgen verbruik je natuurlijk wel meer. Een uurtje gamen op een kaart met een TDP van 600 watt heeft natuurlijk een hoger verbruik van een uur gamen op een kaart met een TWP van 300 watt.
Reageer
Je hebt uiteraard gelijk, ik las het even verkeerd.
Reageer
Je kan ook altijd de TDP omlaag zetten, een TDP van 80% betekent vaak "slechts" een performance verlies van 5-10% omdat ze zo hard gepushed zijn. Neemt niet weg dat het beroerd voelt om een kaart met een performance level en deze dan te kneecappen naar een trede lager, maar efficient is het dan zeker wel vergeleken met de vorige generatie.
Reageer
Efficiënter hoeft niet te betekenen minder verbruik.

Een GPU die 600W verbruikt tijdens het uitvoeren van een workload (bijv. renderen) en deze workload afrond in laten we zeggen 10 minuten is efficiënter dan een gpu met een verbruik van 300W over het uitvoeren van diezelfde workload 30 minuten doet.
Dat is benchmarking, efficiënter betekent minder verbruik per instructie.

Je vergelijkt op basis van baseclock en verwerking van instructies per clock, turbo's en boosts geven een verkeerd beeld omdat je een tijdspanne kan selecteren die gunstig uitkomt voor hoge boosts (korte duur).

Goed voorbeeld is de idle en top prestaties van laatste Intel generatie. Dat is niet efficiënt.
Reageer
Ik zie deze claims steeds vaker voorbij komen alsof de M1 GPU iets magisch doet, veel websites die pro Apple zijn vergelijken ook altijd met RTX 3000 series waarbij ze in de titel en het bericht doen alsof het om de desktop variant gaat en ook nog eens met hele specifieke benchmarks in het voordeel van de M1.
De grap is dat de efficientie van een M1 gelijk ligt aan die van een mobiele versie (laptop) van de RTX 3060, alleen die laatste heeft de mogelijkheid om nog eens 2x meer performance er uit te persen tegen uiteraard meer verbruik. Die mobiele 3060 kun je met dezelfde performance draaien als de M1 en is het verbruik ongeveer gelijk. Die M1 is een prachtig staaltje techniek van Apple, begrijp mij niet verkeerd, maar ze doen niets speciaals t.o.v. de gevestigde orde.

Daarnaast, wat al een beetje in mijn vorige alinea naar boven komt, je hoeft niet perse 100% je GPU te gebruiken, je kunt ook games etc instellen op lagere settings en ontzettend efficient je game draaien met een lager verbruik dan je vorige GPU.
Heb in het verleden al vaker aangegeven, ik had een GTX 980Ti welke in Rocket League ongeveer 300W verbruikte om 144FPS te draaien op 3440x1440 resolutie. Ik heb nu een RTX 3080Ti en ik draai diezelfde 3440x1440 op 144FPS nu met ~100W verbruik! Dat is 200W minder!
Dus die efficientie is er echt wel, alleen je krijgt tegelijkertijd ook de mogelijkheid om meer te doen en dat kan een vertekend beeld geven.

Veel mensen hebben geen idee wat hun vorige GPU's aan stroom verbruikte omdat er nooit naar gekeken werd, vaak is dat hoger dan wat er tot nu toe op de markt is gekomen (in het hogere segment).

Het is gewoon op alle vlakken vooruitgang, efficienter, minder stroomverbruik voor dezelfde taak. Echter je kunt ook veel meer snelheid en performance halen als je de hele GPU gaat gebruiken, uiteraard kost dat meer energie dan de oude taak op lagere snelheid.

[Reactie gewijzigd door drocona op 23 juni 2022 13:04]

Reageer
Niet te vergelijken imo:

De M1 Max verbruikt zo'n 110W als zowel de CPU en GPU vol worden belast.
Een Nvidia 3000 serie, RAM en een 10 core intel zullen samen zo'n 300 a 400 Watt gebruiken denk ik
Reageer
Dan doe je precies wat ik in mijn post zeg dat er verkeerd gaat, je vergelijkt een M1 met de desktop RTX 3000 kaarten en hun TDP. Als je met de mobiele variant vergelijkt zoals ik aangeef, dan is het verbruik nagenoeg gelijk tussen de M1 GPU (100% usage) en de RTX 3060 mobile GPU (50% usage) gemeten op dezelfde performance/resultaten. Die mobiele RTX 3060 kan echter nog naar 100% doorgaan, dan verbruikt ie net iets meer dan het dubbele van de M1 of zichzelf op 50% maar levert 200% performance t.o.v. de M1 op 100%.
Reageer
En als je de CPU en RAM ook meet? Want je kan bij de M1 niet enkel de usage van de GPU meten dacht ik

(met hoge resolutie kom je wel een eind bedenk ik me nu)

[Reactie gewijzigd door 1Mark op 23 juni 2022 14:24]

Reageer
En het spel is de exact zelfde versie? Of zouden ze die ook hebben geoptimaliseerd?
Reageer
Daar is niets aan veranderd. Letterlijk getest in dezelfde PC door de GTX980Ti te vervangen door een 3080Ti. Zou overigens ook wel heel erg vreemd zijn dat een game ineens meer dan 2x zo efficient is door een update.
Reageer
Leuke test. Mijn 75W TDP 1050Ti draait Rocket league op High settings op 1080p op 120Fps minimaal. Dus jouw setup rekent 2.8 keer zoveel pixels. Dus die zou doorgerekend 210W nodig hebben voor jouw resolutie / fps. Ligt wel een beetje in de lijn....
Reageer
Het is wel interessant dat een PS5 veel efficiënter is.
Ik heb het idee dat stroomverbruik en hitte niet echt een prioriteit is voor PC graphics cards.
Reageer
Is dat zo? Ding zuigt 240W piek waarvan max 180W voor de GPU en word loeiheet als hij dat constant moet doen.

Qua performance/W lijkt me niet echt een hoogvlieger.
Reageer
Iedere nieuwe kaart/architectuur is toch efficienter dan de vorige?

We gebruiken die winst alleen direct voor meer pixels, hogere framerates en hogere instellingen. En omdat door de efficientie de temperatuur lager is, kun je de kaarten ook weer harder laten draaien tot je tegen thermal throtteling aanloopt.
Reageer
Ik denk dat je mis bent. Ja er is elke nieuwe generatie spraken van meer efficiëntie, voornamelijk bij de overgang naar nog kleinere transistoren. Maar de prestatie voordeel die ze hieruit halen (meer transistoren op hetzelfde oppervlakte omdat ze kleiner zijn, en vaak draaiende op hetzelfde TDP omdat ze efficiënter zijn) is blijkbaar hier niet genoeg. Kijk naar de (stock) coolers op grafische kaarten meerdere jaren terug. Die waren supper klein. Tegenwoordig zijn er grafische kaarten die 4 slots opnemen op uw moederbord! Puur om het genoeg te kunnen afkoelen, omdat deze op te hoge wattage draaien.

Je kunt uit alle Processoren (hetzij CPU of GPU) meer performance halen, zolang je daar meer elektriciteit aan geeft. Maar je moet het op stabiele temperaturen kunnen houden. Dat heeft niet noodzakelijk met efficiëntie te maken.
Reageer
Ik denk dat je mis bent. Ja er is elke nieuwe generatie spraken van meer efficiëntie, voornamelijk bij de overgang naar nog kleinere transistoren. Maar de prestatie voordeel die ze hieruit halen (meer transistoren op hetzelfde oppervlakte omdat ze kleiner zijn, en vaak draaiende op hetzelfde TDP omdat ze efficiënter zijn) is blijkbaar hier niet genoeg. Kijk naar de (stock) coolers op grafische kaarten meerdere jaren terug. Die waren supper klein. Tegenwoordig zijn er grafische kaarten die 4 slots opnemen op uw moederbord! Puur om het genoeg te kunnen afkoelen, omdat deze op te hoge wattage draaien.
Ik denk dat je hier een paar dingen door elkaar haalt. GPU's zijn wel degelijk véél efficiënter geworden, maar er worden ook exponentieel meer transistoren op dezelfde die geplaatst (zie moore's law). Daarnaast is ook de kloksnelheid flink omhoog geschroeft en de consumptie van de hele die schaalt daarmee. Ook leuk om te lezen, dit 'probleem' werd in 2006 al uitvoerig besproken dus het is zeker niks nieuws: https://blog.codinghorror.com/video-card-power-consumption/
Je kunt uit alle Processoren (hetzij CPU of GPU) meer performance halen, zolang je daar meer elektriciteit aan geeft.
Dit is niet waar. De electriciteit die een GPU verbruikt wordt voor 100% omgezet in warmte, er zit geen 'performance' component aan. De ideale GPU heeft een verbruik van 0W. Je kunt ook niet meer 'elektriciteit geven', de 'vraag' naar elektriciteit wordt bepaald door de GPU. Je kunt hoogstens het voltage aanpassen, waardoor de transistors een sterker elektrisch veld hebben en dus sneller kunnen schakelen. Maar dat is vooral interessant voor overclockers :)

[Reactie gewijzigd door StefanSL op 23 juni 2022 13:07]

Reageer
Uiteindelijk leidt dit tot GPUs die meer elektriciteit verbruiken. Lijkt mij niet handig dat we met z'n allen steeds meer stroom gaan gebruiken.
Reageer
Hoeveel Nederlanders hebben een zware GPU in hun pc zitten? Ik denk dat het effect verwaarloosbaar is. 450W TDP betekent overigens niet dat je dat ook daadwerkelijk verbruikt, mijn RTX3080 met TDP 350W zit zo rond de 100W-200W op hoge load.
Reageer
Dus bv 4080 zal ook nog wel gewoon goed draaien op een 850w voeding?
Reageer
Ligt er aan wat je er nog meer aan hangt
Reageer
3 HDD's, 2 ssd's en 1 nvme ssd en als processor ryzen 3900x. Deze voedinge gerbuik ik erbij. Corsair RM850x (2018)

[Reactie gewijzigd door jaaoie17 op 24 juni 2022 08:02]

Reageer
Moet makkelijk kunnen. Ik gebruik een 730W voeding met een RTX3080
Reageer
Ik 1 van 700W
Draait al sinds launchday van de gpu
Reageer
[...]
Maar dat is vooral interessant voor overclockers :)
Videokaarten worden door de fabrikanten meestal al overgeclocked. Daarom hebben veel kaarten ook OC in de naam.
Reageer
Klopt, ik heb een gigabyte OC. Maar die kun je nog verder clocken mocht je dat willen.
Reageer
Ja, maar dan wordt hij nog inefficienter, waarbij het stroomverbruik veel hoger is dan de prestatiewinst.
Reageer
Niet perse. Ligt er aan hoe conservatief de fabrieks OC is, dat zal verschillen per kaart. De relatieve prestatiewinst zal wel dalen.
Reageer
ALs je ziet naar performance per watt (wat trouwens sterk afhangt van je instellingen en resolutie) dan zie je dat voor high end gaming (dus 1440p/4k) high end gpu's veel meer performance/watt geven.

Ga j idd naar low end gaming dan heb je die kracht niet nodig en zullen mid range or zelfs low end gpu's beter gaan scoren.
Reageer
De x090 (Ti) serie van Nvidia moet het sowieso al niet hebben van efficiëntie. Ze zijn allemaal nauwelijks sneller dan de x080 maar wel een 100W hogere tdp (en 50% hogere prijs). Wil je een efficiënte kaart dan moet je iets lager in het segment gaan shoppen.
Reageer
Ik maar hopen dat kaarten efficiënter gaan worden.
Ze zijn ook efficiënter: als ze worden ondergeklokt/ondergevolt zodat ze dezelfde performance leveren als dezelfde klasse kaarten vd vorige generatie, dan verbruiken ze een stuk minder dan die vorige generatie kaarten.
Maar de markt vraagt om meer performance tov de vorige generatie.
Reageer
Dat klopt onderdelen voor een videokaart te maken die prijzen daarvan zijn volgens mij ook omhoog gegaan.Tevens zitten we nog met de kater van covid 19 en tevens is er nog oorlog in rusland.
Het gaat maar door met die inflatie, hopelijk komt daar een einde aan.

[Reactie gewijzigd door rjmno1 op 23 juni 2022 13:54]

Reageer
Ze zouden, net als bij stofzuigers, wettelijk een max vermogen moeten afdwingen. Bijvoorbeeld 200 watt. Dan moeten de leveranciers maar gaan bedenken hoe ze die kaart sneller krijgen, zonder boven die 200 watt uit te komen.
Reageer
Je kan apple silicon vergelijken met console. Kwa tdp.
Een formfactor in klein behuizing dus dat is de target
Tdp totaal voor console of Mac studio zit in de 100 tot max 200Watt.
Dan kijk je naar de first release van elke gen Xbox en PS dat zijn 150 200watt beestjes

Naast dat apple geniet lange poos van TSMC 5nm wordt vaak vergeten.
Een high-end UMA on soc memory architectuur.
2 die direct aan mekaar gekoppeld dubbele igpu als 1.

Waar bij PC je van Nuc tot full tower met E-ATX optie hebt heeft Mac alleen kleine devices.
Waar Apple nog Macpro maar dat is nog intel Xeon tech en op pro werkstation.
X86 concurreert dus met node achterstand iNtel7 / tsmc 7nm
Apple concept is toch heel anders. Totaal oplossing met beperkt gefocused aanbod.
PC is open vrij en in de retail kan big tower vol proppen.

Intel en AMD zouden op 5nm en 3nm of intel5 intel3 een.
Game PC nuc kunnen ontwikkelen. Met 250 TDP dus zo groot als een console of mac studio kan iets groter. Met Een 8core APU met 32GB HBM3 en flinke igpu.
Om directer tegen Apple te concureren.
Kan voor PC een te grote niche zijn om te doen.
Wat iedereen kan met volgende gen PC
Conventionele sub midi tower met 8 tot 10core wat lager geklokt met 32GB DDR5 en A5xx of 4060 of 7700 g-kaart. Onder de 300watt. Kan je ook leuk op gamen.

Endaarmee ben ik niet verbaast wat apple doet als je er in verdiept is het logisch.
En wat x86 en gpu voor retail doen is ook logisch halo product is performance 1st dan komt de rest.
En kern van verhaal is dat met elke dieshrink je de performance verlegd en andere ceiling vermogen ipv klok een steeds grotere barrierre of ceiling geworden is waar men tegen aanloopt.

Is toch logisch dat GTX285 meer verbruikt dan riva128 en dan weet je toen al wat de toekomst gaat brengen GTX480 en nu RTX30 en dan RTX40.

Ik merk dat mijn big tower vooral wat oude overgehevelde hdd meegekomen zijn. 1 gkaart en dan voor de rest sound kaart wat nvme ssd 2 stuks. Thats it.
Het hoeft geen bigtower meer te zijn. Als voor big tower gaat met Custom wc dan verleg je de tdp al gauw naar ruim 600watt. En dan ben je ook wat van plan.
Ga je voor mini ATX mini tower dan is 300watt. En daar stop je geen 4090ti in. Maar 4050 of 4060.

De oer pc hadden een 250watt voeding dan bouw je nu APU systeem in 250watt formfactor heb je meer performance dan die 80486 en 3dfx en maar 250watt.
Reageer
Deze honger voor meer wattage gaat nu echt de spuiggaten uitlopen. Veel voedingfabrikanten hebben al moeite systemen stabiel te houden, zeker bij tijdelijke pieken van stroomgebruik.

https://www.youtube.com/watch?v=wnRyyCsuHFQ2

Tijd dat er weer een efficiëntieslag plaats gaat vinden.
Reageer
En dat terwijl we langzaam maar zeker naar een steeds grotere energiecrisis aan het koersen zijn. We moeten energiezuiniger worden en minder warmte opwekken. De GPU-Industrie druist hier volledig tegenin. Geen goede ontwikkeling vind ik.
Reageer
Met de huidige energie transitie gaan we nooit minder energie verbruiken. Alleen al met de komst van elektrische auto's.

We moeten eerder zoeken naar oplossingen energie schoner op te wekken.
Reageer
Zoals ik het zie staan die twee dingen los van elkaar: we moeten kritisch zijn op hoeveel we verbruiken en zorgen dat wat we verbruiken schoon wordt opgewekt.
Reageer
Ik zie het eerste deel van je reactie alleen maar als bevestinging van wat @Techtrade Dordt zei; gegeven dat we op sommige vlakken er niet onderuit komen om meer stroom te verbruiken, doen we er goed aan om op andere vlakken waar mogelijk zo veel mogelijk te bezuinigen.

En daarnaast, uiteraard, blijven inzetten op schone energie. Maar dit is eigenlijk een verhaal zoals vele anderen; ga liever bezig met het aanpakken van de bron of de wond (energieslurpers) en ga daarna pas prioriteren op een tegenaatregel of het plakken van pleisters (groene stroom).
Reageer
Ik begrijp niet precies wat electrische autos daarmee te maken hebben? De benzine of diesel die een anders auto gebruikt word ook omgezet in energie, enkel begint het niet in de vorm van stroom
Reageer
Je haalt energie en elektriciteit door elkaar.
De efficiëntie van een elektrische motor zorgt voor een lagere hoeveelheid Joules/km, voor het energieverbruik het maakt niet uit of je dat uit een verbranding of uit elektriciteit haalt.
Reageer
Volgens mij gaan we wel minder energie gebruiken, immers een elektrische auto zet veel meer van de energie die je erin stopt om in beweging dan een benzineauto. Ook als je een warmtepomp gaat gebruiken wordt hoef je veel minder joules in te kopen om je huis even warm te houden.

De bron van de energie is wel anders. Elektriciteit is veel makkelijker duurzaam te oogsten dan bijvoorbeeld benzine of gas.

ik denk dat je bedoelt dat we niet minder elektriciteit gebruiken.
Reageer
Juist de elektrische auto is een voorbeeld dat minder energieverbruik kan. De motor is efficiënter dan een brandstofmotor, een elektrische auto wint energie terug bij remmen.
Je gebruikt wel elektriciteit in plaats van fossiele brandstoffen, dus minder elektriciteitsgebruik wordt lastig. Maar minder energieverbruik zal je zeker halen!

Edit: typo

[Reactie gewijzigd door lvanschijndel op 23 juni 2022 11:40]

Reageer
En hoe denk je dat die elektriciteit wordt opgewekt?
Reageer
Of je nou elektrisch of op benzine rijdt, energie is energie (en bezine verbranden is behoorlijk inefficient)
Reageer
Electrische energie bedoel je? Want Benzine/Diesel/Gas auto's rijden ook niet vanzelf...
Reageer
We gaan wel minder energie verbruiken. Elektrisch rijden is zelfs met het extra gewicht heel wat efficienter dan op fossiele brandstoffen. Een auto haalt op zijn best 2kwh aan energie uit een liter benzine.

Een Tesla Model S haalt wel de 500km met 100kwh(volgens wiki). Dat is dus 50 liter aan benzine voor een equivalente hoeveelheid energie en afstand. Dat is op zijn best 1 op 10.

Een beetje fossiele energiecentrale haalt 4-5kwh per liter. We kunnen het energieverbruik van vervoer halveren door over te gaan op elektrisch.
Reageer
Er gaat wel iets mis in jouw berekening om te bewijzen dat elektrisch dan “zuiniger” is. Ik rijdt 700-850 KM op 45 liter benzine, dat is nogal een groot gat vergeleken met jou 1 op 10.
Reageer
En je kunt 1400-1700km rijden door die 45L benzine in een energiecentrale te gooien om vervolgens elektrisch te rijden.
Reageer
je vergeet dan voor het gemak 10% transport verlies, 10% laad verlies en een massa compensatie (1500kg voor een zware beladen benzine auto en 2500 voor de model S)

Wil je echt efficient, dan zijn juist kleine elektrische autos met een laag gewicht en lage range ideaal voor woon werk verkeer en kun je lange afstanden het beste met een (plugin) hybride werken, al dan niet gehuurd.
Reageer
Blijft efficiënter gebruik van de energie dan de brandstof in je auto gooien. Dat was voornamelijk mijn punt. Als vergelijking pakte ik mooi een zware Tesla wat al ~2 keer zo efficiënt is. In een klein gebakje haal je inderdaad nog een stuk meer kilometers met dezelfde liter brandstof.

Daarnaast richt ik op 4kwh per liter, een efficiënte elektriciteitscentrale haalt er wel wat meer uit, er zit 8,9kwh aan energie in een liter benzine.

[Reactie gewijzigd door batjes op 23 juni 2022 14:40]

Reageer
Ik weet het niet batjes maar je spreek je zelf tegen, eerst was het 2kwh per liter en nu opeens 4 kwh als richtlijn.

Een “klein gebakje” valt wel mee, gewoon een Ford Focus hatchback. Nee geen grote motor, maar wie wilt er nu iets rijden met een grote motor tenzij je geld teveel hebt?

Pak een hybride motor (full hybrid, geen plugin) en je kunt de KMs oprekken naar 1200-1400km op een kleine tank.
Reageer
1 liter benzine heeft een energiewaarde dat gelijk staat aan ~8,5-8,9 kwh.

Een auto haalt uit een liter benzine 2-2,5kwh (meest ideale omstandigheden ~3).

Een elektriciteitscentrale haalt uit diezelfde liter benzine 4-5kwh, in de meest ideale omstandigheden 6 of wel 7kwh.

Je kan dus beter een liter brandstof in een energiecentrale gooien, dan met een veel te zware Tesla tot wel 2 keer zo veel kilometers rijden. Dan dat je diezelfde liter benzine in een efficiënte Aygo oid gooit.

Dus, door ons vervoer te elektrificeren kunnen we de gebruikte energie in die sector al makkelijk halveren.

[Reactie gewijzigd door batjes op 23 juni 2022 16:08]

Reageer
Benzine is ook gewoon energie :+

Kijk je naar het verbruik van elektrische auto's dan kom je op 8 tot 30kwh per 100 km en bij benzine 4 a 5 liter (36 a 45kwh) per 100km, oftewel minder energie :)
Reageer
reken je ook nog wat transport en laad verliezen mee?
Reageer
Terecht punt maar vergeet niet dat benzine die ook heeft. Er schijnt ook nog 1.5 Kwh elektriciteit nodig te zijn om een liter benzine te maken, los van het transport.
Reageer
Er is nog steeds meer vraag naar high-power GPUs, en dat leveren ze. Als je bedenkt dat je nu 4k CUDA cores voor 100W krijgt, is dat ook een fikse verbetering ten opzichte van de 1080, waar je daar 250W voor mocht inleveren (met nog lagere kloksnelheden ook).
Reageer
TDP van en GTX 1080 is 180w (reeël verbruik ook).

Vraag naar krachtige GPU's is er altijd al geweest waarom we dan nu naar deze belachelijke TDP's gaan is me alleen een vraag :?

Verder dan "Omdat het kan" kom ik niet :X

[Reactie gewijzigd door sapphire op 23 juni 2022 11:41]

Reageer
Nvidia heeft de manier waarop ze CUDA cores tellen aangepast bij Turing, dus het is niet een geheel eerlijke vergelijking die jij maakt.
Nvidia telt in hun marketing materiaal elke CUDA core nu dubbel vanwege concurrent execution (soort van hyperthreading):
https://developer.nvidia....ng-architecture-in-depth/

Een RTX3060 heeft dus in feite 3584/2 == 1792 cores met een TDP van 170W, de GTX1080 heeft 2560 cores met een TDP van 180W.
Als we naar game benchmarks kijken is de RTX3060 ongeveer 25% sneller dan de GTX1080 op zowel 1080p als 1440p (los van RTX/DLSS) terwijl het daadwerkelijke energie verbruik gelijk is:
https://www.techspot.com/...hly%20playable%2083%20fps.
Reageer
Ik denk dat je niet naar de GPU industrie moet kijken, maar naar de gebruikers zelf. Die gebruiken dagelijks al enorme bakken energie, zonder erbij na te denken. Hoeveel RTX 4090s denk je dat er straks rond dwalen en hoe lang per week zullen die op max verbruik gebruikt worden? Weinig en relatief weing!

Kijk naar bv. een SteamDeck, speelt men de nieuwe TMNT op, verbruik: 8W... Vergelijk dat eens met een PS of Xbox (35W-220W)...

Maar een hoop mensen gebruiken een 65"-75" TV welke 100W-220W trekt, afhankelijk van het type, formaat en HDR gebruik. Waarbij HDR zorgt voor zo een 50%-85% meer energie verbruik. En ietsdergelijks staat niet alleen tijdens gaming (consoles), maar ook gewoon TV/film kijken en vaak aan terwijl men andere dingen aan het doen is...

Besparing van energie moet je imho ten eerste kijken naar: hoeveel impact (aantallen), hoeveel wordt het gebruikt (in dit geval op max setting) en dan pas hoeveel het verbruikt ivm. de alternatieven.

Zo verwacht ik in een huishouden waar een RTX 4090 aanwezig zou zijn, een TV veel meer zou slurpen dan de overmaatse GPU. Ik verwacht zelfs dat de doorsnee console gamer meer stroom verbruikt dan de doorsnee PC gamer. Want een RTX 4090 is een uitzondering, zeker niet de regel. Zelfs een 3090 is volgens de Steam hardware charts maar een half procent van de gebruikers (die meededen aan de HW survey). Zij die een (niet laptop) 3080 gebruiken is iets meer dan 2%. Een 2080 variant is minder dan 2%, een 3070 bijna 3%, een 2070 bijna 3,5%. Meer dan 95% gebruikt dus een 3060 of lager/ouder (of het AMD equivalent).

Bron:
https://store.steampowere...e-Survey-Welcome-to-Steam
Reageer
Maar dat hadden we 15 jaar geleden toch al aan zien komen dat er meer en meer stroom verbruik zal zijn? Man zelfs in Science Fiction films werd al duidelijk gemaakt dat de toekomst elektrisch is.

Nederland had niet zo krampachtig vast moeten houden aan hun anti kerncentrale beleid. Hadden we die nu een stuk of 3 gehad dan had alles er een heel stuk anders uitgezien.

Maar goed, waarschijnlijk is er niemand hier die 10 jaar geleden meer stroom verbruikte dan nu en dat zal alleen nog maar oplopen. We kunnen wel minder energie gaan verbruiken, maar dat wordt dan wel weer ingehaald door andere zaken zoals elektrische auto's etc.

Ik denk dat het veel slimmer is te investeren in het zo goedkoop, schoon en efficiënt mogelijk opwekken van energie en dat ze hier verdomde vaart achter zetten. Staatsschuld wat hoger? Jammer dan, dit heeft een hoger doel imho. Hetzelfde geldt voor gas in Groningen. We hebben daar 1 van de grootste velden van Europa liggen en wat gaan we ermee doen? Niks meer? Sorry maar dat vind ik zelf erg onverstandig. Ik snap dat het vervelend is voor Groningers, en ik vind dat de overheid daar riante compensatie tegenover mag stellen, maar het daar maar laten liggen terwijl half Europa nog voor jaren aan gas daar heeft liggen?

De EU heeft jarenlang alles uitbesteed en alle kennis verkocht aan het buitenland. Het wordt tijd dat we weer meer zelfvoorzienend worden.
Reageer
Energie verbruik zonder prestaties te vergelijken is natuurlijk vrij nutteloos.

GPU B gebruik misschien 50% meer stroom dan GPU A maar als de prestaties ook 50% beter zijn dan is de performance per watt hetzelfde.

Die energie crisis hebben we aan onszelf te danken. Als we de afgelopen 60 jaar hadden doorgezet met de ontwikkeling van kernenergie dan hadden we nu alle schone energie gehad die we maar zouden willen hebben.
Reageer
Uiteraard bij AMD is de performance per watt 50% verbeterd RDNA1 naar RDNA2 naar RDNA3 dus ipv elke aanschaf bij performance verdubbeling weer dezelfde klasse sku pakken dan de vorige kan je ook stap lager gaan.
Bij nV zal performance per wat ook verbeterd zijn.
Dus als
Upgrade

…..980ti… …… 2080.…… …… 4060
……1080Ti …… .…….…… 4060
980ti…1080Ti …… .…… 3070.…… 4060
980ti…1080Ti …… 2080.…… 3070.…… 4060

Ik zou dan van mijn Vega56 - - - - - ->. 7700XT kunnen grof zelfde vermogen hebben en ookl wel meer performance.

Waarbij de elke gen x090ti upgrader dus schijt heeft aan vermogen en dus voor absolute performance gaat. Of nu licht zien van wtf dit is brug te ver.

[Reactie gewijzigd door SG op 25 juni 2022 11:35]

Reageer
GPU industrie levert simpelweg wat er gevraagd word en aangezien de vraag naar hogere resoluties icm hogere refreshrates en hogere kwaliteit blijft toenemen verbaast me deze trend niet.
Reageer
AMD kreeg een hoop hoon over hun energieslurpende cpu's en gpu's.

Nu Intel en Nvidia het doen, klaagt men erover maar niet aan het adres van Intel/Nvidia, nee men klaagt in het algeheel.

De prijs-categoriën lopen telkens op, tot een msrp van €2000 8)7, en nu de wattage's ook.

Lukte me niet zo goed meer het te rechtvaardigen, de irritatie grens zijn ze nu keihard voorbij.

Je eigen pc bouwen is geld weg pissen tegenwoordig. Je hebt een kwaliteits laptop voor aanzienlijk minder, met wél fatsoenlijke doorverkoop waarde. Enfin, ik ga voor de Xbox. Het was weer leuk voor wat jaartjes, maar tyf op met je geldklopperij.
Reageer
Dit hele topic klaagt over het energieverbruik :?
Reageer
Energie is een belangrijk onderdeel van de klimaatcrisis, dus ja, ik ben blij te zien dat hier alleszins heel wat aandacht aan gegeven wordt. Ook al is het een gigantisch kleine druppel op een hete plaat.
Reageer
Het is ook begrijpelijk, bedoelde het niet negatief.
Reageer
En dat is maar goed ook, altijd fijn kritische en redelijke Tweakers.
Reageer
AMD was toen de enige, dus kon je 1 kant op klagen. Nu met nvidia en intel erbij doet *iedereen* het dus. Dus ja, je kunt het geklaag nergens meer op richten.

Persoonlijk ben ik in ieder geval wel even klaar met de GPU's. Het hoeft me allemaal niet zo fotorealistisch meer. De gameplay wordt er in ieder geval zelden beter van (in het super high-end gebeuren). Als je bij het spelen bezig bent met de vergelijking te leggen tussen 'ziet er goed uit' en 'ziet er fantastisch uit' dan boeit het spel denk ik niet genoeg om je aandacht daar naartoe te kunnen verleggen.
Reageer
Ik vond Crysis met verse Vista al heel gaaf met HD2900XT
Elke verbetering is visueel klein stapje maar vereist vaak heel veel rekenkracht.
Denk dat max voor nextgen in de midrange ga onder de 300wat.
Reageer
Eerder was het blijkbaar niet nodig om zoveel watt te verbruiken en nu wel? Tot een andere leverancier GPU's kunnen maken met dezelfde performance en minder verbruik. Is meer naar feiten kijken dan dat rare fenomeen dat mensen zich met een merk verbonden voelen en het andere merk dus per definitie de vijand is.....
Reageer
Droom maar verder . Eerder zat je op 1mm nodes en dan kon je er gewoon geen 1kw uit cpu gpu halen dan die zo groot als tafel moeten hebben.
Elke dieshrink krijg je dezelfde performance met minder vermogen. Maar op dezelfde oppervlak krijg je veel meer transistoren in kwijt die ook de klok ceiling verhogen en die 2 factoren samen verlegd de grens van vermogen verbuik bij elke gen.

Kijk je naar 80386 en nu met alderlake dan zie je een opwaarse lijn in vermogen.
We zijn nu 20 gen verder dus ultra low bied al meer performance voor frachtie wat oer cpu of gpu trok .

Voor wie een PC gebruikt meer als type machine email web browser ding. Kan je met instap nuc heel zuinig zijn. Het is dat sommige task altijd wel meer performance goed kunnen gebruiken en met gen 20+ moet je ergen maar lijn trekken van met hoevel watts.

Als nu pas gortig vind ligt je grens bij 300watt.
Wie GTX480 al gortig vond tja met 4050 haal je meer dan die performance ook al.
Maar dan moet je ook geen 4K willen en ook al helemaal geen 8K gamen.
Ben je erg groen dan APU en ga je voor bewust lage eisen.

Of tablet PC wat kompleet de desktop en laptop vervangt. En ja den ben je heel zuinig en heel veel meer performance dan 386. Of zelfs de 1st AMD64 cpu.
Reageer
Echt een kwaliteitsvideo van GN. Als de power draw/ spike verhouding zo doorzet kunnen we Inderdaad bij een 450W TDP spikes van 1KW verwachten.

Oftewel, een voeding koop je straks niet meer op puur watts en efficiëntie, maar ook transient response gaat heel belangrijk worden

Het probleem is helaas dat snelle transient response ten koste gaat van de efficiëntie van de voeding. (De interne MOSFET's schakelen sneller).

Maar het zal mij niets verbazen als straks een 80+ gold voeding beter presteert dan een 80+ platinum. Dit omdat de platinum langzamer is om een hogere efficiëntie te bereiken.
Reageer
De transient respons ís al heel erg belangrijk. Vergeet niet dat een moderne CPU ook van een 4-5w slaapstand naar 280w kan springen, en weer terug. Dit zonder voltage drops doen is een enorme uitdaging. Het wordt méér een uitdaging, maar de laatste jaren op GoT zie je wel verdraaid vaak dat dingen 'vaag' worden in een systeem wat lang stabiel is bij een nieuwe applicatie die zowel CPU als GPU kan laten spiken. Ben het zelf gewend (Threadripper, 3090 build...) en zie aan het stopcontact 110w naar 1090w vliegen, en settlen op 900w stabiel, om vervolgens minder dan een minuut later (batch klaar) weer naar die 110w te gaan (tsja... zo zuinig in idle is m'n bak niet...).
Reageer
Ik neem aan dat je voor dat systeem ook geen 1200 watt PSU hebt gekocht :)
Reageer
1300w ;) -- elke PSU raakt wat capaciteit kwijt na z'n levensduur en ik had een 1000W Corsair RMXi er in zitten die het eigenlijk niet altijd meer trok, en bovendien bij volle belasting een beetje buiten z'n goldilocks zone zat qua efficientie. Heb nu een Seasonic. Best lawaaiig, maar stabieler (kon bij de Corsair het systeem laten crashen door CPU én GPU tegelijk te belasten, moest dus load geleidelijk opbouwen, dat is geen probleem meer bij de Seasonic).
Reageer
Off-topic maar even puur uit interesse.
What heb je allemaal in die PC hangen dat je 900W continu verbruik hebt? Met alleen een threadripper en een 3090 ga je dat nooit redden tenzij alles keihard overklokt is? Dubbele 3090 misschien?
Reageer
Ik zei expliciet stopcontact ;) maar je hebt gelijk: het is zo'n 840-850W intern. Het geheel is ook water gekoeld (een DDC pomp zoals de mijne zit tussen de 12 en 25W ongeveer), met in totaal 720mm aan radiatordiagonaal (2x360, eenmaal chonker 360 van 6cm hoog). Dit biedt ruimte voor stilte door een groot thermisch oppervlakte, maar tegelijkertijd een hoop thermische massa waardoor het systeem niet snel opwarmt, en dus lang kan blijven boosten. De GPU zit met gemak 15-20min op 380W voordat hij pas terug schakeld. CPU doet wat threadripper doet, en dus niet lang max blijven, maar zit alsnog op een constante 280W. Dat is al 660W. Moederbord is verre van zuinig, 4x nvme drive telt ook wel aan, 10GBe NIC (niet on-board...) doet aardig z'n best, en geheugen doet ook wel wat.

Denk dat ik met een dubbele 3090 niet alleen m'n distroplate door nog maar een 360 rad zou moeten vervangen (met maar een klassiek res), maar ook met gemak de 1200w aantik. Mijn software schaalt gelukkig niet multi-GPU (ben nu al eigenlijk vaker storage capped eigenlijk), dus laat dat maar zitten.
Reageer
Dat ligt er aan hoe goed je die pieken op kan vangen met grotere condensators en waar je die wil, kan en hoort te plaatsen.
Reageer
Je kan het probleem op 3 manieren aanvliegen:

1 Meer ontkoppeling op de GPU, de beste oplossing mijns inziens
2 Meer ontkoppeling in de PSU (kost ruimte, veel ruimte)
3 Hogere schakelsnelheid van de voeding (heeft ook als voordeel dat het lagere EMI heeft)
Reageer
Het lijkt mij het beste om duidelijk specificaties te maken voor pieken in verbruik voor alle componenten. Dan kan de voeding, moederbord, processor, videokaart, etc goed op elkaar afgestemd worden.

Het is me niet helemaal duidelijk waarom je bij de PSU expliciet vermeld dat meer ontkoppeling veel ruimte kost. Kost dat in een voeding meer ruimte dan op een videokaart? En hoe veel ruimte is dat?
Reageer
Nou dat is Electronica vraag dat berust op dat in. De realworld er geen ideale componenten zijn.
Zo heb je altijd parasitaire inducie capaciteit en weerstand.
En ook frequentie respons daar op. Stroom afname van digital chip is zeer grillig en de stroom en spanning pieken en dips zijn opgebouwed uit frequentie harmonischen.

Waarbij parasitaire factoren al aanwezig zijn binnen de componenten en chips
Waarbij dus de afstand grote rol speelt in inductie.

Het is zo dat een 1khz ripple je die 1kw spike door de fase alle elco’s 1msec de spanning nog op peil moeten houden dus op 1V vcc maar 0,05V mag dippen .
De grote elko vangen de lage frequentie variaties op. Al zijn transient spikes van 1ms wel heel lang.

Voor 1ghz ripple is moet ontkoppelings C bij socket 1ns de dip op vangen
Op cpu ontkoppelings C 10ghz dip voor 0,1 ns opgevangen worden.

Die ontkoppeling condensatoren bufferen dus energie om voedingspanning op peil te houden. Meer vermogen meer capaciteit nodig meer van die condensatoren nodig.
Reageer
Het beste is altijd om je condensator zo dicht mogelijk bij de "storingsbron" te plaatsen. dit zorgt ervoor dat een mogelijke voltagedip op je 12V rail snel opgevangen wordt op de plek waar het ontstaat en niet door je hele systeem heen dendert. Ik kan me herinneren dat MSI GTX 680 lightning kwam met een extra zogenaamde "reactor" printplaat. Dit was een printplaatje tjokvol condensators wat je achterop de grafische kaart plaatste en zorgde zo voor een stabielere GPU core voltage.

Momenteel zie je ook vaak dat er lege condensatorposities zijn op een GPU. Hier kunnen eventueel condensators worden geplaatst door de fabrikant, maar dat wordt bewust niet gedaan omdat het niet per se nodig is en zo een manier is om kosten te besparen.
Reageer
Wat betreft de ruimte, Kleine keramische condensators op een voeding hebben weinig zin. Dit omdat de spikes die daadwerkelijk bij de voeding terechtkomen vaak grote power spikes zijn. Hierdoor moet je dure grote polymeercondensatoren inzetten. Deze condensatoren kunnen snel "reageren" op een powerspike maar zijn vaak groot en duur. Dit omdat je veel energie wil bufferen in je condensator op een voltage van 12V.
Reageer
Ja inderdaad.
Je moet tegenwoordig ook al bijna een airco hebben om de kamer koel te houden waar een moderne pc staat, zeker met de aankomende hittegolven.
In de winter dan wel weer lekker.
Reageer
De reden dat dit nu gebeurt is omdat het erop lijkt dat de fabricagekosten van nieuwe chips niet meer omlaag gaan. Tot recentelijk kon men een kleiner proces gebruiken, en meer transistors in dezelfde chip stoppen voor dezelfde prijs.
Het vermogen opvoeren is dan de makkelijkste manier om toch meer performance te bieden voor dezelfde prijs.
Reageer
Nou nee 386 draaid 25mhz klokt maximaal 40mhz dan houd het op heel ver van halve kw. Nutuurkundige limiet steld dat klok limiet eerder komt dan vermogen.
PIII 1133Mhz was de max dan kan 1/2 KW vergeten.
Nu hebt je AD102 die gens ligt bij 1kw het is dus

De natuurkunde steld dus dat node van 10000nm eerst loopt tegen klok limiet.voor grote chip.
Nu 5nm loopt men tegen vermogen probleem 1st dan pas klok.

Als je 2 of meer concurrenten target is de kroon dan hoop je natuurlijk dat je die pakt en niet heel veel meer vermogen daarvoor nodig hebt.

Dus als je concurent uit komt op 900W dan kan je de kroon pakken met 10% meer of 10% minder performance 20% minder vermogen ben je alternatief.

Dus is die 4090 moetje is 4050 of 4060 ook al zat niu voor 1080P wel
Reageer
Wanneer je de hete adem van de concurrentie in je nek voelt is het logisch dat je zelf ook vuur gaat spuwen 😄


Mijn vraag is eerder waarom? Dit lijken consumenten versies maar waar zou die vraag vandaan komen? Mining zit nu we redelijk op zijn gat en er wordt naar meer gespecialiseerde soc’s gekeken dan naar GPU’s.
Met gaming is er ook niet veel veranderd en als reclame voor consoles of mobiel lijkt het me ook niks.

Dan kom ik uit op vaporware.
Reageer
Deze honger voor meer wattage gaat nu echt de spuiggaten uitlopen.
Die honger is puur een kwestie van fysica, een onvermijdelijk gevolg van praktische limieten aan huidige halfgeleider technologie icm een markt die honger heeft naar meer performance. Dat het wattage sneller toeneemt dan performance is een gevolg van wat tien jaar geleden al werd aangekondigd en nog steeds maar weinig mensen willen geloven: de wet v Moore is stervende.
Reageer
Je hoeft het niet te kopen. Maar voor meer snelheid is blijkbaar ook meer power nodig, de vraag is er, dus nvidia en AMD zullen er gewoon aan voldoen.
Reageer
Je zou juist denken dat in deze tijd van de hele energietransitie dat ook Nvidia zich gedachtes maakt qua energieverbruik maar dat zijn ze blijkbaar vergeten of negeren het simpelweg. Gemiddeld gezien gaat het verbruik bij de hele 4xxx serie met 100 watt omhoog wat ik nu niet bepaald niets vind. Zeker geloof ik best dat als je dan prestatie naast verbruik neer zet dat die kaarten efficiënt zullen zijn. Evenzogoed neemt dat niet weg dat het maximale tbp gewoonweg omhoog gegaan is en niet omlaag of gelijk is gebleven.

En tja laten we wel wezen dat als je een kapitaal hebt moeten neerleggen voor een videokaart dat je dan ook het uiterste eruit wilt halen. Zou dan toch mooi zijn wanneer het verbruik dan niet ook nog eens de lucht in schiet en je zeker in deze tijd voor torenhoge energierekeningen komt te staan.
Reageer
Heel opmerkelijk dat de nieuwe kaarten de xx80 en xx70 een achteruit gaan op zowel geheugenbus als bandbreedte maar wel +/- 100W erbij. Je krijgt er wel een hoop cores erbij maar kan minder hard :?
Reageer
Kijk naar de kloksnelheden van een Threadripper, de versie met 32 cores heeft ook veel lagere clocks dan die met 16? Daarnaast kun je een nieuwe architectuur niet 1:1 met de oude vergelijken neem ik aan.

Wat betreft de geheugenbus, er staat heel duidelijk in het artikel dat het geruchten zijn en zelfs de bron er al een vraagteken bij zet.
Reageer
Als vuistregel is de geproduceerde hitte evenredig met het aantal cores keer de knolksnelheid.
Als je Als je de kloksnelheid wat terug kan brengen, maar daardoor er boelveel cores bij kan plaatsen, dan kan de totale snelheid van de processor omhoog gaan.
Reageer
Hoe smaller de geheugenbus des te energie efficiënter de GPU. Dat het maximale vermogen alsnog omhoog gaat wijst erop dat er een enorme klapper aan zit te komen qua prestaties. Je hebt dan immers een betere performance per watt, maar ook nog eens meer watts. Dus in plaats van 10 x 2 (20) dat 10x 2.5 (25) wordt heb je ineens 15 * 2.5 (37.5). Volstrekt willekeurige getallen overigens.

[Reactie gewijzigd door sdk1985 op 23 juni 2022 16:23]

Reageer
Dat vind ik inderdaad ook interessant, ik vermoed dat daar iets niet klopt, of dat NVidia heel hard inzet op compressie van data, maar anders gaat die GPU gruwelijk gebrek aan info krijgen, en da's zonde, met die snelheid. Of je moet per se reken-intensieve taken gaan doen die op je L2-cache drijven.
Reageer
Je krijgt er wel een hoop cores erbij maar kan minder hard :?
Als je met "minder hard" bedoelt "lagere kloksnelheid maar wel meer performance": inderdaad.
Dat is al een paar generaties de norm bij top kaarten.
Er blijkt wel uit dat koeling de beperkende factor is; lagere klok = minder vermogen (tov hetzelfde aantal cores op hogere klok), zodat ondanks het grotere aantal cores toch de warmteproductie hanteerbaar blijft.

Als de hele handel zou worden gekoeld met stikstof oid dan zou het op dezelfde zo niet hogere klok kunnen draaien als z'n iets tragere broertjes, maar dan ook nog eens een paar honderd Watt meer vermogen verbruiken.

[Reactie gewijzigd door BadRespawn op 23 juni 2022 13:23]

Reageer
Kan het zijn dat zij een eigen infinity cache hebben geïmplementeerd, zoals AMD die met veel minder geheugenbandbreedte toch goeie prestatiecijfers haalt?
Reageer
heb nu een 3080 en die vind ik eigenlijk al te warm en teveel gebruiken.

dus hoop eigenlijk dat amd een beter aanbod gaat hebben
Reageer
Undervolt hem ;) Check guides op YT. Verbruik gaat dan goed naar beneden en daardoor ook de warmte.
Reageer
Heb ik ook gedaan.

5% meer prestaties tegenover verlaagd verbruik van meer dan 100W.

Dus in principe een overclock/undervolt.
Reageer
Idd en btw, wat ook echt goed is, ook pas sinds kort gehoord is Process Lasso. Wat je daarmee kan doen en dat is echt een magic ding met games is per game je de hyperthreading uit kan zetten. Wat bij mij daarvoor zorgt dat mijn game echt super smooth is. Ik heb een g-sync monitor en die is al smooth, maar met dit als je dit doet, dan is het bij mij tenminste constant vloeiend!

Echt een aanrader!

P.S. Free version ondersteund dit ;)
Reageer
Bedankt voor de tip! Ga ik zeker nakijken.
Reageer
Alle indicaties duiden erop dat AMD voor dezelfde performance een stuk zuiniger zal zijn, in de nieuwe generatie die komt einde 2022, met Navi3.
Reageer
fps lock erophelpt veel ik heb het standaard in de control panel staan dat de kaart nooit meer dan 144 genereerd.

En een aantal games lock ik op 75 gezien ik g-sync heb blijft het beeld soepel en het voegt niks toe om hoger te gaan.

Daarmee gaat het energieverbruik fors omlaag en blijft de pc stiller.

[Reactie gewijzigd door mr_evil08 op 23 juni 2022 11:47]

Reageer
verschil tussen 75 en 100+ fps kan ik nog duidelijk zien hoor.
Reageer
Ligt aan de game wat je speelt, zoals FPS jazeker maar strategiespellen behalve dat het spel zelf anders kan reageren is er verder geen verschil met name bij singleplayer maakt het minder uit omdat enemy,s vaak voorspelbaar reageren.

[Reactie gewijzigd door mr_evil08 op 24 juni 2022 08:20]

Reageer
Waarom blijft dat maar over de kop gaan met die videokaarten en de stroom die ze willen.
Stroom is ook gewoon 60 cent de kilowattuur momenteel, dit motiveert me niet echt om te blijven investeren in mijn pc. Mijn kleine hobbykamer word nu al bizar warm en doe het nog met een 980ti. Die heeft een TDP van de helft ofzo. Ik denk dat ik oprecht die kamer moet gaan koelen als dat nog veel erger wordt.

Ik game op alles waar goede games op beschikbaar zijn dus wil echt geen bias profileren maar mijn (current gen) consoles doen het in de praktijk op 200 watt ofzo. En games op de PS5 en XSX zien er helemaal puik uit.
Als mijn Game PC straks gewoon casual ruim een halve kilowatt uit de muur gaat trekken ga ik er toch denk ik maar eens afscheid van nemen. Want dat komt dan bovenop de "hardware premium" die je sowieso al moet betalen voor PC gaming.

Dit soort statistieken wordt je alleen maar enthousiast van als je niet zelf je electra betaald, of je naast een hydrodam woont ofzo en 6 cent per kilowatt betaald voor je stroom.

Alles wordt efficiënter, behalve videokaarten, videokaarten veranderen langzaam in terrasverwarmers.

[Reactie gewijzigd door Polderviking op 23 juni 2022 12:01]

Reageer
Waarom blijft dat maar over de kop gaan met die videokaarten en de stroom die ze willen.
Men klaagt er nu steeds meer over omdat het zo extreem wordt, maar het gaat al zo sinds de begintijd van GPU's (en CPU's). Het is een onvermijdelijk natuurkundig gevolg van steeds weer meer transistors en hogere kloksnelheden van opvolgende generaties, om performance te verhogen.

Het is ooit begonnen met een paar Watt voor een CPU en enkele 10-tallen Watts voor een GPU. Koeling was dan ook geen probleem, de eerste generaties hadden helemaal geen koelblok. Maar het was ook 1000 keer trager (zo niet meer) dan wat we tegenwoordig gewend zijn.

Het is met name is het aan- en uit schakelen van transistors wat vermogen gebruikt dus vaker per seconde schakelen betekent meer opgenomen vermogen, en meer transistors verbruiken natuurlijk ook meer vermogen. Daarnaast neemt in verhouding de zgn lekstroom van transistors toe naarmate die kleiner worden. Ook worden steeds meer transistors op een kleiner oppervlakte geplaatst waardoor het steeds moeilijk wordt om de geproduceerde warmte af te voeren.
Daarbij zijn opvolgende generaties overigens wel steeds efficiënter: ze leveren meer performance per Watt. Dat zie je terug in laptops: ook bij relatief bescheiden stroomverbruik noodzakelijk om de accuduur op pijl te houden, wordt de performance van generatie op generatie steeds beter.

Maar de ontwikkeling is duidelijk aangeland in een fase van "deminishing returns", dwz dat het benodigde vermogen sneller toeneemt dan de performance.
Reageer
Toch boekt Apple met die M1 chip van ze interessante resultaten ten aanzien van wel performance als stroomverbruik verhoudingen ten opzichte van de concurrentie.

Dat het allemaal de lucht in kan gaan als het alleen maar "meer" wordt en er verder niks veranderd lijkt me helder.
Maar misschien wordt het langzaamaan ook eens tijd dat naar de tekentafel gaan met die videokaarten voordat je game pc een eigen groep nodig heeft in je zekeringkast, en je met een potje Cyberpunk gewoon je woning kan verwarmen.

PS5 is qua power draw toch redelijk in dezelfde ball park gebleven dan de PS4 ondanks de veel beter hardware.
Dat kan ik niet zeggen van mijn PC over de jaren heen.

[Reactie gewijzigd door Polderviking op 23 juni 2022 14:46]

Reageer
Apple's M1 is meer dan alleen een GPU; het is een compleet systeem waarbij alle componenten op elkaar zijn afgestemd om de meeste performance te halen. Consoles zijn daarmee vergelijkbaar. Dergelijke winst kan je niet halen door te focussen op één component (GPU).

GPU producenten gaan al iedere generatie naar de tekentafel (alhoewel ze niet iedere generatie even lang aan de tekentafel staan; Lovelace lijkt vooral méér te zijn dan Ampère, niet wezenlijk anders); ze hebben er alle belang bij om hun producten zo zuinig/efficiënt mogelijk te maken want dat is van groot belang voor datacenters, wat hun grootste klanten zijn (consumenten GPU's zijn aangepaste versies maar in wezen dezelfde producten die worden geleverd aan datacenters).

[Reactie gewijzigd door BadRespawn op 23 juni 2022 15:50]

Reageer
Deur openzetten naar de gang kan ook.
Reageer
Gelukkig zijn de energieprijzen zo aantrekkelijk... Voordeel, je hoeft dan de CV iig niet meer te laten draaien in de winter...

Die TDPs zijn een bizarre ontwikkeling.
Reageer
Jaquesparblue, dan mag je PC nog heel wat meer stroom gaan gebruiken wil je CV uit kunnen laten, een woonkamer is minstens 1500-2000 watt nodig daar zijn we bij lange na nog niet.
Reageer
Een computer zijn bijna alle stroom die er in gaat om in warmte. Een beetje een game pc redt wel 500watt in gebruik, dat is dus hetzelfde als een 500w elektrische kachel. Als je een goed geisoleerd huis hebt en je hebt m een uurtje aan staan werkt dat wel hoor :)

Ik heb als pubertje mn koude zolderkamertje wel vaak verwarmt door ff de gamen hoor, scheelt toch een paar graden :)
Reageer
Ik kan me nog herinneren toen ik een 480 had er altijd gevraagd of ik de verwarming aan had gezet :+
Reageer
Mijn oude PS3 kon in de winter de kamer sneller opwarmen dan de kleine radiator die er hing.

Dus nu we van het gas moeten, doe ik er juist goed aan om meer te gaan gamen. Geen enkel probleem :)
Reageer
Als je samen met je CV in een kelder van 2 bij 2 woont wellicht.
Reageer
Ik ben benieuwd. De huidige RTX30##(Ti) serie is nog verre van z'n potentie en de prijzen zijn nog godsgruwelijk hoog in vergelijking met de RTX20## en GTX10## serie. Vraag mij oprecht af hoe ze deze kaarten gaan positioneren in de markt, prijstechnisch gezien en hoe AMD daar weer op zou kunnen antwoorden.

Moet wel zeggen dat dit de eerste keer is dat er onwijs véél bizarre informatie over de RTX40## serie verschijnt. Wat voorgaande jaren een stuk betrouwbaarder en consistenter was naar mijn idee. Wellicht is het nu meer een "we lekken gewoon een boel verkeerde informatie zodat de echte specificaties worden ondergesneeuwd".
Reageer
Nee joh, deze kaarten komen pas eind 2023 op de markt. Eind dit jaar zal er alleen een paperlaunch zijn. De 30xx serie heeft voorlopig nog prima bestaansrecht.
Reageer
Tijd voor een nieuwe parameter

Frames/kg CO2
Reageer
kan dat ineens ook op de krultang, haardroger en stofzuiger van vrouwlief om er maar een paar te noemen. 450W voor een GPU valt dan nog mee :+
Reageer
Stofzuiger van vrouwlief? Die is van mij he!
Reageer
Waarom geen factory undervolt? Zou leuk zijn als de AIBs zo een 4060 met 2/3de van het TDP kunnen krijgen met dezelfde performance (waarschijnlijk niet hoor, gewoon leuk om te speculeren of die beter zou verkopen ;) )

(edit: 4080 en 4070 zou ook leuk zijn, 4090 hoeft niet, want dan ga je weg van het idee van een stroomvretende dure kaart die nouwelijks sneller is dan de rest)

[Reactie gewijzigd door Irsu85 op 23 juni 2022 12:04]

Reageer


Om te kunnen reageren moet je ingelogd zijn


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee