Gerucht: Nvidia GeForce RTX 40-flagship krijgt 18.176 CUDA-cores en 800W-tbp

Nvidia-leaker kopite7kimi heeft specificaties van de mogelijke GeForce RTX 40-flagship gepubliceerd. De videokaart zou onder meer een tbp van 800W krijgen. Het is niet bekend wanneer en onder welke productnaam deze vermeende gpu uitkomt.

De mogelijke RTX 40-flagship krijgt een AD102-450-gpu met 142 streaming multiprocessors, voor een totaal van 18.176 CUDA-cores, claimt kopite7kimi. Deze leaker deelt vaker vroegtijdig juiste informatie over Nvidia-videokaarten; hij deelde in 2020 bijvoorbeeld maanden voor release de correcte specificaties van Nvidia's RTX 30-line-up.

De RTX 40-flagship zou verder beschikken over 48GB aan GDDR6X-geheugen met een snelheid van 24Gbit/s. De total board power, oftewel hoeveel stroom de volledige videokaart maximaal verbruikt, ligt volgens de leaker rond de 800W. Ter illustratie: het huidige topmodel van Nvidia, de GeForce RTX 3090 Ti, heeft een tbp van 450W en 24GB aan 21Gbit/s-geheugen.

Verder krijgt de kaart mogelijk een nieuw boardontwerp, onder de naam PG137. Gezien de geheugenopstelling en de hoge tbp ligt het voor de hand dat Nvidia een nieuw pcb-ontwerp en een nieuwe referentiekoeler introduceert. Volgens eerdere geruchten werkt de gpu-ontwerper aan een referentiekaart met drie fans.

Kopite7kimi deelde eerder al mogelijke specificaties van de GeForce RTX 4090, RTX 4080 en RTX 4070. De flagshipvideokaart die de leaker nu noemt, zou boven die drie videokaarten gepositioneerd worden. De gpu heeft bijvoorbeeld meer cores en geheugen en een hogere tbp dan de RTX 4090, die later dit jaar moet verschijnen. Het is niet bekend onder welke productnaam Nvidia de flagshipvideokaart uitbrengt. De leaker zelf noemt geen naam voor de kaart. Mogelijk betreft het een RTX 4090 Ti of een nieuwe Titan-videokaart.

Mogelijke specificaties Nvidia GeForce RTX 40-serie
Videokaart RTX 4090 Ti/Titan(?) RTX 4090 RTX 4080 RTX 4070
Architectuur Ada (TSMC N4) Ada (TSMC N4) Ada (TSMC N4) Ada (TSMC N4)
Boardnummer PG137 SKU 0 PG139 SKU 330 PG139 SKU 360 PG141 SKU 341
Gpu AD102 AD102 AD103 AD104
CUDA-cores 18.176 16.384 10.240 7168
Geheugen 48GB GDDR6X (24Gbit/s) 24GB GDDR6X (21Gbit/s) 16GB GDDR6 (18Gbit/s) 10GB GDDR6 (18Gbit/s)
Geheugenbus 384bit(?) 384bit 256bit 160bit
Bandbreedte 1152GB/s(?) 1008GB/s 576GB/s 360GB/s
Tbp 800W 450W 420W 300W
Releasedatum Nnb Oktober 2022(?) November 2022/begin 2023(?) December 2022/begin 2023(?)

Door Daan van Monsjou

Nieuwsredacteur

26-07-2022 • 16:42

254

Lees meer

Reacties (254)

254
248
108
5
0
88
Wijzig sortering
Ik maak me er vooral zorgen om dat gamefabrikanten hun graphics ook steeds meer af gaan stemmen op dit soort kaarten. Als dit de norm is, dan kan je uiteindelijk met je zuinige kaartje steeds minder meer meekomen waardoor we in een soort perverse verbruiksspiraal terechtkomen waarin ook de budgetkaarten een toename van verbruik krijgen
Dit is de ultra highend, dat wordt nooit de norm. Kijk bv naar de Steam hardware survey.
1,95% heeft een 3070, 1,40% een 3080, 0,88% een 3070 Ti, 0,61% een 3080 Ti, 0,45% maar een 3090 en de 3090 Ti heb ik niet eens kunnen vinden in de lijst (wat betekent minder dan 0,14%).
Tel ik dat op dan heeft dus een goede 5% minstens 3070 performance. Zo'n 2% minstens een 3080 en die 3090 is helemaal niks. Ja devs zullen misschien wel showcases maken die die power kunnen gebruiken, maar dat is dan alleen met alles op ultra. Zet de settings iets lager, iets wat de meeste mensen niet eens op zal vallen, en zelfs die 3070 is overkill. Veel minder dan die 3070 zal de game in de meeste gevallen ook nog prima kunnen draaien want ze gaan echt niet 95% van de markt negeren omdat de game niet draait op die mindere hardware.

Edit @SinergyX uitgaande van de Steam survey nog veel minder dan 10% dus :P

[Reactie gewijzigd door Finraziel op 23 juli 2024 11:27]

Maar als het verbruik bij de high end kaarten ineens zo exorbitant omhoog schiet, waarom zou dat dan (verhoudingsgewijs) ook niet zo zijn bij de low / midrange kaarten, die op dezelfde technologie gebaseerd zijn? Het komt mij vooral over als een gebrekkige architectuur, die alleen maar sneller is te krijgen door er gewoon veel verbruik tegenaan te gooien.....
Maar als het verbruik bij de high end kaarten ineens zo exorbitant omhoog schiet, waarom zou dat dan (verhoudingsgewijs) ook niet zo zijn bij de low / midrange kaarten, die op dezelfde technologie gebaseerd zijn? Het komt mij vooral over als een gebrekkige architectuur, die alleen maar sneller is te krijgen door er gewoon veel verbruik tegenaan te gooien.....
De performance per watt neemt al jaren toe. Wat ook toeneemt is de bereidheid om veel geld neer te leggen voor een GPU. Hierdoor hebben we nieuwe boven categorieën gekregen met kaarten die duurder zijn en flink meer verstoken.

Verder heb je het zelf in de hand. Wanneer jij een game op 60 fps locked met een 1070 dan verbruik je circa 30% meer dan met een 3070. Ga je uncapped en spreek je alle ruwe performance aan dan verbruik je 35% minder dan die 3070. Die 3070 heeft namelijk een betere performance per watt maar mag ook meer gebruiken.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 11:27]

Je ziet dat verbruik altijd exorbitant omhoog schiet als je gaat overklokken buiten het normale bereik van een chip. Dan word bv de spanning verhoogd om de boel stabiel te houden.

Het komt vooral over dat Nvidia de 40 serie niet snel genoeg kon krijgen naar hun zin en dus extreme methodes heeft moeten gebruiken voor de top kaart. Dat lijkt vooral een kaart om in de reviewer lijstjes altijd een Nvidia kaart bovenin te hebben en niet een kaart die echt bedoeld is voor de verkoop.
Hopelijk kijken reviewers door dat truukje heen.
De Nvidia kaarten van hun zelf lopen juist minder snel dan de msi en dergelijke.
Ik deed een wilde gok op beetje verkoopcijfers, maar denk dat inderdaad Steam Survey een beter beeld geeft en ik zat gigantisch te hoog :P
Ik vermoed omdat wij hier ook veel enthousiastelingen hebben en op een publiek van ettelijke tientallen miljoenen is 0,14 toch best veel mensen. En op een forum als deze wordt de spoeling niet zo heel dun en krijg je vaak een vertekend beeld, terwijl de feiten je indruk tegenspreken.
Daarnaast worden engines ook enorm beter , kijk maar wat een Unreal 5 uit simple hardware als een Xbox of PSP haalt en wat daar dan in zit als grafische kaart,

Denk eerder dat dat de norm is dan PC games gezien bijna alles tegenwoordig op alle 3 de platforms uitkomt. zeker met UE5 engine is dat een keer de knop in drukken voor distributie
Zo'n 2% minstens een 3080 en die 3090 is helemaal niks.
Eigenlijk hebben alleen de doelgroep (shit waar veel VRAM voor nodig is zoals VR) en professionele gamers (die letterlijk hun geld verdienen met gamen, en dan heb ik 't over warzone pro's e.d.) 3090's. Verder niemand want dat ding kan maar heel weinig meer dan een 3080 en kost het dubbele.
Inderdaad, de meeste 4090 / Ti kaarten zullen zakelijk worden verkocht voor high end workstations, met de 3090 zelf meegemaakt ;)
Voor zakelijk gebruik ga je toch meestal naar de Quadro of datacenter/workstation GPU zoals de A40 die al een jaartje lang 48G aan boord heeft.

Er was ook een gerucht dat de workstation deze series gingen overslaan omdat er weinig verschil ligt tussen de chips.

Wat we nodig
hebben op onze datacenter GPU (meer RAM) is waarschijnlijk moeilijker te integreren.
Quadro of Geforce hangt totaal van de workflow af en 'zakelijk' is een algemeen begrip natuurlijk. ;) CAD/CAM/GIS heeft een andere workflow dan parallel computing. ;)
Het stramien 'voor zakelijk heb je Quadro nodig' is een foute aanname en dus onterecht. Je kiest dan ook wat het beste werkt voor jouw workflow. Er zijn genoeg CAD programma's waarbij Geforce beter uit de verf komt dan Quadro.

[Reactie gewijzigd door CH4OS op 23 juli 2024 11:27]

Inderdaad, eind 2020, begin vorig jaar verschillende zakelijk klanten gehad voor een RTX 3090, voor oa CAD/CAM toepassingen, omdat deze een stuk goedkoper was dan een Quadro kaart en voor die toepassing net zo goed, of zelfs beter presteerd :)
Voor zeer veel applicaties maakt Quadro of RTX niets uit. De meeste mensen in de creatieve industrie gebruiken 'game' kaarten.
Die Quadros zijn erg duur, en de datacenterkaarten nog erger.
We hebben 48 GTX1080s in een rekencluster zitten om seismogrammen door te rekenen en neurale netwerken te draaien. Dat bevalt uitstekend! 8-)

Daar hoeven echt geen vier keer zo dure 'enterprise kaarten' voor gebruikt te worden. |:(
Wij gebruiken rendersoftware als Lumion en Twinmotion. Beide software hebben niks aan Quadro kaarten maar juist erg veel aan GTX/RTX kaarten.
Zeker Twinmotion eet enorme hoeveelheden VRAM. Qua performance is een 3080 ruim voldoende, maar deze heeft niet genoeg VRAM.
Dit zal ook wel hetzelfde zijn met de 40xx serie ben ik bang, waardoor we zakelijk juist voor een flagship model gaan.
Heb dit bij de buren ook al 100x gezegd, maar wist niet dat de percentages werkelijk zo laag lagen. Maar dan krijg je van die betweters die denken dat publishers altijd maar voor max prestetende games ontwikkelen, omdat het kan 8)7

Daarom, er is geen haast bij nieuwe kaarten te kopen, zolang de grote massa het niet doet zal er ook niet voor ontwikkeld worden.

Laat die 40-serie maar komen, koop is lekker een 30-serie in de uitverkoop.

[Reactie gewijzigd door BenVenNL op 23 juli 2024 11:27]

Laat die 40-serie maar komen, koop is lekker een 30-serie in de uitverkoop.
Dat gaat dus niet gebeuren.
Ze willen eerst alle 30-serie voorraden weg hebben voordat de 40-serie komt.
En tweedehands kan je ze nu al voordelig halen. Nieuw kan je ze zelfs voor leuke prijzen al tegenkomen.
Ik denk dat je qua prijs nu momenteel beter zit, dan pak'm'beet over een paar maanden als de 40-serie komt.

Nvidia is nu met enorme prijsdalingen bezig namelijk.
Ontwikkelaars stemmen de graphics nog massaal af op de PS4. Games zullen nooit voor dit soort dure kaarten geoptimaliseerd worden. Ze willen altijd nog blijven verkopen.
Een PS4 heeft de equivalent van een Radeon HD7770 en een Piledriver-CPU erin zitten - een GPU die sinds mei 2021 niet eens meer driver-updates ontvangt en een CPU die, in een PC, in veel gevallen niet eens meer voldoet om drops onder de 30fps te voorkomen in lage resoluties en kwaliteits-instellingen.

Dus nee, ze stemmen niet op de PS4 af. Men stemt eerder af op de 480/580 en 1060 en qua CPU's op bijvoorbeeld een i5-4670. Men doet vervolgens ontzettend veel concessies om het op een gewone PS4 te kunnen laten draaien, bijvoorbeeld crappy textures en belabberde lichteffecten. Dezelfde concesies die je ook met onboard graphics of een videokaart zwakker dan een midrangekaart uit 2016, zult moeten doen.

[Reactie gewijzigd door Pianist1985 op 23 juli 2024 11:27]

Vooralsnog zijn er weinig third party games die de PS4 niet ondersteunen.
En dat komt dus in de regel omdat deze games geport worden, na drastisch snoeien in de graphics, naar de PS4.
Of andersom weinig weten game vanaf de PS4 of andere geport worden naar de PC dat gaat vaak niet helemaal goed en weinig optimalisatie waardoor het gebruik op de PC heel inefficiënt is.
Als je ogen hebt is je vast wel al een keertje opgevallen dat games op de PS4 er echt heel veel slechter uitzien dan op de PC/PS5 ;)
Uiteraard, maar het draait wel. En deze games zijn op de PC vaak ook op oudere hardware te draaien, als je vergelijkbare instellingen gebruikt. Met een Radeon HD en Piledriver CPU ga je er niet komen, maar met bijvoorbeeld een GTX 960 nog wel.

Bijv. een Forza Horizon 5 of een Elden Ring. Beide toch wel behoorlijk recente releases, speelbaar op een 7 jaar oude videokaart.

[Reactie gewijzigd door Wolfos op 23 juli 2024 11:27]

Ik ben er net verbaasd over van hoe goed mijn 970 vele games bleef spelen. Het is nog altijd eerder uitzondering dan regel dat een spel echt een high-end kaart vereist om speelbaar te zijn. Natuurlijk gaan zaken als 4K de benodigde rekenkracht sterk verhogen, maar niet iedereen zit op 4K te gamen op een PC.
Mijn GTX 980 kon ook prima meekomen op 2560x1080 totdat ik een Ultra Wide 4K scherm kocht, toen liep het videogeheugen vol haha. Heb nu een GTX 1070 die in veruit de meeste gevallen goed kan meekomen, ook op hoge kwaliteit.
Het is dat ik per ongeluk een 49 ipv 32 UW heb ontvangen anders had ik nooit overwogen een 3080 te kopen. Mijn vorige built was 10 jaar oud i7 920 icm een 7xx en uiteindelijk de 1060 erin.

Max OC en verbruikt was praktisch hetzelfde als nu, alleen heb ik nu wel alles 4K en was de videokaart (strix) voor 650 Exc te koop. Mja kon dat niet laten :X als m’n i9 build praktisch weer 10 jaar blijft werken dan money wel spend met wat gelukjes in de leveringen van de HW.
Afhankelijk van het spel natuurlijk. Ik heb nu een 3070 met i7-10th gen en Half Life Alyx is nog steeds af en toe stotterend op volle resolutie/refresh van de VR.

VR is eigenlijk “net goed genoeg om niet ziek te worden” met je 2 ogen aan 4K@120 maar doet ook een deel off-screen rendering.

Maar mensen gebruiken ook Steam streaming en zelfs HL2 kan dan moeite hebben met de 1060s of 2060s als het moet compresseren naar de lagere bandbreedte van WiFi.

[Reactie gewijzigd door Guru Evi op 23 juli 2024 11:27]

VR heeft dan ook veel hogere vereisten dan spelen op een normaal scherm.
Hogere refreshrate omdat je anders misselijk word.
Ja er zijn ook mensen die 90 of 120Hz op hun normale scherm draaien, maar dat is een kleine minderheid. Bij VR moet iederen op hoge refresh draaien. Ook mensen die normaal gesproken 60Hz al ruim voldoende vinden.
En veel hogere resolutie nodig, omdat je een veel groter beeld moet renderen dan bij een plat scherm.

Minimaal vereiste rekenkracht is daardoor al snel 3 a 4x hoger dan bij een normaal scherm acceptabel zou zijn.
Topend is altijd maar ~5% van de markt, daar gooi je gewoon wat gimmicks in de buurt en de rest kan nog meer dan prima mee. RTX uit, DLSS aan, andere resolutie, lock op 60fps ipv 144/200/uncapped, de marges waarmee sommige games nu kunnen schalen van extreem lowend tot extreem high-end is met de jaren ook steeds verder gekomen (hoewel er al games in het verleden waren die extreem schaalbaar waren).

(edit naar 5%, maar zelfs dat is relatief hoog, zie reactie van @Finraziel hieronder)

[Reactie gewijzigd door SinergyX op 23 juli 2024 11:27]

Juist niet, alles is gericht om games op consoles draaiend te krijgen.

Op je PC kan je extra rekenkracht dan benutten zoals 4K met 4x AA, iets meer schaduwdetail etc....
Er wordt nogal eens gegrapt dat mensen een 3080 kopen om er vervolgens e-sports en Minecraft RTX mee te spelen.
En ik kan zeggen dat dit accuraat is. Ik heb zelf een 3080, en buiten het geen zorgen te hoeven maken of een game mooi draait, gebruik ik die power eigenlijk maar voor 2 games die ik gemiddeld enkele uurtjes per maand speel. De andere 50-60% kan mijn 6 jaar oude ThinkPad (studie!)laptop ook nog aan, al is het dan niet op 1440p 144Hz en High/Ultra details. De resterende 20-30% zit er ergens tussen in.

Dit is misschien mijn verzameling spellen zo.. de ervaringen zullen uiteenlopen. Niettemin denk ik dat dit echt wel mee gaat vallen. Er zijn ook nog consoles zoals PS5 waar rekening mee wordt gehouden, en de SteamDeck zal ook een gegeven PC platform voor developers geven waar ze hun spelen naar kunnen afstellen (een settings level die 'laag' genoeg is die goed draait).

[Reactie gewijzigd door Hans1990 op 23 juli 2024 11:27]

Ik vermoed dat er gewoon, net als bij gamepads van Sony, MS, het instellingen menu zichzelf gewoon aanpast.
Ik denk dat het wel mee zal vallen. Het verschil zit er veelal meer in op welke resolutie je wlt gamen en bijvoorbeeld RTX aan of uit wilt hebben.

1080p gamen kan nog op oudere pc`s. 1440 of 4k met hoge settings ga je naar meer high end toe voor AAA games op 60-120 fps. En voor high end VR zul je een van de nieuwe kaarten nodig hebben wat misschien nog niet genoeg is.

Je kunt nog steeds heel goed gamen met een 1060GTX bijvoorbeeld als je op 1080p speelt met medium of high end settings. Hoe hoger je gaat hoe duurder het wordt maar het zal grotendeels wel speelbaar blijven want anders snijden bedrijven zichzelf ook in de vingers door een deel markt niet mee te nemen.

Het is wel vervelend dat het allemaal zo belachelijk veel duurder is geworden. Vroeger kwamen nieuwe hardware meestal tegen een vergelijkbare prijs uit waarmee je mooiere games sneller kon draaien. Als je dat nu wilt moet je echt belachelijk veel meer betalen. Hele vervelende ontwikkeling.
Afhankelijk van de game zullen erg veel ontwikkelaars de focus leggen op consoles, dat is al jaren zo. Er zijn maar paar ontwikkelaars die hun games specifiek voor de PC ontwikkelen. Nu de architectuur tussen consoles en pc's veelal hetzelfde is en de meeste engines zowel voor consoles als voor PC's goed ontwikkeld zijn zal men in principe bij het ontwikkelen ervoor zorgen dat de game in ieder geval goed functioneert op de hardware die in de consoles aanwezig is.

Vergeet ook niet dat de kwaliteit van games van triple A ontwikkelaars tegenwoordig ver benedenmaats is en veel gamers helemaal geen high end grafische kaart nodig hebben omdat de nieuwe games zo weinig of niet gespeeld worden dat ze helemaal niet aan zetten tot het aanschaffen van nieuwe high end kaarten. De belachelijke marktprijzen van de laatste jaren hebben ook net geholpen.
Ik kan mij herinneren dat ik alleen om de nieuwe BF's te spelen een nieuwe grafische kaart heb aangeschaft en andere upgrades heb uitgevoerd. In de afgelopen 5 jaar heb ik dit voor geen enkele game gedaan en ik denk dat velen er hetzelfde over denken. Vooral als je bekijkt naar de Steam hardware survey die @Finraziel ook gepost heeft.
Gelukkig is die tijd al een tijdje voorbij.
Ligt eraan wat voor games je dan wilt spelen..

Voor Triple AAA games geef ik je gelijk.
Gamefabrikanten zullen hun games afstemmen op de consoles die er op dat moment uit zijn. Dat is altijd het geval. Vanuit daar kunnen games eventueel scalen, maar het uitgangspunt zal altijd de consoles zijn.
Ja het marktaandeel is gigantisch idd, sarcasme.
Dit lijkt me heel erg straf. Het zijn net de goedkope console gpu’s die de maatstaf zijn voor game devs niet die enkele extreme kaarten die amper verkocht worden.

Ik denk dat deze kaarten eerder bedoeld zijn voor VR, 8K schermen of extreme raytracing. Zelfs de rtx3090 had het al wat moeilijk om Flightsim op deftige fps te spelen in VR.
Het verschil tussen ultra en high is meestal niet te zien, kost je wel veel frames.

Verder is een spel spelen voor de graphics hetzelfde als een porno kijken voor het verhaal.
Games worden meestal ontwikkeld voor multiplatform en wordt er gekeken dat het draait op de huidige (of volgende) high end consoles. Aangezien PC's qua performance nu al met bijvoorbeeld een rtx 2080 makkelijk boven de performance van consoles kan bijhouden denk ik dat het niet zo'n probleem is dat je het met oudere (of budget kaarten) niet bij kan houden. Tenzij je natuurlijk elk spel op 4K op 300+FPS wilt gaan draaien. Waar nog wel veel winst te behalen valt is voor VR headsets die qua performance nog steeds wel een boost kunnen gebruiken omdat ze meer van de 3D wereld moeten renderen en dan ook nog 2 keer. Ik als VR enthousiast kijk dus wel uit naar elke prestatiewinst die er nog te behalen valt. Ik kijk minder uit naar het enorme stroomgebruik.
Dus we zitten momenteel (en voorlopig ook nog wel denk ik) met enorme energietekorten en zeer hoge energieprijzen en Nvidia besluit mega-slurpende videokaarten te introduceren? Vind dat wel absurd. Jaren geleden, toen dit minder een probleem was, was de prestatie per watt erg goed. Wellicht dat ze nu alleen nog maar grote sprongen kunnen maken qua prestaties door het verbruik op te schroeven.

[Reactie gewijzigd door Anonymoussaurus op 23 juli 2024 11:27]

Als je puur kijkt naar prestaties, dan is de prestatie per watt nog beter geworden, het probleem is alleen dat de 'definitie' van prestatie verschoven is. 'Vroegah' kostte het je een flinke CPU vermogen om een video realtime te decoden, nu doet je GPU dat op amper 2% vermogen.

Mijn oude 5950XT deed zo'n 350watt op 100%, mijn 3070 trekt zo'n 260watt.
Echter kan mijn 3070 diverse games op 60fps locked met amper 30-40% draaien, daar had mijn 5950XT 80-90% voor nodig, dus niet alleen is hij aanzienlijk zuiniger, maar prestatie per watt is aanzienlijk verbeterd. Dat zal voor de 40xx series niet veel anders zijn, ze kunnen nog meer maar ook relatief met minder vermogen dan z'n voorganger.

De 100% focus is momenteel op de 4090TI, een kaart die mogelijk meer kan dan zeg 10 jaar geleden een compleet serverrack kon doen met een veelvoud van vermogen.
260w is nog best flink voor een 3070. Heb er zelf een undervolt + memory overclock op zitten. Verbruik in game is ongeveer 195w en de prestaties zijn beter dan stock.

Wat mij betreft is de 3070 wel echt het pareltje van de ampère line up qua prestaties per watt. Alles daarboven hebben ze veel te ver gepusht om nog efficiënt te zijn.
De 3080’s zijn inderdaad vrijwel allemaal af fabriek mega slecht getuned, om precies die max 5% prestatie winst eruit te persen die letterlijk tientallen procenten extra vermogen kosten, Ampere schaalt echt ronduit belabberd bovenin de prestatie curve. Allemaal alleen maar omdat elke AIB fabrikant met de hoogste cijfertjes wil kunnen adverteren. Maargoed net als de 3070 undervolten de meeste 3080 kaaarten ook fantastisch. Die van mij trekt letterlijk 40% minder vermogen dan stock, 100% stabiel, en het verschil in performance komt in benchmarks nauwelijks boven de variantie tussen runs uit. Ik snap echt niet waarom iemand zo’n kaart op stock zou willen draain, laat staan OC.

[Reactie gewijzigd door johnbetonschaar op 23 juli 2024 11:27]

Ik ben het met je eens dat ik ook niet snap waarom niet iedereen undervolt. Zeker met ampère. Wat is je verbruik in-game met je 3080?
Ik weet het niet precies meer, ik meen ergens rond de 280W, voor de undervolt tegen de 400W. De kaart is een GigaByte Gaming OC dus stock al licht overgeklokt, dus vandaar dat de winst zo groot is. De PC staat naast mijn sim rig (gebruik hem onder andere voor sim racing), en tijdens het rijden met een headphone op kon je hem horen blazen en de side cover van de kast werd zo heet dat je de warmte aan je knieeen kon voelen. Nu is is fluister stil in-game en de kast warmt amper op.
Jammer van de lage vram bij de 3070 waar ik nu tegenaan loop bij Forza Horizon 5 bijv.
Sorry, maar zeggen dat dit absurd hoge verbruik wel ok is "omdat je toch maar 30% van de prestaties gebruikt" is dikke onzin.

Tot RTX2000 groeide het verbruik van videokaarten veel minder hard terwijl de prestaties wel keihard opliepen, nu is de toename op 2 generaties echt buitensporig.
800W lijkt me wel heel erg.. en heel erg sterk.


Kan me écht niet voorstellen dat nV (of AMD) ooit een videokaart uit gaat/gaan brengen die meer dan 500W verstookt.

Ik zou er een vieze smaak van in mn mond krijgen tijdens het gamen... Dat is niet meer "spelletje spelen" imho. Dat zijn té dure pixels vind ik.

Als de volgende generatie topkaarten meer verbruikt dan 450W hoef ik m niet. (eigenlijk vind ik dat mn 6900XT al wel aan de bovengrens zit van wat ik acceptabel vind qua verbruik... 300W! (mn hele systeem verstookt trouwens 435W)

[Reactie gewijzigd door Format-C op 23 juli 2024 11:27]

15 jaar geleden was het normaal dat een GPU niet boven de 75W uit kwam en had je geen lelijke 6 of 8 pins connectors nodig om je kaart van stroom te voorzien.

Gezien het verbruik van de huidige en zo te zien toekomstige kaarten is de innovatie gewoon op. Je zou verwachten dat men probeert zoveel mogelijk performance te halen met een zo laag mogelijk verbruik maar blijkbaar is dat een achterhaald princiepen. Als dit zo door gaat gebruikt de 6090 waarschijnlijk zo’n 1600W.
Je mag 16a belasten op 1 groep thuis, dat is pakweg 3500watt. We hebben nog wel wat speling voordat we meerdere groepen voor onze game-pc nodig hebben ;)
In de US is het maximaal 1600w, want 110v. Dus zoveel ruimte zit er niet hoor.
Professionele generatie doet gewoon 800W per "unit".

Dus volkomen niet normaal is het ook weer niet.
Nou van AMD niet als die de kroon niet pakt ook toen onder ATI dan gewoon releasen en sku msrp geven tussen wat concurrent bied. Maar nV die gaat gekke dingen doen als de kroon niet gehaald wordt zoals nv30. En dan is 800wat voor nv niet zo raar.
Voor AMD denk het niet zij trekken de grens toch stuk voor nv . Vooral als navi 31 top model boven de 4090 komt dan zullen ze met 4090ti volluit gaan.
Altijd leuk meteen losgaan over verbruik, marginale prestatieverbetering of extreme prijzen, het gros van deze kaarten zijn simpelweg al verkocht, gekocht/preordered door mensen die werkelijk 0,0 boeien wat zo'n PC trekt, wat het totaal verbruik is. Of het nu zonnepanelen, kerncentrale in de achtertuin is, deze kaart is simpelweg niet voor de groep die moeilijk doet over 'verbruik'.
Groene jongen hier; boeit me inderdaad niet. Klimaatopwarming/groene energieproductie moet opgelost worden aan de bron, niet door bepaalde dingen te verbieden. Enige wat correct moet gebeuren is doorrekenen van de milieu/klimaat-kosten. Waar iemand daarna beslist om z’n centjes aan uit te geven boeit niet.

Wie zijn wij om te bepalen dat iemand geen 800W GPU mag hebben, terwijl anderen de wereld afreizen bijvoorbeeld, met gesubsidieerde luchtvaart zonder BTW op de kerosine?
Geeft alleen maar een zure kijk op de wereld dan. Maar daar hebben velen hier in de comments wel vaker last van.

PC desktop verbruik kan maximaal toch maar stijgen naar wat de grootste groep vermogende gebruikers maximaal uit hun respectievelijke stopcontact kunnen trekken: Amerikanen en hun +-1,5KW dus.
Groen zijn begint bij het reduceren van je verbruik. Niet iemand maar de principes bepalen dat je geen 800W GPU neemt wanneer je een 'groene jongen' bent.
Hoe minder we verbruiken, hoe eerder we 100% van de verbruikte energie duurzaam kunnen opwekken.

Naar anderen kijken heeft dan ook niet zoveel zin, "en hullie dan" (aka whataboutism) is nooit een goed argument geweest.

Als men over de limit van het stopcontact wil gaan, komen er vanuit de fabrikanten echt wel constructies om dat te kunnen, zoals een aparte powersupply voor de videokaart.
Iets whataboutism noemen is per definitie een dooddoener in discussies, flink een vinger wijzen en iemand de schuld geven, om zoveel mogelijk de focus weg te houden van hun eigen falen.

bij het reduceren van je verbruik
100% van de verbruikte energie duurzaam kunnen opwekken

Je ziet de tegenstrijdigheid toch hier wel? Wat als ik 10 van zulke kaarten laat draaien, maar 100% ervan zelf opwek met zon/wind en accuopslag? Ben ik dan 'groen'? Eerste regel niet, tweede dan weer wel. Of als ik zo 'groen' leef dat mijn piekvermogen in mijn huis slechts 200 watt is, maar die 200watt komt wel van energiemaatschappijen met hun 'stinkende energie' (die zij aangeven 100% duurzaam is), ben ik dan groen?
Iets een whataboutism noemen is niet per definitie een dooddoener. De dooddoener is vaak de whataboutism, want die ontwijkt de discussie. Hetzelfde met andere drogredenen. Die kun je ook gewoon aankaarten. Het risico is dat je een discussie over de discussie krijgt, maar een drogreden is een drogreden.
Iets 'whataboutism' noemen wordt veelal gebruikt om iemand met een valide tegenargument het zwijgen op te leggen.
"Rusland valt Oekraïne binnen; ze zijn het grootste kwaad ooit!"
"Amerika heeft o.a. Irak en Afghanistan binnengevallen en die landen in puin en ellende achtergela..."
"Dat is whataboutism!!!"
Het is dus meer een oneerlijke uitweg om een valide vergelijking die schuurt met onze cognitieve bias te kunnen negeren.
Nee, een whataboutism zelf is de drogreden. Door over Amerika te beginnen verandert de focus van de discussie. Dat is waarom men een whataboutism gebruikt. Dat het te pas en te onpas wordt misbruikt, neemt niet weg dat er vaak valide redenen zijn om iets een whataboutism te noemen. In je eigen voorbeeld wordt meteen de focus van de discussie verlegd, waardoor de vraag of we iets moeten of kunnen doen verandert. Heeft niets met cognitieve bias te maken, tenzij de discussie over het vergelijken van de twee gaat. Het misbruik van het beschuldigen van een whataboutism is irritant, maar het gebruik ervan ook. Als je gegronde redenen hebt om de focus van de discussie te weerleggen, dan kan je dat ook aangeven.
Wie bepaalt de grenzen van de focus van zo'n discussie, want als je het bijvoorbeeld hebt over het voorbeeld wat ik aanhaal, dan kun je niet met oogkleppen op alle andere dingen die bij zo'n situatie horen negeren alsof ze niet bestaan, omdat het "de focus van de discussie" zou verleggen. De perifirie van het onderwerp is of het je nu goed uitkomt of niet wel een onderdeel van de discussie. Het haalt het punt van de discussie of er wel of niet iets aan gedaan moet worden niet weg; het wordt simpelweg in een correct perspectief geplaatst, wat onderdeel is van een discussie.
Om die 100% van die energie duurzaam op te wekken is ook weer energie en materialen nodig. Materialen die vaak on-duurzaam ontginnen worden. (Mijnen e.d.).
Wij als consument worden aan alle kanten een schuldgevoel aangepraat en betalen ons helemaal scheel aan het milieu. Dit gebeurt veel te weinig bij grote bedrijven en die zijn verantwoordelijk voor een groot deel van de vervuiling.

Waarom lijkt plastic in deze tijd nog onaantastbaar? Vanwege de fake recycable logo's er op? Die de plastic fabrikanten hebben uitgevonden btw om het schuldgevoel bij ons te plaatsen Of omdat onze komkommer uit (freaking!) Mexico dan niet netjes aan komt? Zelfde verhaal als dat BP de uitvinder van carbon footprint is en nu door milieuactivisten tot de heilige norm is uitgeroepen. Een 250 miljoen kostende campagne om met de andere hand nog meer vervuiling dan ooit te veroorzaken.

Als er nou echt zo'n haast is met het milieu redden wees dan keihard naar consumenten EN grote bedrijven, maar nee we zoeken onze oplossingen in electrische auto's. Beter voor het milieu, maar het aantal auto's loopt nog steeds op terwijl dat ook makkelijk naar beneden kan. En geen kleine auto's, maar dikke SUV's waarin onze groene ridders met geheven hoofd in rond rijden.

We geven de subsidies aan bedrijven en consumenten die toch al geld hebben. Ik heb van de week subsidie gekregen voor mijn zonnepanelen. Had ik makkelijk zelf kunnen betalen, maar Bettie 2 straten verder woont in een lek huis zonder zonnepanelen omdat ze weinig inkomen heeft.

Als het echt 1 voor 12 is zoals men ons wilt laten geloven dan gaan we het simpelweg niet meer op tijd oplossen. Ik geloof hoe dan ook niet dat wij de aarde opwarmen (natuurlijk proces), maar ik weet wel zeker dat wij deze aardbol hard vernaggelen en dat er momenteel enkel halve maatregelen genomen worden. Het mag de grote bedrijven niet teveel kosten en de koopkracht moet behouden blijven anders stort alles in.

Zoek voor de gein eens op hoe lang schepen onbestraft oil waste dumpen terwijl het al 20 jaar verboden is. Of cruiseschepen die zelfs legaal mogen dumpen. Big F for human kind.

Ontopic : Als het verbruik klopt van de nieuwe generatie GPU's is dat het einde van mijn high end PC gaming. Boeit mij niet of mijn zonnepanelen dat coveren. Het is gewoon niet nodig dus kan ik het ook niet supporten.

[Reactie gewijzigd door Beakzz op 23 juli 2024 11:27]

Plastics, tja - Hoeveel verpakking je nog ziet wat soms driedubbelop verpakt is. De grote zak, een serie koekjes in een apart vak in plastic, de koekjes individueel verpakt.

Ik denk dat ik blij mag wezen dat ik niet in de wereld leef die er over 100 jaar is.
Die grote bedrijven verbruiken niet voor hun plezier zoveel energie. Dat reduceren ze zelf heel graag.
Die boze grote bedrijven maken de grondstoffen waar wij onze zonnepanelen en elektrische auto's van maken, huizen en gpu's, en ze zorgen ervoor dat we onbeperkt ons gal kunnen spuwen op tweakers en andere websites, dat we stroom krijgen uit het stopcontact en dat we te eten en te drinken hebben.
Het plastic zorgt ervoor dat de houdbaarheid veel langer is wat de verliezen terug dringt. Jij zal in de winkel zelf hoogst waarschijnlijk die bruine komkommer ook liever laten liggen. Daarom gaat er een seal omheen. Hierachter schuilt dezelfde reden dat AH tomaten toevoegt aan hun hamburgers, dan zien ze er lekker rood uit.

Alles neerleggen bij 'de grote bedrijven' is dus geen werkbare strategie. Daar los je de problematiek die volg uit consumenten keuze immers niet mee op.

Verder zit er een heel groot verschil tussen milieu en klimaat. Klimaat gaat over de opwarming van de aarde (primair gedreven door verbruik fossiele brandstoffen), milieu gaat over de (lokale) gezondheid. Denk aan fijnstof. Het milieu is de laatste 100 jaar enorm verbeterd. Denk aan zure regen, salpeter in de lucht, enz. Tijdens de industriële revolutie was dat natuurlijk dramatisch.
Als die komkommer gewoon uit Nederland of omringende landen komt dan blijft die ook lang genoeg mooi zonder plastic. Weet niet sinds wanneer de komkommer in de supermarkten verkrijgbaar is, maar dat ging echt heeeeeel lang goed zonder condoom er omheen. Zelfde met de tomaten bj de groenteboer, Nooit problemen mee gehad toen ze nog open en bloot lagen.

En ik vind het flauw om alles dan maar naar de consumenten te schuiven. Bedrijven verzinnen producten/oplossingen waar van klanten niet eens weten dat ze het nodig hebben. Jij doet net of wij als consumenten verzoekjes indienen en dat die vriendeljke reuzen dan voor ons aan het werk gaan.

Bedrijven hebben verplichtingen naar aandeelhouders. Niet naar de consument of het milieu. Aannemende dat ze niet met minder winst willen leven is de enige oplossing de prijzen omhoog gooien om het op de juiste manier te doen. Gaat niet gebeuren en daarom is er geen redden aan (of mag ik aannemen dat het probleem niet groot genoeg is?)

Nogmaals opwarming door de mens gaat er bij mij niet in. Genoeg materiaal gelezen van wetenschappers die anders beweren en jij vast van die het wel beweren, Discussie zinloos ;)
Tja wanneer opwarming van de aarde geen factor is, wat maakt jou het dan uit waar die komkommer vandaan komt?

Je doet net of bedrijven een soort bijzondere wezens zijn maar de consumenten waar je het over hebt zijn de werknemers van deze bedrijven. Uiteindelijk zijn het dezelfde mensen...
Zo het is dus aan of uit bij jou? Ik geloof niet in opwarming door de mens dus het hele milieu kan de pot op?

Nee natuurlijk niet, want ik geloof wel in vervuiling, onnodige verspilling en oceanen vol plastic.

En je laatste punt slaat echt nergens op. Alsof ieder bedrijf democratische beslissingen neemt en de loodsmedewerker bv. het roer kan omgooien :?
Dus, we wachten op de industrie? De grote bedrijven? Snap je frustatie helemaal en ben het met je eens. Helaas hebben we niet veel tijd meer, er moet nu iets gebeuren. Nog steeds zie ik mensen niet massaal de straat op gaan voor een beter milieu. Niemand wil echter inleveren. Kunnen we weer vliegen? Hopla, massaal tickets boeken. Etc.etc.etc.
maar je hebt wel direct en extra verwarming in de winter ;)

Ik merk het in de winter ook als ik ff een tijd flink game dat de temperatuur in mijn kamer zo'n 1,5 a 2 graad hoger is dan in de kamer ernaast met dezelfde afmetingen.
Met het oog op eventuele afsluiting van het gas natuurlijk geen slecht plan ;)
Klopt, is gebleken dat ik met 4 GPUs mijn huis kan verwarmen in de winter.
(die zitten verdeeld over 2 servers)

[Reactie gewijzigd door anno361 op 23 juli 2024 11:27]

Naar anderen kijken heeft dan ook niet zoveel zin, "en hullie dan" (aka whataboutism) is nooit een goed argument geweest.
Mooi, kijk dan niet naar mij als ik toch een 800w GPU koop :P
“ Naar anderen kijken heeft dan ook niet zoveel zin, "en hullie dan" (aka whataboutism) is nooit een goed argument geweest.”

Ik hoop dat de ironie van deze zin effectief goed doordringt :)

Groen zijn begint inderdaad bij reduceren van je verbruik. Maar wie ben ik om iemand z’n persoonlijke keuzes te bepalen. We hebben allemaal een “energie-budget” en waar iemand dat aan spendeert boeit me niet. De ene heeft een zwembad met verwarming, de andere een 800W GPU. Big deal.
Dat een product beschikbaar is betekent niet dat iemand het moet kopen.

Hoe eerder we de kosten overal correct doorrekenen, hoe eerder we 100% van de verbruikte energie duurzaam kunnen opwekken.

Als we onze maatschappij zo inrichten dat iemand altijd de volledige prijs van de gevolgen van z’n keuzes betaalt is er toch geen probleem? Daar hoor ik niemand over natuurlijk, want de confrontatie met de realiteit is daar bij de meesten nogal pijnlijk.
Met de gasprijs beginnen we er eindelijk te komen (ook al is de oorzaak daarvan natuurlijk niet de klimaatkost momenteel), maar dan zie je ook wat voor bokkensprongen iedereen, overheden voorop, begint te maken.

Dus klagen over een 800W GPU is een beetje zinloos als je kijkt naar de echte problemen die er zijn. Selectieve verontwaardiging noemen ze dat geloof ik, zie je ook vaak (hier) als het over elektrische voertuigen gaat (oh nee, die “vervuilende batterij” gasp)
Ik hoop dat iedereen hier evenveel of liefst meer verontwaardiging toont en actie onderneemt voor de serieuze problemen! I won’t hold my breath…
Wat jij probeerd te reduceren, zal een ander meer van gaan gebruiken..

Of dit nou in Nederland is of in China..

Het is een effect wat nooit echt makkelijk behaald zal kunnen worden.
Geloven we nog steeds in die BP reclame van 2005? Die propaganda is echt goed gelukt. Je kan niet individueel het klimaat probleem oplossen.
Milieu-hypocrisie is een ding in de comments op T.net. En is vaak nog achterwaarts en ongefundeerd ook. Maar het is goed karma scoren om heilig verbruik van hardware te bekritiseren zogenaamd in naam van milieu. In een recent artikel dat Intel de prijzen omhoog wilt gooien van hun producten, werd juist om gejuicht "want de consumptie moet minder". En vervolgens klagen dezelfde mensen dat alles zo enorm duur geworden is, en ze minder gedaan krijgen.

Rekenkracht hoort zo goedkoop mogelijk te zijn. Zonder toename in rekenkracht, geen welvaart.. en daarbij ook een vertraagde ontwikkeling voor groene technische innovatie.

Mijn grootste zorg met deze verbruiken is eerder of dat stille compacte krachtige MiniITX systemen nog haalbaar zijn.
Yep. De meesten lijken ook te vergeten dat niemand hen dwingt om die dingen effectief te kopen en zelf de juiste/betere keuzes te maken. Eigen verantwoordelijkheid nemen, keuzes maken en de consequenties daarvan “ownen” lijkt voor velen echt wel een probleem te zijn. Maar goed, ik reageer hier zelden om die reden ook. Heeft toch geen zin. You can lead a horse to water…

Lijkt me dat een streaming setup dan de betere optie is, niet? Geen eigen ervaring mee (helaas) maar ik zou dan de “echte” pc ergens wegmoffelen en enkel een lichte setup onder m’n scherm plaatsen. Helaas al even uit roulatie qua gaming, maar dat is hoe ik het volgende keer sowieso wil aanpakken.
Groene jongen hier; boeit me inderdaad niet. Klimaatopwarming/groene energieproductie moet opgelost worden aan de bron, niet door bepaalde dingen te verbieden. Enige wat correct moet gebeuren is doorrekenen van de milieu/klimaat-kosten. Waar iemand daarna beslist om z’n centjes aan uit te geven boeit niet.
Voor kleinschalig energieverbruik: eens.

Op grote schaal: 100% oneens: die insteek zou betekenen dat je de aarde dan maar mag verneuken als je er maar wat accijnzen over betaalt, ook al is wat je doet 100% nutteloos voor de maatschappij. Case in point: Jeff Bezos die puur voor z'n eigen ego naar de ruimte vloog (er was nul wetenschappelijke of praktische waarde in de vlucht van z'n dickpicship), wat een enorme ecologische afdruk heeft. Puur voor het plezier van hem en wat rijke vrienden. Of extreem asociale ultra-rijken die privé-jets gebruiken voor vluchten van 17 minuten.

Dit zijn allemaal dingen die zullen blijven bestaan ook als je de prijs verhoogt, want de ultra-rijken hebben een hoeveelheid geld die jij je niet kan inbeelden.

Kapitalisme is stuk en de insteek "als we de markt via toelages en accijnzen bijsturen komt het wel goed" werkt niet meer voor zij die kapitalisme uitgespeeld hebben.
Maar intussen wordt de rest van de maatschappij wel aangesproken over verbruik, milieu, oorlogen en weet ik wat nog meer. Dat voelt voor velen gewoon oneerlijk dat sommigen blijkbaar los kunnen gaan met energie terwijl we van iedereen vragen de thermostaat een graadje lager te zetten en korter te douchen. Dit soort excessen helpen daar niet bij.
Er rijden duizenden 'hypercars' in de wereld, honderdduizenden 'supercars', die elk met geluk op een 1:5 verbruik zitten. En zijn duizenden, tienduizenden zwembaden in de achtertuin die verwarmt worden, er is zelfs een compleet indoor ski-resort in de woestijn, verbruiken duizenden en duizenden kwh's 'voor leisure'.

De wereld is oneerlijk, maar geld bepaald nog altijd hoe oneerlijk het per saldo is.
Oplossingen is carbon tax op producten en faciliteiten.
Doen we dat, dan betaal ik dat, en dan?

Als er alsnog duizenden en duizenden dit prima bereid zijn om te betalen, wat wil je dan nog doen? Zie jij extreme afname van auto's op de weg omdat de benzineprijs bijna een euro hoger is? 'marginaal'. Zie je opeens afname van absoluut verbruik in nederland?

Keertje uit eten in de week, of gamen op een 4090TI.. keertje de fiets ipv auto, of een weekend gamen op een 4090TI.. maandje later weer een paar schoenen kopen of een weekje gamen op een 4090TI?

800watt klinkt zoveel, maar dat met een uur gamen in extreme geval 40ct. Hele avond, 2 euro. Hele week? 14 euro. Dat is de huidige prijs van 2 biertjes in schevening op dit moment, de prijs van een pizza thuis bezorgen, die gembox in Diablo Immortals.
Ik denk dat je onderschat wat het verstoken van 800w doet met de temperatuur van je kamer. Ik heb tijdens de wintervakantie een hoop gegamed op mijn 6900xt en hoewel die maar zo'n 250-300w gebruikt, is dat al genoeg om mijn studio van 20m2 te stoken (dus de verwarming helemaal uit). Met 800w gaat je kamer in recordtijd naar de 30 graden of meer. Wat meer geld uitgeven is één ding, maar ga jij in een broeikas zitten voor die paar extra fps?

[Reactie gewijzigd door B127 op 23 juli 2024 11:27]

Er zullen er heus zijn die er gewoon een airco naast laten brullen om dat op te lossen, zeker met de hete zomers van nu. En zo rollen we van het ene probleem in het andere.
1000w aan pc + een paar kw aan airco gaat heel leuk zijn voor je stroom rekening denk ik :)
Ik denk echt dat je er dan 1 tot 2 euro per uur doorheen gaat jassen met de huidige prijzen. (En we hebben de piek vast nog niet bereikt.)
Ach dat valt reuze mee, hier 30m2 homelab,
17KW ventilatie afgesloten, is 15 graden meer dan de rest van het huis.
Boel is dan wel erg goed geïsoleerd.
Zelfs in volle zomer kan me homelab gedurende dag op vol vermogen draaien,
Heb dan alleen een raampje open 😂.
15 graden warmer dan rest van het huis lijkt me niet leuk gamen hoor... De meeste mensen hebben geen ruimte voor een "4090-kamer".
Met al dat geld er kunnen er velden vol worden gelegd met zonnepanelen en windturbines worden gebouwd waar jouw videokaart op kan draaien. Iedereen blij.
Right, want je wordt blij van een veld zonnepanelen of een windturbine in je "achtertuin"...
Zonnepanelen wel. Een windmolen mogen ze in hun reet steken.
Ik kan je nu al verklappen dat deze tax alleen betaald gaat worden door de burger. Bedrijven die het meeste verbruiken zullen deze tax zoals alle andere belastingen ontduiken.

Je hebt er dus niets aan.
De mensen die dit soort kaarten kopen en dan ook nog eens de maximale prestaties er uit halen (want anders haal je het maximale TDP niet) hebben er ook wel een goede reden voor om deze te kopen. Het is niet alleen maar van "kijk mij nou eens".

Als je er 1080p op gaat gamen dan gaat hij geen 800W verbruiken.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 11:27]

Ben benieuwd hoeveel post er verschijnen over crashed, omdat de PSU niet geüpgraded is.
Wel een beetje te vroeg om te zeggen, 20 serie verkocht niet zo goed toen die uitkwam, dat kwam pas los na de super series.

En er zijn momenteel genoeg andere factoren die eventueel weer opnieuw in de weg komen zitten, Zoals anderen al noemen.

Jammer dat men gek ging toen de 30 serie uit kwam.
De energieprijs onder belasting interesseert me ook niet zo veel, maar wel de koeling ervan. Als het in de zomer 30 graden is buiten, wil je in je bureau echt geen videokaart van 800W hebben draaien. Ik heb nu een 3080 en die maakt mijn kamer al warm genoeg. NOG meer verbruik en ik ga een airco moeten zetten vrees ik.
Ik ga wachten wat AMD er tegenover kan zetten denk ik. Mijn 2 jaar oude 3080 zou thans een upgrade kunnen gebruiken sinds ik 4K game, maar een 800W kaartje gaat het toch niet worden denk ik. 8)7
Wat een verspilling van energie om net dat tikkeltje sneller te zijn..
48Gb aan videogeheugen is wel aantrekkelijk voor video bewerken en 3D grafisch renderen waar enorm hoge kwaliteit assets worden gebruikt. Verder ook kunstmatige-intelligentie applicaties kunnen veel vram opslokken.

[Reactie gewijzigd door t4600c op 23 juli 2024 11:27]

Dan haal je een Quadro RTX 8000 met 48GB en minder dan de helft van dit energie verbruik. Nvidia kennende zullen ze toch wel weer truukjes uitspoken met de GeForce RTX 4000 series waardoor dergelijk grafisch renderen gecrepeerd wordt.
Maar de quadro 8000 gebruikt meer watt per cuda kern dan de 4090 ti/Titan.

Quadro 8000 gebruikt 295 watt voor 4608 kernen = 0,064 watt per kern.

4090 ti/Titan 800 watt voor 18.176 kernen = 0,044 watt per kern.

En als het een Titan klasse kaart wordt zijn de verschillen met quadro drivers nog kleiner volgens mij.
Dat is appelen met peren vergelijken. Je vergelijkt verschillende generaties/dies. Een betere vergelijking is deze:
>Shading Units: 4352
>TDP: 250 W
https://www.techpowerup.c...geforce-rtx-2080-ti.c3305

>Shading Units 4608
>TDP: 260 W
https://www.techpowerup.com/gpu-specs/quadro-rtx-8000.c3306

Wat komt op respectievelijk 0.0574W vs 0.0564W. De kers op de taart is dat de Quadro RTX 8000 ook nog eens hogere clockspeeds heeft (op papier, of die in de praktijk gehanteerd kunnen worden binnen de TDP is een ander verhaal).
Dat is appelen met peren vergelijken. Je vergelijkt verschillende generaties/dies.
De nieuwste generatie wordt vergeleken met de vorige generatie, dat lijkt me juist toepasselijk als je wilt zien wat het verschil in efficiency is. De 2080 erbij halen is juist totaal nutteloos.
Het argument was dat je op een Quadro kaart binnen het zelfde verbruikprofiel een grotere hoeveelheid beschikbaar geheugen hebt.

CUDA cores zijn tussen generaties niet te vergelijken aangezien de opbouw van de core vaak sterk verschilt. Een core kan kleiner zijn waardoor je er meer op een die krijgt. Als gevolg kan de prestatie per core lager zijn, terwijl de prestaties van de hele die hoger liggen.

Een goede vergelijking zou een Ada Lovelace GeForce RTX vs een Ada Lovelace Quadro RTX zijn. Maar aangezien we van beiden nog geen echte cijfers hebben, is een verdere discussie zinloos.
Een punt is een duizendmaal seperator, je had hier komma's moeten gebruiken.
Je kan niet 2 verschillende architecturen naast elkaar leggen en dan claimen dat het beter of slechter is op basis van watt per kern. Immers kan de ene architectectuur een vele malen beter performance per kern hebben dan de andere. Uiteindelijk zul je moeten kijken naar performance per watt.
Maar dit zijn georiënteerd op de gaming divisie dus video bewerken en 3D grafische toepassingen gaat er niet op. Daar zijn er speciale kaarten voor zoals de Quadro bijvoorbeeld. De GeForce RT40 blijft een enorme verspilling van energie en daar gaan wij ook meer voor betalen.
Titan klasse is wat meer gericht op grafisch renderen, de vorige had verschillende dingen die alleen op quadros te vinden waren.
Klopt, de Titan is meer een semi-pro, dus gericht op gaming én professionele toepassingen. Al is het mij niet echt bekend of dat ondertussen eea is veranderd want je hoort niet meer zo vaak over de Titan, misschien omdat het niet meer zo een interessant kaart is.
Voor 3D grafische toepassingen, maakt het geen bal uit of het quadro of GTX is!

Misschien bij exotische software (zoals CAD) over het algemeen zijn de CUDA en RTX cores waar de software naar kijkt. Niet naar een driver.
Games op 4K-resolutie halen met een RTX 40-serie een 2x hogere framerate.

Bron: https://wccftech.com/nvid...mance-gain-over-rtx-3090/

Dit komt met name doordat de klokfrequenties van RTX 40-serie veel hoger liggen dan de RTX 30-series.
Daar waar de 3090 een base klok heeft van 1,4 GHz, krijgt de 4090 een base klok van 2,235 GHz. Ook de extra CUDA cores dragen bij aan de performance toename.
Maar de grootste stap voorwaarts komt door de sterk verhoogde klokfrequenties.
800 Watt. Ben ik de enige die dit een beetje absurd begint te vinden? Nog even en je moet een directe aansluiting op Borssele hebben om je videokaart voldoende stroom te kunnen geven.

Nog even los van praktische zaken als hitte, vermogen van de voeding, de kosten van de elecitriciteit etc, vraag ik me af of dit wel wenselijk is met de energiecrisis enzo. Iedereen wordt verzocht om zo zuinig mogelijk met energie om te gaan, en dan komt Nvdia met een videokaart die even 800 Watt verstookt....

Misschien zouden er door de wetgever (nationaal, danwel in EU-verband) eens limieten gesteld moeten worden aan wat een apparaat redelijkerwijs mag verbruiken. Anders zitten we straks op videokaarten die 2 kW verstoken...
Je moet toch vrij kunnen zijn om te kopen wat je wilt. Qua kosten is deze kaart gewoon niet aantrekkelijk voor de meeste mensen, en deze is imho ook niet voor consumenten bedoeld. Dit is om een speciel markt van hardware te voorzien. Bijvoorbeeld virtual productions, om professionele VR brillen aan te sturen (die 3000 euro kosten), of om AI sneller lokaal te trainen ipv in de cloud.
Dit is niet interessant voor mainstream, en ik zou me daarom ook over het verbruik ook niet zo druk maken.
Mwah, dat is niet helemaal zo. Er zijn ook grenzen aan het verbruik van stofzuigers bijvoorbeeld. Zou een goed iets zijn om hier paal en perk aan te stellen wat mij betreft.
Ja, maar daar was de milieu impact ook relevant. Goedkope stofzuigers waren ook 2000 watt op gegeven moment, dus liep het aantal uit de klauwen. De kaart waar het hier over gaat, gaat zeer waarschijnlijk over de 2000 euro kosten en door een hele kleine niche pc enthusiasts gekocht worden.

Je moet ook een stapje achteruit doen en bekijken wat de impact van deze kaart op de planeet nu werkelijk is en daar ook het aantal kaarten bij betrekken. 800 watt klinkt veel in de context van computers, maar als de context oprekt naar algemene begrippen is het natuurlijk feitelijk helemaal niks. Het aantal EV's in nederland neemt verder en verder toe en die slurpen duizenden watts om te laden.

[Reactie gewijzigd door youridv1 op 23 juli 2024 11:27]

Bij die stofzuigers was dat logisch. Daar deed de wattage niets toevoegen behalve meer gebruik; De zuigkracht bleef hetzelfde.

Hier krijg je toch echt meer power voor die power.
Dan koop je toch gewoon de snelste kaart die onder wat jij acceptabel vindt, zit? Dit gaat alleen om de flagship, dus de 4090Ti/Titan of wat de naam ook gaat worden. Koop dan gewoon een 4080 ofzo. Niet gaan janken dat de producten die jij niet interessant vindt om het verbruik verboden moeten worden. Mensen kunnen zelf stemmen met de portemonnee.

Vroegah kon je ook gewoon Quad SLI Titan X's draaien. Dat is bij elkaar 1000 watt stock en nog meer overclocked. Dit product is voor diezelfde klant bedoeld, gezien SLI dood is.

Niemand dwingt je om een flagship kaart te kopen van, zeer waarschijnlijk, over de 2000 euro. Dus als je zo'n probleem hebt met de specs, dan koop je hem gewoon niet.

Een beetje gebazel over energieverbruik, terwijl de gemiddelde oven of frituurpan of inductieplaat meer dan het dubbele van deze kaarten kan trekken. Alsjeblieft zeg. Het aantal flagship RTX 40 kaarten ter wereld gaat werkelijk in het absolute niets vallen ten opzichte van het verbruik van alledaagse consumenten apparaten zoals een kookplaat.

[Reactie gewijzigd door youridv1 op 23 juli 2024 11:27]

Stemmen met de portemonee, daarom bestaan lootboxes en whales niet.

De overheid moet om de haverklap ingrijpen, omdat mensen laten zien dat ze niet verstandig zelf hun keuzes kunnen maken.

Anders was brandstof met lood nog de norm, lagen de straten bomvol rotzooi omdat een groot deel van de mensen zijn of haar rotzooi nog altijd gewoon van zich afsmijt. Dan reden mensen nog steeds massaal met een slok te veel op zoals voor de jaren 90 nog best "normaal" was.

Zo ontzettend veel voorbeelden waarbij "het aan het volk overlaten" echt geen puik idee is.
Dat klopt, maar ik vind niet dat dit op gaat met een niche product dat door minder dan 0,1% van de consumenten wordt gebruikt. Het heeft structureel geen meetbare invloed op het milieu of de schoonheid van de straten.
Niemand dwingt je om deze kaart te kopen.
Ben ik de enige die dit een beetje absurd begint te vinden?
Absoluut! Je was ook de eerste reactie op dit artikel. :+
En de centrale verwarming als water cooler gebruiken hahaha.
Maar je hebt wel gelijk 800 w dan heb je een voeding 15/1600 w?
Deze kaart is niet voor gaming..wie wel beweerd .....kom met bron :)
Er is geen ene game op de markt.

Dus ....is het een dikke weggegooid geld kaart.

[Reactie gewijzigd door noway op 23 juli 2024 11:27]

Limieten stellen is nooit populair onder het volk, daarom rijden er bijv. zoveel superwagens op de weg, die 99% van de tijd niet hun max snelheid aantikken. Als we nou eens zelf in de spiegel kijken ipv. steeds naar de overheid wijzen. Want als de VVD supercars e.d. verbied, stappen er velen massaal over naar de supercar vriendelijke partij. zomaar een voorbeeld, je mag ook andere interesses invullen, bijv Vliegen.
Alleen rijmt die 800W van een 4090 Ti/Titan toch totaal niet met de 450W van de 4090? Die potentiële 4090 Ti/Titan heeft slechts ~11% meer cores, maar het verbruik zou met ~78% omhoog gaan. Dat zou je enigszins kunnen bereiken door een hogere kloksnelheid, maar vaak is juist de regel dat meer cores niet resulteert in een (veel) hogere kloksnelheid.

Het enige wat ik kan bedenken is dat er een kortstondige boost functie op zit, dat er dankzij cherry picking extreem hoge clocks mogelijk zijn.
Vergeet niet dat er ook 48GB (24Gbs) aan geheugen opzit. Die 24Gbs GDDR6 zijn absoluut niet zuinig.
Dan zou je in dit lijstje ook een groot verschil in tdp moeten zien tussen de 4090 en de 4080. Daar zien we 60% meer cores, Van GDDR6 naar GDDR6X geheugen én 50% meer, terwijl de tdp slechts van van 420W naar 450W gaat?

Ergens klopt er iets niet. Ik vermoed dat de tdp van de 4090 veel te laag wordt ingeschat, zeker omdat de geruchten zijn dat de GPU kloksnelheden rond de 2500mhz gaan zitten.
bus en snelheid zijn nog niet definitief en sowieso stijgt het stroomverbruik niet lineair, maar exponentieel naarmate er hogere clocks worden gehaald
Benieuwd hoe groot de vraag gaat zijn naar deze serie. De 3xxx introductie viel redelijk gelijk met de Covid pandemie waardoor veel mensen aan huis vast zaten. Hierdoor kregen mensen budget om thuis een goede kantoorvoorziening te creëren, pakten mensen oude hobbies (gamen) weer op en gingen we niet op vakantie dus gaven we ons geld aan dergelijke zaken uit. Daarnaast was de 3xxx serie (op papier) een flinke stap vooruit qua ontwikkeling dus voor veel mensen de upgrade waar ze op zaten te wachten. Ik verwacht niet dat die groep mensen nu massaal na zo'n korte tijd weer gaat upgraden. Ook is het kopen van een GPU om te minen een stuk minder lucratief dan een paar jaar geleden. Vanwege de flinke inflatie die momenteel gaande is verwacht ik ook dat mensen iets minder te besteden hebben (of ten minste wat geld achter de hand willen houden). Ten slotte is ook de energieprijs flink gestegen waardoor een energieslurpende kaart in gebruik ook nog eens duurder is geworden. Vanzelfsprekend zijn er genoeg mensen die de overstap willen maken maar het zal ongetwijfeld minder zijn enkele jaren geleden bij de vorige lanceringen.
En mensen kopen geen gpu's meer om te minen na de prijs crash van crypto, ik weet dat er altijd een groep mensen was die bleef zeggen dat de tekorten helemaal niet door miners kwam, maar hoe verklaren we dan dat precies na de crypto crash alle 3000 series en 6000 series ineens volop beschikbaar zijn. Volgende maand zou ETH naar proof of stake gaan, benieuwd hoeveel tweedehands gpu's dan de markt gaan overspoelen.
Volgende maand zou ETH naar proof of stake gaan
hoeveel keer is dat al wel niet gezegd, eerst zien en dan geloven :P
ik weet dat er altijd een groep mensen was die bleef zeggen dat de tekorten helemaal niet door miners kwam
Dat kwam niet alleen door miners. Er was ook gewoon een veel grotere vraag van gamers. Beide zijn nu inderdaad afgenomen, de miners omdat 't niet meer rendabel is en de gamers zijn grotendeels voorzien of wachten inmiddels op de volgende generatie.
Bitcoin wordt op ASIC's gemined, geen GPU's. Maar die ASIC's worden door TSMC op dezelfde processen gemaakt. Minder ASIC productie, meer ruimte voor GPU's bij TSMC. Dus je ziet al dat er andere mechanismes zijn, die óók verklaren waarom er meer GPU's op de markt komen.
800W-tbp.. dat is serieus 200watt meer als mijn elektrische douche kachel! 8)7
Ja maar op jouw elektrische kachel kan je niet gamen ;-)
Je kan er wel op gamen maar het zit waarschijnlijk niet lekker en ook nog eens erg warm (als die aan staat).
ik game wel op mijn verwarming :)

vloer verwarming ;) als ie aan staat is dat lekker warm, gelukkig niet heet zoals met de oude radiators.
Maar zit toch liever op m'n stoel die op de verwarming staat idd.
hoeveel waterketels is dit ?
tussen de 0,3 en de 3 (of ander onzinnig getal). ;)

maar wat zie je als waterketel?
is dat een 1,5l water koker, die zijn vaak een 1900W. (<2000W)
of zie je dat eerder als een boiler, gasketel.
mijn gasketel is 24000W en mijn boiler(250l) is maar 333W.
en de radiator op de wc is maar 200W.
dus waar mee wil je het vergelijken?
denk dat de vraag zou moeten zijn hoeveel je deze gebruikt. als je de 4080 slechts een uurtje gebruitk per dag en je ketel 16x per dag voor het opwarmen van 1.5L water tot 90 graden. wat is dan goedkoper.
Als je het doelpubliek bent voor een kaart van 800 watt, dan ga je die waarschijnlijk wel meer dan "één uurtje per dag" gebruiken.

En wie moet er nu in hemelsnaam 16X per dag warm water hebben?
Dan loont het om een Quooker te halen.
graag maar zit in een huurhuis waar dat niet zomaar kan. kraan kan niet vervangen worden en een gat in het aanrecht waarderen ze niet echt. wel leuk systeem en dank voor het mij onder de aandacht brengen.
Volautomaatje werkt ook hoor. Raad die van De Longi aan, goedkoop en vooral makkelijk schoon te maken. Het verschil met de duurdere apparaten kan je in de koffie stoppen :)
16 keer per dag koffie? dan hebben jullie toch wel een groot huishouden...
2 personen drinken koffie waarvan 1 thee.
Dus met 2 mensen drinken jullie elk 8 tassen koffie/thee per dag?
nee, ik drink 16 bakken koffie die andere drinkt thee. dit is normaal. tis 2022 bro
Hoe krijg je het binnen man? Ik drink iets van anderhalve tas koffie per dag na mijn ontbijt uit de nespresso koffiezet. Als ik er 10X zoveel zou drinken elke dag krijg ik waarschijnlijk op den duur een hartaanval...
Hoe groot zijn die tassen van jou? Een klein plastic tasje is al snel 1,5 liter wat gelijk staat 7 koppen koffie. Een rugtas is al erg snel 20 tot 30 liter. Overigens wel vreemd om koffie uit tassen te drinken, lijkt me erg onpraktisch of je moet het zoals in sommige landen doen met een rietje. :+
Ik ben een Belg, dus wat jullie "kop" noemen heet bij ons "tas".
ik drink geen koffie uit een tas maar uit een beker. zal uitkomen op 2.8 liter koffie. hartaanval krijg je niet maar zuurgraad van je maag is wel een ding. dus koffie met koemelk. uitgaande van mijn gewicht is dit voldoende. moet wel zeggen dat ik over wil op half water, half koffie of combi met thee. ik drink verder geen alcohol of caffeine drankjes behalve koffie. uit testen recent gedaan viel mij iets bijzonders op. dat je meer energie krijgt als je stopt met koffie wat ik niet kon geloven. consumptie van koffie doet opvallende dingen met je als je het uitzoekt. koffie is goed, teveel zoals ik drink is niet goed.
tja, dat reken je gewoon uit he.
en dat per uur zodat je kWh hebt. ;)
Is precies een broodrooster.
Eens, veel te hoog naar mijn mening. Dit is gewoon "ik wil de grootste hebben".
Anderzijds moet je ook bedenken dat dit gerelateerd is aan het maximale verbruik. Het is niet dat deze kaart dit continu trekt.

Daarnaast is energie nooit verloren. Dit wordt omgezet in warmte. Deze warmte zorgt ervoor dat je minder moet verwarmen in de winter of tussenseizoenen.
Dat er appartementen zijn die x aantal keer een 2000W verwarmingselement hebben, struikelen we ook niet over...

In de zomer is het wel extra airco...
In deze tropen dagen heb je extra airco capaciteit nodig en dus ook verbruik.
Dus je knalt er bijna 2x zoveel elektriciteit doorheen. Weet je dan al of de prestaties ook al 2x groot zijn? Want anders ga je er dus eigenlijk gewoon in achteruit qua efficiëntie. En is dat dan de manier tegenwoordig om meer performance te krijgen? Gewoon de kaart letterlijk en figuurlijk de kaart dikker maken? Loopt NVidia tegen efficiency limieten aan...?
Een extreem topmodel heeft toch nooit over efficientie gegaan, bij niets. Een Bugatti of een top Ferrari rij je ook mee van pomp naar pomp als je alles er wil uithalen. Het is meer "omdat het kan" en "laten zien wat er kan"

Op dit item kan niet meer gereageerd worden.