Gerucht: Nvidia RTX 4090 Ti- krijgt 600W-tbp en 11 procent meer CUDA-cores

De RTX 4090 Ti, mits deze daadwerkelijk uitkomt, zal een total board power van 600W krijgen en 11 procent meer CUDA-cores bevatten dan de RTX 4090. Dit blijkt althans uit informatie van leaker kopite7kimi, die vaker juiste details over nog niet aangekondigde Nvidia-gpu's deelt.

Het mogelijke nieuwe RTX 40-vlaggenschip krijgt net als de RTX 4090 de AD102 als gpu, maar de Ti-kaart zal over 18.176 CUDA-cores beschikken, claimt kopite7kimi. Verder zal de videokaart 96MB aan L2-cache krijgen, 24GB GDDR6X-geheugen en een tbp van ongeveer 600W krijgen. Het is nog onbekend of en zo ja wanneer de nieuwe videokaart van Nvidia uitkomt en voor welke prijs.

Verder zou de RTX 4090 Ti snellere geheugenchips krijgen zodat een maximale bandbreedte van 1152GB/s mogelijk wordt; dat is 144GB/s sneller dan de RTX 4090. De RTX 4090 moet het doen met 16.384 cores, dezelfde hoeveelheid geheugen en heeft een total board power van 450W.

In de zomer van vorig jaar claimde kopite7kimi al dat er een nieuwe RTX 40-flagship aan zit te komen, waarbij hij onder meer de volgende specificaties noemde: een tbp van 800W, 48GB GDDR6X-geheugen en 18.176 CUDA-cores. Wellicht dat dit een komende Titan-videokaart wordt en dat de RTX 4090 Ti een apart model is.

Enkele dagen geleden verscheen er een foto van wat een RTX 4090 Ti of Titan zou kunnen zijn, inclusief een ontwerp met vier slots. Op een foto was het boardnummer PG137 te zien. Dat wijkt of van de modelnummers die kopite7kimi noemde voor de RTX 4090 Ti, wat suggereert dat deze foto mogelijk een vroege versie van de Titan-videokaart is.

Mogelijke specificaties Nvidia GeForce RTX 4090 Ti
Videokaart RTX 4090 Ti(?) RTX 4090 RTX 4080 RTX 4070
Architectuur Ada (TSMC N4) Ada (TSMC N4) Ada (TSMC N4) Ada (TSMC N4)
Boardnummer PG136/139 SKU 310 PG139 SKU 330 PG139 SKU 360 PG141 SKU 341
Gpu AD102 AD102 AD103 AD104
CUDA-cores 18.176 16.384 10.240 7168
Geheugen 24GB GDDR6X (24Gbit/s) 24GB GDDR6X (21Gbit/s) 16GB GDDR6 (18Gbit/s) 10GB GDDR6 (18Gbit/s)
Geheugenbus 384bit 384bit 256bit 160bit
Bandbreedte 1152GB/s 1008GB/s 576GB/s 360GB/s
Tbp 600W 450W 420W 300W
Releasedatum Nnb Oktober 2022(?) November 2022/begin 2023(?) December 2022/begin 2023(?)

Door Joris Jansen

Redacteur

30-01-2023 • 20:27

161

Reacties (161)

161
158
70
4
0
60
Wijzig sortering
Ik wilde zeggen mag je wel een wervelstorm in je PC case hebben, maar het zal eerder een draaikolk worden.
Als 't hele systeem 800W trekt kost je dat 0.36 euro per uur om te draaien. Als je 2 uur per dag speelt ben je per jaar ruim 260 euro kwijt aan energie kosten, nog los van de monitor. In de winter kun je je cv een graadje lager zetten ;) Zal niet veel minder dan 3000 euro gaan kosten lijkt me, met de huidige prijzen.
Met als met dure auto's boven de 40k zie ik alles boven de 1000 euro als een high end++ kaart. De 4070 is de normale high end kaart, alles daarboven is alleen weggelegd voor mensen die een grote beurs hebben of niets anders in 't leven doet dan gamen (en om die reden al het andere laten). Het high end segment is gewoon naar boven toe wat verder opgerekt met krankzinnige verbruik en prijzen. Nvidia is echt de weg kwijt wat mij betreft.
Volgens mij moeten ze op het gebied van koeling ook creatiever zijn en net zo hard door ontwikkelen. Die 4080 + kaarten zijn gigantisch, worden enorm warm en verstoken aardig wat energie. Als het zo door gaat, staan de desktops bij mij in de kelder later, samen met alle andere servers en apparatuur waar het huis mee is uitgerust. Want wie wilt nou deze dagen nog een computer die klinkt als een stofzuiger…
Een kennis van me heeft dit jaren geleden reeds gedaan. De servers staan naast de warmtepompen voor warm water en de CV. De warme lucht van de servers gaat de warmtepompen in om de COP te verhogen. De koude lucht wordt in de zomer aan de voorkant aangevoerd en in de winter naar buiten afgevoerd. Leuk project voor een Tweaker.

(Toen mining nog wat opleverde, stond er zelfs een rig-je naast en werd het huis met geld toe warmgestookt.)
Amd prijst hun GPU's nagenoeg gelijk in de praktijk als je de performance verschillen in acht neemt.

Het is prijziger, maar er zijn mensen die schieten meer aan vuurwerk tijdens oud en nieuw de lucht in. Het is te overzien.
Ik heb sterk het idee dat Nvidia maar zo'n beetje alle producenten op dit moment het inzakken van de markt proberen te compenseren door de winst op producten flink op te jagen. Ja natuurlijk deze nog geavanceerdere GPU is nog complexer maar ik zou graag eens de BOM van een 2090/3090/4090 willen zien. Iets zegt me met de gezakte vraag in de markt dankzij einde COVID en het imploderen van crypto ze nu hun bottom lijn volledig zien verdwijnen en de slimme economen binnen Nvidia bedacht met een hogere winst marge ze toch dezelfde resultaten laten zien.
De BOM is een vrij zinloos getal hier. Ten eerste staat de R&D niet op de BOM. Voor een simpel product zoals een muis of koptelefoon is dat niet erg, voor een nieuwe GPU wél. Ten tweede gaat het er van uit dat de onderdelen een duidelijke inkoopprijs hebben. Dat is bij TSMC waarschijnlijk niet het geval; NVidia betaalt waarschijnlijk per wafer. Hoe ze de AD102's [/]binnen[/] en de kosten verdelen tussen 4090 en 4090Ti is niet objectief.
Als je zo n kaart kan kopen kan je ook de stroom betalen. En als je een beetje slim heb zorg dat je zonnepanelen hebt zodat de zon jou game-experience betaald).
Duurste kaarten zijn ervoor markering spierballen, ook wel te zien aan het aanbod 4070ti wat direct beschikbaar was.

Gelukkig is de 4070ti een top kaart, want €900 is al een bak centen.
Ik vind persoonlijk ook dat de (X)X70 series high end zijn maar Nvidia heeft die enkele generaties geleden (900 denk ik), wel gerelegeerd naar het mid range segment. Dat zie je ook aan het verdwijnen van alle low end - mid range kaarten (X)X10,(X)X20, (X)X30, (X)X40. Spijtig want ik vertik het persoonlijk om meer te spenderen dan 400 euro voor een grafische kaart en zelfs dat vind Ik veel. Mijn eerste 3D kaart: Guillemot Voodoo Banshee 16 MB kostte destijds 150 euro en veegde de vloer aan met alle kaarten, buiten de 3DFX Voodoo 2, die 300-400 Euro kostte en nog een doorsluis VGA kaart nodig had, en Nvidia TNT2 in bepaalde workloads.
Echter, vorig jaar heb ik voor 7040.80 kWh staan kweken op het dak.
Ik kreeg zowaar zelf terug, (900'ish) Werk in de IT, heb somewhat above average 24x7 draaien thuis.
Nu moeten die Tesla powerwalls nog even zakken in prijs, dan wordt het leuk.

(Avoids eye contact with Greta)

Groot Fan van de F1 (Hell, ik woon in Zandvoort !) Maar zie mijn footprint in het niets vallen bij die 122 (BNR Radio vanochtend) prive Jets die achter Hoofdorp waren geland voor een Formule 1 event.

(Coureurs & Team bobo's daar gelaten)

[Reactie gewijzigd door ViPER_DMRT op 22 juli 2024 19:22]

Mooi, dat half Engels erdoor.
Zou dat Nederlands gewoon helemaal schrappen.
En zullen ook als warme broodjes gaan, omdat het kan.

Als we nu nog even iets verder ontwikkelingen, kan ik straks mijn verwarming op mijn kamer (zo'n 1kwh olie radiator) vervangen door zo'n videokaart. Gamen en verwarmen :D
Ik denk dat reviewers hier flink aan meehelpen. Een GPU met zo'n vermogen, zulke enorm hoge kosten zijn ronduit belachelijk. De normale RTX4090 is dit ook al. Maar zo vaak zie je dat reviewers, met name op Youtube, bij de review van die kaart wel kritisch zijn, maar in elke random latere video blijven ze wel die kaart gebruiken en daarmee dus ook promoten.

Test van een instap gaming monitor? "We hebben m aangesloten op onze testbench met een overclocked i9 13900KS en RTX4090...". Test van een reeks SSDs of een of andere software...jup, daar is de RTX4090 testbench/pc weer. Totaal geen toegevoegde waarde om zo'n dure, stroomvretende, overkill GPU te gebruiken, maar zo wordt die GPU (of CPU) wel keer op keer subtiel onder de aandacht gebracht.

Er zijn niet veel (Youtube) reviewers die per default niet standaard grijpen naar de meest krachtige CPU en GPU die ze hebben liggen. Het zijn dan ook meer de reviewers die zich focussen op content van tweede hands, instap, budget en studenten pc's die als voorbeeld een doorsnee pc nemen.
Maar als je apparatuur aan het reviewen bent, wil je niet dat dat stuk apparatuur gelimiteerd wordt door iets anders. Dus eigenlijk wil je juist als reviewer (van componenten) een verder zo top-of-the-line mogelijk systeem hebben.

Je hebt weinig aan de review van een nieuwe processor als men probeert performance te meten van games die ze draaien op een GT1030.

[Reactie gewijzigd door CyBeR op 22 juli 2024 19:22]

Dat is het standaard antwoord wat altijd gegeven wordt. Maar wat voor invloed heeft die RTX4090 op een SSD?

En wat zou voor de lezer/kijker van een review van grotere waarde zijn: hoe een CPU koeler of kast presteert in die 13900KS/RTX4090 build die nog geen 0.1% van de mensen zich kan veroorloven? Of hoe diezelfde koeler/kast presteert in een situatie van een doorsnee gamer? Iemand met een i5/Ryzen 5 en een xx60 GPU? En hetzelfde voor een nieuwe CPU: leuk om te zien dat je van 200 naar 220 FPS gaat i.c.m. een RTX4090 op 4K, maar hoeveel meer haalt die CPU uit een RX6600? Dan blijkt de winst ineens heel minimaal.

Zo ook bv de reviews hier van de Intel A770 of RX6600. Testsetup: een overclocked, custom loop cooled 5950X met RAM wat op zichzelf al meer kost kan dan geteste kaart. Wie in hemelsnaam zou ooit zo'n setup combinatie maken? Leuk om te weten hoe die combo het doet, maar zinvoller was een setup met een Ryzen 5 3600, Ryzen 7 3700X of iets als een Core i5 11400.

En ja, je kunt stellen dat je voor de volledigheid, over alle GPU reviews b.v., een eenzelfde testsetup wilt hebben voor 1 op 1 vergelijk tussen de kaarten. Prima, leuke extra info maar wanneer die setup voor 99.9% van de mensen buiten bereik is, is de meerwaarde heel miniem.
Daarom dat ik reviews van mensen die zeggen "kijken of de upgrade van GPU X naar Y zich loont indien je een first gen Ryzen of 7th/8th Intel CPU hebt.." veel interessanter.
Dat is het standaard antwoord wat altijd gegeven wordt. Maar wat voor invloed heeft die RTX4090 op een SSD?
Als er DirectStorage of een soortgelijke technologie bij komt kijken, waarschijnlijk vrij veel.

En ja verder gaat 't gewoon om standaardiseren. Je hebt gewoon niks aan metingen als je steeds een compleet ander systeem eronder gebruikt, zelfs al heb je het over onderdelen die in theorie niks aan de meting zouden kunnen veranderen. Je wilt dus twee dingen:

- standaard test rig (afgezien van het ding wat je aan het testen bent natuurlijk)
- het ding wat je aan het testen bent moet idealiter het zwakste onderdeel van je systeem zijn

Tests die daar van afwijken hebben ook waarde, maar dan ben je wel iets anders aan het meten dan "hoe is de maximale performance van <onderdeel>"

[Reactie gewijzigd door CyBeR op 22 juli 2024 19:22]

Het is ook gewoon mogelijk standaard realistische tests te doen. Of om deze in ieder geval mee te nemen. Natuurlijk wil je weten welke kaart sneller is in een shootout, dus is het goed de snelste cpu te pakken. Maar tevens zou het voor de consument ook wel goed zijn eens te zien of er überhaupt een verschil is met een qua budget passender CPU, gewoon om te relativeren.

De grootste fout die je met tests kunt maken namelijk is enkel te kijken naar de technische kant terwijl de eindgebruiker aan juist die resultaten niks heeft, omdat het geen realistische use case is.

Zeker als de resultaten dan als relevant factor bij een aankoop worden gepresenteerd, waar dit mogelijk niet het geval is.

Of, kort gezegd: men helpt onbewust gewoon mee aan de hype train der marketing.

Om maar een klassiek tweakers auto vergelijk er bij te pakken: Er is een reden waarom auto’s veelal met de Golf worden vergeleken en ze niet allemaal naast een Rolls Royce worden gezet.

[Reactie gewijzigd door Cid Highwind op 22 juli 2024 19:22]

Komt dat ook niet omdat de meeste Youtube kanalen het bekijken vanuit hun eigen - veelal Amerikaanse - perspectief?
In de VS zijn de energieprijzen immers een schijntje van hetgeen wat wij betaalden zelfs voor de energiecrisis, denk eigenlijk dat het daar op een aanschafprijs van $1.5K totaal insignificant is qua kosten tijdens de economisch levensduur ervan. Met het milieu is men in de VS al helemaal niet bezig als burger, en zelfs als dat wel zo zijn dan is het energieverbruik door huishoudens aldaar een druppel op een gloeiende plaat zolang het land zo auto-georiënteerd is als nu (een alternatief voor veel autokilometers is er gewoon niet voor de Amerikaanse burger).

Neemt niet weg dat de EU wat mij betreft net als met stofzuigers de boel mag begrenzen op zeg 250 of 300W hoor :) Het gaat inmiddels echt nergens meer over, en relatief sijpelt het ook door naar het mid-range segment.

[Reactie gewijzigd door !mark op 22 juli 2024 19:22]

Voor je het weet vliegen je stoppen eruit iedere keer als je je PC aanzet.

Maar het is nog niet de slechtste gedachte. Helaas duurt het met de huidige prijzen van zo’n videokaart nog steeds jaren voordat je het verschil in kosten met een (olie of elektrische) radiator terug verdiend hebt. Zelfs al zou je al die tijd cryptominen zie ik het nog niet terugverdient in de levensspanne van de kaart.
dan zul je eerst een stuk of 8 van die dingen moeten hebben
of je er nu 1 of 100 hebt, terugverdientijd is hetzelfde.
gaat over stoppen die eruit vliegen niet over minen lol
Oeps hahah sorry, verkeerd begrepen.
Oooh absoluut, zo'n radiator ding koop je voor amper 100 euro, zie deze kaart zeker niet onder de 2000 zitten. Maar doet me beetje denken aan de oude plasma schermen, de tijd dat ik die TV had trok dat ding behoorlijk wat vermogen, maar zeker in de koudere dagen hoefde ik amper bij te warmen puur alleen door de warmte van die TV (deed 650watt op helder beeld dacht ik).

Maarja, dat staat weer in contrast met de zomer dagen, waar ik iemand nog hoorde zeggen 'ik zet m'n airco aan wat met de PC aan wordt het zo warm in de kamer'.
En vergeet dan ook niet: zo'n radiator kun je gewoon uitschakelen in de zomer. Maar als je radiator ook je gaming PC is, dan ga je serieuze koelproblemen tegenkomen in de zomer, zowel voor je PC, als voor je kamer, als voor jezelf.
Helemaal gezien je in de zomer helemaal niets hebt aan een 600W kacheltje.
Externe heatpipes, twee koelelementen, hamburgers.

Ik zie wel een een use case voor de zomer hoor. Misschien dat de 5090Ti aan de buitenmuur gemonteerd kan worden.
600W is niet genoeg om hamburgers te bakken, maar ik snap je punt :)
Denk zelf dat 200 watt al voldoende is, maar dan moet je oppervlakte wat je ermee verwarmt niet al te groot zijn.

Kijk maar naar de grillplaat of gourmetstel meestal rond de 2500watt en daar kan je veel meer dan 4 hamburgers tegelijk op klaar maken. En dan staat ie bij ons meestal op 50% anders brand het snel aan!
Gewoon zon intel 13900ks halen voor erbij, als ik het goed heb trekt die ook ruim 300w, die laatste 100w kom je wel aan met de rest van je componenten en randapparatuur
Afhankelijk van je kamer moet die 600 watt geen enkel probleem zijn. Met het weer van de laatste dagen is mijn pc goed instaat mijn slaapkamer op temperatuur te houden tijdens het gamen.

M'n kamer is iets van 2.5x3.5m en m'n pc (semi watergekoeld) doet bij de meeste games zo'n 800 watt (3900x en 2x1080ti). Met m'n deur dicht moet ik soms uit kijken dat het niet te warm wordt op m'n kamer...

Dus een 4090ti en een 13de gen intel moet daar prima overheen kunnen.
Ik verwarm mijn game-kamertje nu al met alleen mijn pc (wel goed geïsoleerd). En ik gok dat mijn complete setup onder volle belasting max 400W trekt (2070S + 5600X). Afhankelijk van de situatie heb je daar dus zeker geen 600W-videokaart voor nodig!

(Sterker nog, mijn game-kamertje is na 1-2 uur het warmste kamertje van het huis!)
Heel eerlijk, dat lukt mij al met een 2080ti.
In mijn mining dagen verstookte ik ruim 1000 watt aan watergekoelde videokaarten (3 stuks). Die werden met een passieve radiator gekoeld (Zalman Reserator)

Ik denk dat een kleine radiator unit prima een kleine kamer warm kan houden in koude periodes met een 4090ti. Die setup van mij hield in ieder geval een zolder warm :P.
Hele warme en dure broodjes dat dan weer wel. 8)7
Nee hoor. Sales voor die super dure kaarten zijn vrij slecht i.v.m. vorige generaties. Meeste verkopen is nog steeds de 3000 series, alhoewel Nvidia dit ook wilde om hun overtollige mining-inventory te dumpen voor de hoofdprijs. AMD doet lekker mee.
Vriend verklaard me idioot om dat ik werkelijk bereid ben om 1K voor een video kaart neer te leggen.

Besteld even later dood leuk 2 speakers voor ruim 1400 euro zonder te knipperen.
Audio is z'n hobby tenslotte, <goed verhaal waarom het 1400+ kost>

Bruh...
Toch snap ik dat beter dan een miel voor een videokaart neertellen: Goede luidsprekers gaan een leven lang mee, terwijl een videokaart na 2 jaar compleet achterhaald is.
Toch snap ik dat beter dan een miel voor een videokaart neertellen: Goede luidsprekers gaan een leven lang mee
Zeker.
terwijl een videokaart na 2 jaar compleet achterhaald is.
Maar dat is toch echt wel gewoon onzin. Ja, na twee jaar is je top-of-the-line videokaart ingehaald door de volgende generatie, maar zeker niet achterhaald. Niet voor niets is de meest gebruikte videokaart op dit moment (door daadwerkelijke consumenten) aldus de Steam Hardware Survey de GTX1650 (de low-end van 2019) gevolgd door de GTX1060 (2016, stond lange tijd op 1), RTX2060 (2018) en GTX1050ti (2016). Die doen voor casual gamen allemaal nog prima mee.

Ik heb zelf een 1080ti en ik heb eigenlijk geen behoefte aan een upgrade, die haalt nog met gemak 120+ fps in alles wat ik speel. Áls ik die zou upgraden is 't om de verbeterde NVENC, niet om de prestaties.

[Reactie gewijzigd door CyBeR op 22 juli 2024 19:22]

Sterker nog, die 1000$ kaart gaat competetief zijn met de $750 kaart uit de 5000-serie, dus je afschrijving is ruwweg $250 in 2 jaar.
Dat is tegenwoordig ook niet meer zo. Een 4090 gaat nog minstens 5 jaar mee als het geen 10 jaar is als je op 1080p gamed. Helemaal met DLSS en de performance van de huidige consoles ten opzichte van high end PC's. Games worden gemaakt met console performance in het achterhoofd.

Ik heb zelf een 3080ti en die is over 4-5 maanden ook twee jaar oud. Compleet achterhaald? Speel alle games op ultra settings 1440p met 100-144+ avg fps. Nee hoor, de huidige GPU's gaan nog jarenlang mee.
Toch zijn speakers van 1400+ nog steeds een veel beter idee dan een videokaart van 1400+

Ja de videokaart zal ook erg lang meekunnen, zeker 7-10+ jaar als je geen behoefte hebt te upgraden.
Maar van je speakers kan je heel waarschijnlijk je hele leven genieten, audio verouderd namelijk ook totaal niet.

En als tweede argument, wat is belangrijker:
- Gamen op 4k 200fps(?) met je 4090 maar zonder goede audio, zonder goed scherm, zonder een goed muis en keyboard etc.
óf:
- Gamen op 4k 90fps(?) met je 3060(?) maar met geweldige speakers, super scherm, fantastische muis en keyboard etc.
Natuurlijk persoonlijke voorkeur maar punt is dus dat peripherals en al dat soort dingen veel meer significante verbeteringen voor je ervaring kunnen zijn dan wat meer fps. Want zolang je het spel kan spelen zonder erge framedrops/stutters wat maakt het uit hoeveel fps je precies haalt? Er word te veel waarde aan gehecht. Natuurlijk uitzonderingen daargelaten: professionele e-sporters, enthousiastelingen en mensen met te veel geld
Waarom niet alles? Goede speakers, scherm en gpu?
Inderdaad, degenen die een 4090 halen zullen vast genoeg overhouden voor de rest.
Maar stel dat degene zo'n 3000 te besteden heeft, kan je veel beter kiezen voor een veel minder dure kaart en investeren in andere dingen die de ervaring op een significantere manier verbeteren voor een langere periode. Da's mijn punt een beetje (eigenijk een vrij nutteloos voorbeeld)
Ik heb toevallig een 3080ti (destijds €1200) en een goede audio set (7.2.4 Atmos). Je vergelijking is leuk maar dan ga je uit van een standaard stereo audio set. Als je daar een degelijke 5.1 setup van maakt zit je al snel op €4000+ (center speaker, 2 surround speakers, subwoofer, receiver). Wil je het echt goed doen heb je een kwaliteit subwoofer nodig en die heb je niet voor €500. En wil je het helemaal goed doen heb je twee nodig. Tel daarbij ook de vele uren die je kwijt bent om alles goed in te richten aan basstraps + geluidsisolatie op de belangrijkste punten (+metingen via Audessey en REW). Je kunt niet zomaar even wat speakers kopen, neerzetten en klaar is kees. Dat kan wel maar dan kun je beter die €1400 besparen. De 4090 is het maximaal haalbare op dit moment. Dat kun je natuurlijk niet vergelijken met een stereo audio set.

Wat betreft game performance ben ik ook niet met je eens. Ik heb juist de 3080ti gehaald omdat dit de eerste kaart in de geschiedenis is welke 1440p ultra settings op 120-144 fps fatsoenlijk kan draaien in vrijwel elke game. Met een hoge fps heb je een lagere input lag en 144 is wel degelijk een groot verschil met 90fps. En ja dat ga je overduidelijk merken. Het is minder smooth en met de lagere input lag van hogere fps voelt alles veel snappier aan.

Toevallig heb ik vorige week de LG C2 42 inch OLED (beste 4k Oled verkrijgbaar) geprobeerd als PC scherm. Nadeel is dat ik maximaal 120hz kan halen maar mijn 3080ti komt aan amper 100fps en vaak veel minder op 4k settings met drops naar 60. Dat is echt een wereld van verschil ten opzichte van mijn 165hz 1440p IPS scherm. En dat is het grote nadeel van hoge FPS gaming, als je dat eenmaal gewend bent wil je niet meer terug. En de 3060 die je noemt haalt bij lange na geen steady 90fps op 4k settings. Die zal regelmatig droppen naar 40 fps en je zal concessies moeten doen in de instellingen (medium/high max).

Er komen zeer binnenkort 27 inch 1440p Oled gaming schermen uit met 240hz. Daarvoor heb je eigenlijk een 4090 nodig en dan heb je het ultieme gamingscherm waar je nog minstens 5 jaar mee vooruit kan. Als je dan toch de vergelijking wilt maken met een audio set, mijn volledige Atmos setup heeft de beste prijs kwaliteit verhouding maar daar kan ik minstens 3 4090's voor kopen.

Maar wat betreft de levensduur heb je gelijk. Een goede audio set gaat relatief gezien vele jaren langer mee. Mijn Atmos setup hoef ik de komende 20 jaar niet te vervangen tenzij er iets kapot gaat.
Ik was inderdaad even vergeten dat de 4090 het snelste van het snelste is. Het is dus een stap verder elke nieuwe generatie, bij audio zul je nooit zo'n grote upgrade kunnen krijgen. De vergelijking is dus een beetje zinloos

Maar je vergeet even dat jij bij de uitzondering hoort waar ik over sprak. Ik en velen anderen hoeven helemaal geen super hoge fps én met name niet de allerhoogste settings. High of zelfs medium settings zullen echt wel voldoende zijn om te genieten van het spel, *waar het om gaat* (en dat ligt dan ook weer aan het type spel: soms wil je eyecandy, soms meer balans en soms maximale performance)

Ook zijn er ontzettend veel oudere spellen, met super hoge kortingen, die helemaal niet het nieuwste van het nieuwste aan hardware nodig hebben.

Het argument dat als je hoge fps gewend bent je niet meer lager wil klopt opzich wel, maar het werkt ook andersom. Als je op lagere fps speelt dan wen je er binnen een uurtje of twee wel weer aan, want wederom gaat het om de immersie in het spel en niet de exacte performance. Het is een ander verhaal wanneer je ver onder de 60 komt, dat absoluut. Maar in de meeste gevallen, voor de meeste mensen, is alles (ruim) boven de 60 echt wel voldoende

Hoe dan ook is dit een beetje een non-discussie, want uiteindelijk koopt degene die super veel tijd steekt in gaming en maximale performance wil de 4090; en degene die casual speelt, iets wil besparen en liever fijnere peripherals etc. wil hebben een 3060ti.

Maar dan weer naar de speakers, dit ligt ook aan de persoon, maar speakers zullen niet zulke grote variaties hebben in 'performance' om het zo te zeggen. Er bestaat geen oude muziek die makkelijker af te spelen is zoals er oude games zijn die makkelijker te draaien zijn. Er bestaan geen genres die een veel duurdere set nodig hebben of niet afgespeeld kunnen worden door goedkopere speakers. Enige manier om speakers te 'upgraden' is inderdaad met akoestische panelen enzovoorts

En wat je zegt klopt, dat een surround setup nog wel wat meer kan kosten, maar ik heb het inderdaad puur over stereo. Voor een goede stereo set hoef je echt niet super veel uit te geven. Met bookshelf monitors van 300-500 heb je levenslang goede audio en je kan daar nog een sub aan toevoegen in de toekomst. Of anders towers van 700-1500 (ik zeg nu maar wat) kom je ontzettend ver mee. Ik heb zelf dan ook towers naast mijn bureau staan (Xanadu DS14, uit 1990!) waar ik écht ongelovelijk veel plezier uithaal. Als ik zou moeten kiezen of ik mijn speakers wil houden of om een TOTL desktop te krijgen dan is voor mij de keuze snel gemaakt, dan kies ik er gewoon voor te gamen op wat lagere settings (met mijn huidige 1650)
En nee je hebt niet persé akoustische panelen nodig, alleen als je kamer wel héél leeg is. Maar als je het wel neemt zal je altijd verbetering krijgen

Tja echt een zinloze discussie dit dus, ligt compleet aan de interesses van de persoon :)

[Reactie gewijzigd door Ospo op 22 juli 2024 19:22]

Ja want mensen die ~€2500 betalen voor een 4090, spelen ook op 1080p….. 8)7
Die zijn er niet veel maar wel genoeg die op 1440p spelen. En ook op 1440p kun je minstens 5 jaar vooruit met een 4090 +DLSS. En helemaal met DLSS3 en je de hogere input lag voor lief neemt kun je zelfs op 4k vele jaren vooruit. Daarnaast is een 4090 €2000 en geen €2500.

[Reactie gewijzigd door biggydeen2 op 22 juli 2024 19:22]

waarom zou je met een 4090 op 1080 gaan gamen? met 1070ti of 1080ti kaart goed zat.
4090 never...niet zuinig en puur overkill.,,,,was met 3090 ook al weggegooid over de top zonde van je centen.

op 1440p met 27inch .... 4090 kaart? overkill .

1440 kan al met 1070ti

met een 3070 kan je bijna alles max game op 1440p.
of er klopt iets niet met jouw systeem.

4090 of 4090ti duur en maybe voor de 8k lief hebbers.....mensen met knaken

[Reactie gewijzigd door noway op 22 juli 2024 19:22]

Het probleem is dat mensen niet vermelden waar ze genoegen mee nemen. Kun je gamen op 1440p met een 1070ti? Dat kan zeker maar dan wel op low/medium settings en een avg fps van 60. Tenzij je alleen indie games of strategie games speelt kom je daar mee weg maar recente grote games zijn amper speelbaar.

Met een 3070 kun je ook bij lange na niet op max gamen op 1440p met degelijke performance. In dead space remake haalt een 3070 amper 50 fps op native 1440p: https://www.youtube.com/w...b_channel=JansnBenchmarks

Waar het in de kern om draait is hoeveel fps je ongeveer wilt halen en op welke kwaliteit. Voor mij is alles onder de avg 100fps niet wenselijk op max settings. Om dat te bereiken heb je minstens een 3080+ nodig. Er zit een wereld van verschil tussen 60 fps en 144 fps. Als je dat eenmaal gewend bent wil je niet meer terug naar 80 fps.

De 4090 is de perfecte 1440p GPU. In combinatie met de nieuwe LG Oled 240hz gaming schermen heb je de ultieme combo waar je nog jaren mee vooruit kan. De prijs is op dit moment alleen nog te hoog.

[Reactie gewijzigd door biggydeen2 op 22 juli 2024 19:22]

> Mijn MSI GeForce RTX 2080 Ti Gaming X Trio eist excuses in schrift !
> RTX, 1440p, Ultra easy... (Is 5 jaar oud)

Begrijp me niet verkeerd, geniet dagelijks van bijzonder goede audio binnen.
(Sennheiser Ambeo Soundbar)

En die laat die budget sets zwaar in de kou staan, maar het verschil met een LG bar van 1000 euro minder ... meh... Tuurlijk, speakers maken is een kunst, maar de term audiofiel komt niet van de boot vallen natuurlijk. Er zitten TU studenten tussen die 400 euro voor een ethernet kabel betalen waar de ene RJ45 stekker [AUDIO IN] op heeft staan & de andere [AUDIO OUT] (LEES: RJ45 ETHERNET KABEL) En verdedigen he... 8)7
1400 voor twee speaker is bijzonder weinig als dat een hobby is. Appels en peren 😘
Formaat melk pak, L+R ....

It's okay at best.....

Kijk, ik begrijp dat je compleet koek wilt gaan voor een 'KLIPSCH: RP-8060FA 7.1.4 DOLBY ATMOS® HOME THEATER SYSTEM' En dit zal je dan ook de meest intense Metaverse ervaring geven, sure. (/s)

En anders haal je 2 van die KEF `phallaxen` in huis om even laten zien wie de baas is... all good, maar 2 van die monitor speakertjes, goed verhaal. Geen 1400 euro goed verhaal. :)

En dat is wat ik vind, puh !
Is toch anders, speakers gaan 40+ jaar mee zonder probleem.

Tevens behouden die redelijk hun waarde. Soms stijgen ze zelfs in waarde.

Een gpu is het tegenovergestelde, zal altijd minder waard worden, en snel ook.
En gaat ook niet zo lang mee qua kwaliteit/ top prestaties,. Dat is max gemiddeld 6 jaar.

Dus snap dat van de speakers een stuk beter.

3090 was nog niet zo lang geleden 2k+. Nu tweedehands 750 euro.

Zal met de 4090 niet veel anders zijn.
High end Nvidia GPU’s doen het op de tweedehands markt anders ook gewoon best goed. Zeker met de huidige nieuwprijzen waar de nieuwe generatie qua prijs/prestatie vrijwel dezelfde verhoudingen heeft en je oude kaart dus relatief niks aan prestaties heeft ingeleverd, mits tegen adviesprijs gekocht.

Bij een kaart als de 4090 loop je alleen wel snel tegen het punt aan dat deze tweedehands weinig boeiend is voor een gemiddelde gamer, vanwege de gigantische eisen aan de voeding.

Neemt niet weg dat een GPU sneller veroudert dan speakers. Maar ieder z’n hobby. Het voordeel van wonen in een rijk land is dat ‘t er van af kan.
600w haha
Binnenkort 2 PSU’s in je kast 1 voor je gpu en 1 voor de rest?
Binnenkort gewoon met een kabel erbij die direct van gpu naar het stopcontact gaat 8)7
Over 10 jaar zijn Tweakers hun elektrische kookplaten eruit aan het wippen want de GPU komt met een Perilex stekker :+
Niet visionair genoeg: Over 10 jaar hebben we allemaal een 32A driefasen krachtstroomaansluiting in onze computerkamer plus een muuraansluiting voor vloeistofkoeling.
<sarcasme>
Dit mag wat mij betreft al over 5 jaar. Ik zie een win-win situatie: is gelijk iedereen van het gas af, want dan hebben we allemaal wandverwarming op elektriciteit ;)
</sarcasme>
Hoi hoi, het is weer winter, we mogen weer gamen!
Cloud is fout.... Lag blijft merkbaar dus cloud blijft geen optie :) Uiteindelijk kunnen cloud providers groot inkopen en hebben ze schaalvoordeel maar ze willen ook winst maken dus of je echt goedkoper uit bent....
'Ja, maar het is tegenwoordig bijna niet meer merkbaar' - Casual minecraft speler
Je hoeft niets te kopen (geen investering in een kaart ) je betaalt alleen een paar cent/euro voor het gebruik. Voor de niet dagelijks gamer is dit veel voordeliger

[Reactie gewijzigd door xbeam op 22 juli 2024 19:22]

Deze kaart is ook niet voor de casual gamer dus cloud ook niet.
Maar wel voor Tweakers (ITers die leuk vinden te prutsen)
Die hebben we in het verleden al gehad :)
https://www.anandtech.com/show/413/4
Je prikte alleen niet direct 230volt in je kaart :+
Ene kant heb ik dat veel liever. Dat hoef je ook niet zon zware voeding meer te hebben .
Dat kan nu ook al, maar dan met thunderbolt ;)
of 2 kasten, elk met aparte voeding en een riser cable voor de gpu 8)7
Voor het geld waar die dingen voor over de toonbank gaan is het nog niet zo'n slecht idee dat de fabrikant de voeding meelevert. Ik bedoel, €150+ voor een goeie voeding is niets vergeleken bij de prijs van €1500,- tot €2000,- wat deze kaart waarschijnlijk gaat kosten en dat is nog een optimistische inschatting.
Waarom? Ik gebruik al jaren dezelfde voeding voor meerdere kaarten, anders had ik nu 5 voedingen versleten oid, beetje zonde natuurlijk.

Je redenering werkt overigens niet want je vergeet dat je de voeding linksom of rechtsom toch wel betaald, als ie bij de GPU zit dan wordt die gewoon 100/150 euro duurder natuurlijk! Dan geef ik liever dat geld zelf uit en kies ik zelf de voeding.

[Reactie gewijzigd door watercoolertje op 22 juli 2024 19:22]

Zie ook deze 'review' https://www.youtube.com/watch?v=0frNP0qzxQc ;)

[Reactie gewijzigd door TheMatrixHasYou op 22 juli 2024 19:22]

doet me denken aan de oude voodoo 5 6000 met externe voeding :+
jaren terug had ik een nvidia 7800gt dual.... daar zat een losse externe 220v voeding bij
Input is 220v maar output niet hoor, niet veel anders dan de voeding in je PC die krijgt ook 220v en dat komt er ook niet uit.
ik geef aleen maar aan dat dat een kaart was met een losse externe voeding.....dat de kaart niet op 220volt draait spreekt voor zich
Ik zie het probleem niet, de gemiddelde jaartemperatuur in Nederland is dankzij de opwarming 11 graden C.
De toekomst is elektrisch verwarmen, en in de zomer is er in de nabije toekomst een overschot aan Zonne energie, voor je GPU en airco. wel ff een baterijtje kopen :)
Ging mij er meer om dat 11 graden nog steeds vrij koud is. t.o.v. 20 graden kamertemperatuur.
Toen smelte de ijskappen ook heel hard en was er geen sneeuw in de bergen of niet?
lekker naïf blijven .
Prima...er verdwijnt teveel ijs en het ligt niet ons right?
Dan leef je echt onder een steen....de wereld verandert en dat ziet iedereen.
Als er op bepaalde plekken niet genoeg sneeuw valt ...dan krijgen wij problemen.
{ sneeuw is zoetwater he }
En ons zeespiegel stijgt ook niet zekers?
Altijd leuk als er genoeg bewijs is en nog de fabeltjeskrant geloven.
Je hebt gelijk! ik zal niks meer zeggen.. :X
Als je de prijs kan/wilt betalen voor een 4090Ti dan heb je ook geen zorgen over de energierekening. Daarbij is 600W maxed out natuurlijk. Dat staat hij niet constant te pompen.

Maar ziek is het wel natuurlijk 8)7
Ik kijk idd ook niet naar de energie kosten. Ik heb nu de 13900ks + 3090 TI en wacht op deze kaart. Het is voor mij hobby+werk. Ik schrijf het gewoon af op de zaak, anders gaat het alles naar de belastingdienst. Als IT'er heb ik al bijna niets om af te schrijven en betaal 95% van de 50% belasting, waar anderen 40% van de 50% betalen.
Inderdaad, maakt het ook uit. Betaalt de rest van Nederland lekker mee voor jouw hobby :)
Het is juist andersom, ik betaal nog steeds 4x meer dan de rest van Nederland aan belasting.
Dan verdien je ook 4x zoveel als de rest van Nederland..

Los van het grapje, maar wat je doet kan natuurlijk niet en je argument slaat ook nergens op. Ja je kan het in je administratie gerust zo boeken, maar dat betekent niet dat het mag.
Als programmeur mag ik mijn eigen pc samenstellen en is een zakelijk aankoop. Aangezien ik 95% thuis werk, is het volgens de wetgeving legaal?
- iedereen mag zijn eigen pc samenstellen
- de aankoop kan zakelijk, mits je het puur zakelijk gebruikt. Overigens, volgens de letter van de regels zou je ook het gedeelte dat je de pc prive gebruikt niet als zakelijk mogen aanmerken.

Ik ben geen belastingexpert, maar ik hou voor mijn aankopen altijd het volgende aan:
Het is maar hoe je het uit kan leggen. Als je los een videokaart koopt van 2000 euro, kan je dat uitleggen dat je dat nodig hebt voor het uitvoeren van je beroep?
Koop je voor 4000 euro een compleet systeem(waar die kaart bijv inzit) dan is het misschien makkelijker uit te leggen.

Losse RGB verlichting voor in je kast bestellen zou je bijv ook niet zakelijk kunnen aanmerken. Zit het bijvoorbeeld al in je kast ingebouwd, dan is het makkelijker uit te leggen.

Het voordeel is natuurlijk dat je in de IT zit en een belastinginspecteur dat echt niet weet of je die kaart wel of niet nodig hebt. Als je nou in de bouw had gezeten, of pakketbezorger was geweest dan is het al anders.

Mijn adviseur zegt altijd, je mag wel ruiken, maar niet stinken. Het argument "ik betaal al genoeg belasting, veel meer dan jullie", zal ongetwijfeld zo zijn en staat wel stoer, maar gaat uiteraard niet op :)

Kortom wil je het echt weten, vraag het aan je belastingadviseur/boekhouder

[Reactie gewijzigd door Kurios op 22 juli 2024 19:22]

Helemaal mee eens, maar ik kan idd aan geven waar voor en waarom ik het nodig heb (virtual machines/emulators). Maar als ik dit vergelijk met een auto , dan kan zowel een VW Polo als een Mercedes S klasse bedrijfsauto nemen. Vraagd de belastingdienst dan ook waarom ik een s klaase nodig heb?
Dat is natuurlijk niet wat je eerst zei :)

Met betrekking tot het voorbeeld van de auto's. Wat ik altijd begrepen heb: de belastingdienst gaat niet over hoe jij je geld uitgeeft (lees hoeveel), maar alleen of het volgens de regels gaat. Wil je de kosten zakelijk opvoeren, moet je aan de voorwaarden voldoen. Of dat nou een Ferrari of een Fiat is, als jij het geld wil uitgeven moet je zelf weten.

Terug op je videokaart. Mijn persoonlijke inschatting zou zijn dat het wel mogelijk kan zijn. Stel je werkt er 8 uur per dag op en gamed 4 uur per dag, dan kan je 33% bijvoorbeeld als prive aanmerken in je boekhouding. Maar nogmaals doe lekker wat je wil en vraag vooral advies van een echte adviseur ipv deze beunhaas :P
Ik maak 3D animaties en render deze op de GPU. Op het moment heb ik een 4090 en als ik aan het renderen ben is die 80% op vol vermogen aan het renderen. Ik reken de kosten simpelweg door aan mijn klanten. Ik gebruik deze PC ook voor mij race-simulator met 3x 2560x1440 schermen 164hz. En daar is deze krachtpatser ook uitermate geschikt voor.
Het zou me niet verbazen (zeker van een tent als Nvidia) dat "total board power" lager ligt dan iets als max/peak board power. Dus als je em volledig aan het gebruiken bent voor waar ie voor gemaakt is, dan zou die 600W best eens kunnen kloppen.

Of ik praat onzin, dat kan ook. Maarja, dat weten we pas zeker als de benchmarks komen. En daar staat zonder twijfel een heel dik embargo op tot de letterlijke seconde van release.
Hele wereld moet over op led, diesels worden overal verbannen, maar de pc wereld is een ware strijd gaande wie de snelste hardware kan produceren.

De wereld politiek zou moeten ingrijpen en tegen hardware producenten caps moeten geven, cpu mag maximaal 65w verbruiken, gpu 150w en binnen die kaders moeten ze maar gaan innoveren.
Nee bedankt zeg..

Los van dat je de dingen die je noemt en computer hardware totaal niet kan vergelijken, is dit sowieso geen probleem want in 9 van de 10 computers zullen goedkopere en zuinigere kaarten/processoren in zitten.
Ook draaien computers uiteraard niet 100% van de tijd op hun uiterste vermogen, eerder 0,1% van de tijd.. Elke generatie kaarten mag dan tegenwoordig wel meer stroom verbruiken om topsnelheid te behalen, maar de lichtere taken worden alleen maar steeds en steeds efficiënter

[Reactie gewijzigd door Ospo op 22 juli 2024 19:22]

Hij heeft weidelijk een punt. Goedkopere kaarten zijn relatief gezien helemaal niet zoveel zuiniger.

Neem de 6700XT serie, populaire kaart van AMD. Flink langzamer, verstookt alsnog 200W. Waarom? Op hardware is gespaard en het ding wordt naar z’n top geklokt.

Regelgeving voor verbruik zorgt voor innovatie omdat men dus niet ongestraft extra voltage en een hogere kloksnelheid in kan zetten om kaarten volledig buiten hun efficiëntiecurve te laten lopen.
Een 4090 Ti is inderdaad een beetje de supercar onder de grafische kaarten. Dikke V12 stoot ook meer uit dan de doorsnee 4 pitter, maar over het geheel maakt het weinig uit.
Niet in de hele wereld worden diesels verboden of ben je verplicht om led verlichting te nemen, bij lange na niet.

Bovendien is het zinloos om naar het wattage te kijken, je moet naar de prestaties per watt kijken en dat is bij de 4090 hoger (dus beter) dan zijn voorganger.
Juist als je een cap op wattage zet gaan ze sleutelen aan performance per watt. Nu persen ze die laatste performance met heel veel extra verbruik eruit.

Hele autowereld zie je het toch ook? We hebben tegenwoordig dikke vrij snelle auto's die een stuk minder verbruiken dan een auto met de zelfde ruimte en specs van 15 jaar geleden?
oja is dat wel zo? { Bovendien is het zinloos om naar het wattage te kijken }
klein voorbeeld...kijk is wat de wetgeving in de EU heeft gedaan met de stofzuigers.

[Reactie gewijzigd door noway op 22 juli 2024 19:22]

Dan moeten datacenters 3x zoveel hardware gebruiken om dezelfde capaciteit te bereiken.

[Reactie gewijzigd door Wolfos op 22 juli 2024 19:22]

De wereld politiek zou moeten ingrijpen en tegen hardware producenten caps moeten geven, cpu mag maximaal 65w verbruiken, gpu 150w en binnen die kaders moeten ze maar gaan innoveren.
De wereldpolitiek bestaat niet, maar de EU zou dat kunnen.

Is ook precies voorspelbaar wat er dan gebeurt. De 4090EU verbruikt dan precies 150W. Het is exact dezelfde AD102 chip, maar met een zwikje CUDA Cores disabled in de driver en verder een wat conservatievere power setting.

En elke tweaker weet hoe je de non-EU driver kunt gebruiken voor de 4090EU. Maar omdat het een kunstmatige marktsegmentering is, kan NVidia wel 50 euro exta vragen.
Waarom komt Nvidia niet meer met iets uit voor de budget bouwers?
RTX 2000 had geen 2050. RTX 3000 had geen 3050.
En er komt zeker geen 4050 / 4050TI?
Alleen maar high end geweld. Niks voor de casual gamer zonder een mega budget.
  • Graphics Card RTX 3060 Ti
  • Bandwidth (GBps) 448
  • TGP (watts) 220
  • Launch Date Dec-20
  • Launch Price $399
$329 voor de non-ti

Can blame Nvidia for a lot, maar dat kaarten voor dubbele MSRP verschenen had niemand zien aankomen ;)

[Reactie gewijzigd door ViPER_DMRT op 22 juli 2024 19:22]

3050 bestaat toch gewoon?
Ik stook electrisch met een 1000Watt kachel in mijn kantoortje in Noorwegen. Kan ik mooi de kachel uitzetten als ik deze koop.
En naast je Office documenten bewerken nog wat coins minen om ook daadwerkelijk die 1000 wat te verbruiken.
Toch is het goedkoper om die kachel te behouden :)
Er wordt her en der gezegd dat hij een 'max' krijgt van 800Watt en een tdp van 600Watt. Dus als je het vermogen slidertje in Afterburner naar rechts zet, dan mag je gaan oppassen met je 1000Watt voeding.
daarom wil ik voor de volgende PC ook een 1600 watt voeding :P 8)7
mijn idee , de tdp's van tegenwoordig gaan we ook gewoon 3x overheen .
Die externe e-gpu's waren voor laptops dus echt geen gek idee blijkt nu .
Ik zeg niet snel van "hier heb je niets aan", een RTX4090 ondanks zijn notoire verbruik kan zeer nuttig zijn voor o.a. render en AI werk (zeker aangezien de voormalige Quadro reeks nog niet is bijgewerkt vanaf Ampere). Echter 150W extra verbruik voor een slootje extra CUDA cores en extra geheugenbandreedte... dat komt toch gewoon ook echt niet uit?

Op dit item kan niet meer gereageerd worden.