Youtuber: onuitgebrachte Nvidia Titan Ada blijkt efficiënter dan RTX 5090

Youtuber der8auer heeft een prototype van Nvidia's onuitgebrachte Titan Ada-videokaart getest. Eerder verschenen al afbeeldingen van de vermeende RTX 4090 Ti of Titan met een soortgelijke quadslot-gpu-koeler, maar nog nooit met de Titan-merknaam erop.

De Duitse overklokker toont aan hoe groot de Titan Ada is in vergelijking met zijn kleinere broer, de RTX 4090. Het prototype bevat gouden accenten en de naam 'Titan' op verschillende plaatsen. Bij eerder verschenen prototypes ging het om zilver en was 'Titan' niet aangebracht. Een ander opvallend verschil is de tweede 12Vhpwr-connector. Het gaat in beide gevallen om een quadslot-gpu-koeler met drie fans, waarbij de pcb negentig graden is gedraaid en evenwijdig met het moederbord loopt.

De Titan gebruikt de volledig ingeschakelde AD102-gpuNvidia Titan Ada Prototype met 18432 CUDA-cores, ofwel 12,5 procent meer dan de RTX 4090. Ook de hoeveelheid videogeheugen is verhoogd van 24GB naar 48GB GDDR6X, met dezelfde 384bit-bus. Het stroomverbruik is met 450W eveneens identiek.

Der8auer testte de Titan Ada in verschillende 3DMark-benchmarks en games, al werkt de oude driver niet altijd even goed. In workloads met rasterization, zoals 3DMark Time Spy Extreme GT1 en Remnant 2 en Cyberpunk 2077 op 4k-resolutie, bevindt de gpu zich nagenoeg lijnrecht tussen de RTX 4090 en RTX 5090. In 3DMark Speedway, waarbij de nadruk ligt op raytracing, ligt de Titan veel dichter bij de RTX 4090. Het Blackwell-vlaggenschip is ongeveer een derde sneller in deze test.

Het prototype blinkt vooral uit op het gebied van efficiëntie: de youtuber stelde vast dat de Titan Ada in Cyberpunk 2077 3,5 procent meer fps per watt behaalt dan de RTX 5090 en 5 procent meer dan de RTX 4090. Ook de geluidsproductie zou zeer laag zijn dankzij het gebruik van de grote koeler.

Het is niet bekend waarom Nvidia uiteindelijk besloot om de Titan Ada niet uit te brengen. Der8auer vermoedt dat het prestatieniveau een factor is. De gpu is namelijk grofweg gepositioneerd tussen de 4090 en RTX 5090, waardoor laatstgenoemde daarom minder indrukwekkend zou lijken. Mogelijk had ook het gigantische formaat van de koeler een impact op de beslissing.

Door Idriz Velghe

Redacteur

12-05-2025 • 08:42

95

Submitter: CriticalHit_NL

Reacties (95)

95
95
27
0
0
58
Wijzig sortering
Wat ik me af vraag en dat zullen we komende maanden zien is hoe zitten al deze mensen met een 4090, 5090 etc te gamen in de zomer , dat moet gewoon sauna principe zijn.

Ik game nu soms op een 4060 Laptop kaart en die doet 300W maar de temperatuur in de kamer loopt hard op en dan grijp ik vaal al snel terug op me desktop met een 1060 die overigens bijna alle games nog gewoon doet maar dan blijft de temperatuur behapbaar.

Of zit iedereen met zijn stille cpu koeler en GPU koeler naar een ronkende airco te luisteren om zijn kaart en kamer koel te houden.
hoe heb je dat voor mekaar gekregen een laptop 4060 is capped op 175 watt zover ik weet
Omdat dit het hele systeem is, GPU, CPU, RAM etc. Niet enkel de videokaart natuurlijk, dat bestaat niet in een laptop.

Edit: Een 300W slurpende GPU bestaat niet in een laptop, wel 300W+ trekkende laptops.

[Reactie gewijzigd door Tijgert op 12 mei 2025 11:20]

Zelfs dan krijg je dat normaliter niet voor elkaar en zeker niet sustained. Ik heb hier bijv. wat Laptops staan met een veel zwaardere configuratie dan een 4060 met bijpassende Intel cpu uit die tijd en het zwaarste powerbrick dat erbij zit lijkt 230W te zijn, en normaal gesproken is het maximale verbruik op battery dan nog flink wat lager.

Zelfs als je de meest slurpende combo van het moment pakt (Intel 285HX met een RTX5090 Mobile) zit je net boven de 300W max turbo power als je de GPU en CPU beide 100% zou kunnen belasten voor een paar seconden (iets wat normaliter niet gaat vanwege firmware en koeler beperkingen).
Ik heb een laptop met een 4090 en 13900HX, alles overclocked en hoewel de powerbrick officieel 330W is trek ik pieken van ruim boven de 360W. Korte pieken maar wel meetbaar boven 360W.
Dus 300W is echt geen unicum.
Ja, maar een 4090 vs 4060 is wel andere koek, ook bij laptop.
Ik reageer op Dennism die stelt dat zijn voorbeeld laptop, die ook geen 4060 is, amper boven de 300W uit komt.
Hij stelt dat dat niet zo snel gebeurt, maarf dat is dus niet correct uit eigen ervaring.
Ik vergelijk niet incorrect met een 4060, dat zeg ik ook nergens.
Dan heb je waarschijnlijk een laptop van een fabrikant die Nvidia's en Intels default spec niet volgt, zie ook mijn uitleg hier: Dennism in 'Youtuber: onuitgebrachte Nvidia Titan Ada blijkt efficiënter dan RTX 5090'

Nvidia specs hier: https://www.nvidia.com/nl-nl/geforce/laptops/compare/
Intel specs: https://www.intel.com/con...0-ghz/specifications.html

Een 13900HX is namelijk een CPU die normaliter binnen de default spec een maximaal verbruik heeft van 157W voor 56 seconden, waarna deze terug zou moeten zakken naar +-55W, en de RTX4090 Mobile is een 80 tot 150W kaart, afhankelijk van de configuratie dus met een 13900HX en de duurste RTX 4090 Mobile zou je, net als in mijn voorbeeld op een maximaal verbruik moeten zitten van +-310W bij een kortdurende volledige belasting wanneer de fabrikant de guidelines van Intel en Nvidia volgt (afgezien van transient spikes van <10ms)

[Reactie gewijzigd door Dennism op 12 mei 2025 15:00]

met een mobiele 4060 en een i7 (middenmoot) in de laptop heeft deze acer wel degelijk een 320watt voeding erbij zitten, zondra extra koeling smelt het toestenbord in games zowat dus dat het die 300 aantikt lijkt me aanemelijk (star citizen belast alles max)
Dat zou, tenzij Acer een loopje neemt (wat fabrikanten wel eens doen) met Nvidia's en Intels specificaties, niet mogelijk moeten kunnen zijn, tenzij ze af fabriek niet de default specs volgen. Immers de meest slurpende i7 van die generatie (i7 14700HX) heeft een maximaal verbruik van 157W voor 56 seconden, waarna dat terug moet vallen naar 55W als de aanbevolen default instellingen gevolgd worden.

Zie ook: https://www.intel.com/con...asheet-volume-1-of-2.html pagina 107

Combineer dat met een 35 tot 115W RTX4060 en je zit aan een config die worst case 272W kan verbruiken tijdens een korte boost, maar daar sustained nooit langere tijd aan mag komen zolang je de specificaties volgt (heeft de gebruiker, of de fabrikant de boel overklokt of anderzijds niet binnen default spec draaien kan dat natuurlijk anders zijn). En dan moet je dus de duurste HX variant hebben van de i7, als je inderdaad maar een middenmoot i7 (bijvoorbeeld de H variant in 13th gen, of de Meteor Lake H varianten) hebt is het maximaal 115W voor 56 seconden, zie pagina 108.

[Reactie gewijzigd door Dennism op 12 mei 2025 13:23]

aaah snap hem nu staat er wat onhandig voor mijn gevoel maar dat is wel logisch ja
Lijkt me sterk, de laptop versie van de 4060 presteert identiek op 100w vs de maximale 140w.
Lijkt me sterk dat die identiek presteert aan de desktop kaart met ook nog eens minder vermogen. Wellicht voor korte duur, maar laptop koeling is meestal niet zo best en met langdurige sessies zal die laptop 4060 veel sneller gaan throttlen.

Dit zie je op smartphones vaak goed waar de beter gekoelde telefoons langer hogere kloksnelheden aan kunnen houden dan de minder goed koelende telefoons.

Een laptop koelertje zal simpelweg nooit beter presteren dan een grote 120/140mm fan.

Dat we ver gekomen zijn zal ik zeker niet ontkennen, persoonlijk vind ik het überhaupt al een achievement dat we tegenwoordig 4090's in een laptop weten te krijgen. Maar ik kan niet geloven dat een 4060 laptop variant hetzelfde presteert als de desktop variant (ik kan er naast zitten gezien ik zelf al zeker 14 jaar geen game laptops meer heb aangeschaft, maar uiteraard zou ik dan graag bronvermelding zien)
Als ik een uur Indiana Jones heb gespeeld op de 5090, dan is mijn kamer van pak 'm beet 6 m2 flink opgewarmd, ja. Als ik mijn kamer uitstap,dan is het op de overloop een stuk koeler. Op een warme zomerdag zal het inderdaad onhoudbaar warm worden tijdens een gamesessie.
6 m2, dat klinkt echt wel als een verdomhoekje voor de gamer.
Dat is 2 bij 3 meter, wat niet uitzonderlijk is voor een derde of vierde slaapkamer in een typisch rijtjeshuis.

Ikzelf heb een kamer van 2.10 bij 2.60 voor mijn setup, wat neer komt op 5.46 m2.
Is een gemiddeld thuiskantoor ook niet zoiets? Niet iedereen heeft een huis van 200m2 he
Ik ook niet, ik heb geloof ik 160 m2 ofzo. Maar 2 bij 3 voor een kamer klinkt zo klein. Maar dat is maar mijn mening.
Maar is zeker bij corporatie woningen jaren lang standaard geweest, zeker in jaren 60 70 flats. En is met een beetje goede inrichting prima doenbaar ;)
Het voordeel van een hele dikke kaart als een 5090 is dat je hem zover kan limiteren en toch nog zeer goede performance kan behouden met een lage wattage en lekker kan gamen. En ja ik heb een Airco. Maar ook zonder heeft dat ding genoeg koelvermogen op 600W.
Is dat op de RTX5090 echt zoveel beter geimplementeerd?

Ik kan mijn RTX3080 limiten of undervolten wat ik wil, maar puur dat de SoC powerstate en geheugenbus wordt aangeslingerd voor een 3D scene betekent dat het kaart verbruik met tientallen Watt's stijgt. Onder de 150W kom ik niet.

In absolute zin zal een FPS limit inderdaad het verbruik in absolute zin naar beneden halen. Wil ik dan echt efficient zijn op zo'n kaart in FPS/W, dan moet ik de kaart z'n vrije loop laten gaan om het hoge idle verbruik te overstijgen. Ik vermoed dat een lagere tier kaart, in achtneming van de frame limit, dit efficienter had gedaan.

[Reactie gewijzigd door Hans1990 op 12 mei 2025 10:35]

Tja elke videokaart is weer net wat anders met hun curves e.d. dat het was lastig te vergelijken is.
Ook omdat de idle-clocks vaak verschillen per kaart, maar je zit natuurlijk ook met heel andere specs te vergelijken.

Een krachtigere videokaart heeft gewoon veel meer resources over om hetzelfde te doen dan een jarenoude of veel tragere videokaart die hard aan de bak moet blijven gaan, vaak met dubbel verbruik, om het hetzelfde te kunnen bewerkstelligen.

De undervolts kunnen natuurlijk wel behoorlijk helpen met minimaal verlies van performance, maar wil je het echt verder omlaag brengen zul je gewoon fps moeten inleveren.
Gelukkig is een veel krachtigere kaart zoals de 5090 veel beter in staat dan b.v. een 1080Ti of 4060 equivalent op een veel lager wattage toch nog betere performance te bewerkstelligen.

De 5090 draait hier overigens momenteel met zo'n ~60-130W lager verbruik a.d.h.v. de workload, het ene spel zorgt op 99% GPU ook niet op 5K resolutie o.i.d. voor dezelfde powerdraw dan de ander. Steel Nomad DX12 kan zo bijvoorbeeld nog 540W verbruiken terwijl AC Oddysey op Ultra in 5K dan prima afkan met 250-350W en dan pakweg 100W bespaard op stock of zelfs undervolt overclock.

Je kan ook met Nvidia Inspector Multi Monitor Energy Saver tool de kaart op 2D kloks forceren, ja dan verlies je een hoop performance, maar je behoudt een enorm lage power draw, maar nog altijd stukken betere performance dan dat je ditzelfde op een 1080Ti / 4060 o.i.d. zou doen, dan zul je wel de instellingen moeten terug schroeven voor enige speelbaarheid.
Fps limiteren doet al veel.
Heel nieuw zal dat niet zijn vermoed ik, immers de 4090's zijn al enkele jaren op de markt, en mensen kunnen dus prima weten hoe zo'n kaart in de zomer presteert. Maar ja, een kaart die continu 450W of 600W verbruikt doet inderdaad wel wat voor de omgevingstemperatuur, zeker als het warm is. Gelukkig dan ook dat die kaarten dat soort waarden in de meeste games niet continu aantikken. Maar het is inderdaad wel iets om rekening mee te houden. Je moet de capaciteit hebben om zo'n GPU te koelen.

Een laptop 4060 die 300W doet vind ik dan wel weer vrij speciaal, aangezien die een door de OEM instelbaar max verbruik zou mogen hebben van 35 tot 115W, met een maximale tijdelijke 'boost' tot 140W (maar die hoort alleen inzetbaar te zijn als de CPU het niet zwaar heeft en de koeling dus overschot heeft.
Mijn laptop met een 4050 is al uitgerust met een 240W voeding en daarvan trek ik af en toe 220W aan.

Dus met een 4090 of een 5090 zal 300W geen probleem zijn
Dat wordt inderdaad een sauna. :) Ik heb het opgelost door mijn pc in een andere kamer te zetten en met een "USB over UTP" en "Displayport over fiber" verlengkabel de boel aan te sluiten in mijn werkkamer.
Overdrijven is ook een vak.
Of je zit in een heel klein kamertje.
In een kamer van pak hem beet 10m2 merk je 300W al, laat staan een 4090 of 5090, zeker zomers als het al warm is.
In de winter is het geen probleem, hoef je je kamer minder te verwarmen.
Ik zit in een kamer van 12m2 en ben overgestapt van een 3070 naar 4070 een tijdje terug. Wanneer ik game dan wordt het merkbaar warmer in de kamer. In de winter was het voldoende om de kachel hier half dicht te draaien omdat het anders te heet werd. Dus je merkt zeker wel een verwarmend effect van deze kaarten.
Ik heb mijn RTX 5090 onderklokt:
2932 MHz bij 955 mV, met temperaturen rond de 42°C /49°C
Kan nog wat warmte weg houden, + wat besparen op stroom.

Het is sowieso slim om je te verdiepen in undervolting en underclocking — het kan flink schelen in temperatuur, stroomverbruik én geluidsniveau, erg handig voor de zomer periode

https://ibb.co/NnrKjWCq
Goede airflow helpt ook in je kast. Lekker wat 14cm fans goed alles laten "doorluchten".
Dan heb je nogsteeds dezelfde hoeveelheid warmte die geproduceerd word, alleen warm je dan sneller je ruimte er mee op (waardoor de kaart zelf koeler blijft)
Dat laatste is technisch waar... Maar echt maar een heel klein beetje sneller. Je kaart (inclusief koeler) warmt op tot een punt dat het temperatuur verschil groot genoeg wordt dat hij met de mindere airflow toch alle energie kwijt kan. Zodra alles binnen in je kast niet meer verder opwarmt komt er evenveel warmte uit je kamer in. Als dat niet zou gebeuren dan zou de binnenkant van de pc steeds warmer moeten worden. Het enige verschil is dus als je met betere airflow sneller het equilibrium bereikt hebt.

Uitzondering is natuurlijk als de boel gaat thermal throttlen en het zou ook nog kunnen dat hij om te beginnen al wat minder hoog klokt en daardoor minder energie in warmte omzet.
Het is jammer dat alles tegenwoordig factory overclocked is terwijl ze 15 jaar geleden gewoon op het meest efficiënte punt geleverd werden en flink overclocked konden worden (al dan niet met shunts om de power cap te omzeilen).
Hele lange HDMI kabel naar een andere kamer :+
Of met een Moonlght achtige constructie streamen naar de woonkamer, bijvoorbeeld.
Waterkoeling in de kruipruimte met een 3x360 rad en een tafelventilator.
En wijzelf zijn ongeveer 50 Watt aan warmte ook. (Niet onbelangrijk) Indien er bezoek is en we zijn met 7 warmt de living van 40m2 ook op (BEN huis).
Mensen produceren gemiddeld 100W aan warmte.
Ik heb dan geen xx90 kaart maar een 7900XT, maar die kan er ook wel wat van. Mijn pc staat in de huiskamer in een appartement op de begane grond, met kelders onder me. Mijn appartement is dus vrij goed geïsoleerd, maar een heel klein deel heeft contact met de buitenlucht, en mijn huiskamer kijkt uit op het noorden. Het duurt dus erg lang voordat het echt warm wordt binnen door warme buitenlucht. Aangezien ik dus niet in een klein kamertje zit maar in de huiskamer (met open keuken) warmt het ook niet echt zo snel op van mijn pc. Als we echt in een dikke hittegolf zitten dan laat ik de pc inderdaad liever uit (lang leve de steam deck dan), maar dat is over het algemeen maar een paar weken, misschien een maand of twee als we echt een warme zomer hebben. De rest van het jaar is het echt geen probleem.
edit: dubbelpost

[Reactie gewijzigd door Unomomentodado op 12 mei 2025 10:32]

Ik heb sinds een jaartje split airco van mitsubishi, die hoor je bijna niet ;)
Voordien gamede ik op bepaalde momenten bewust niet in de zomer, gewoon om het huis niet verder op te warmen. Nu gaat de airco gewoon aan, of harder.
(in de zomer is het sowieso minder, maar af en toe zijn er momenten dat er op TV niet veel te beleven valt :Y) )

Maar 450-500'ish Watt voor een gpu alleen begint ook een beetje zot te worden.

@derooke Ik dacht dat de warmteafgifte ongeveer maal 2 is (+- 100w) per persoon

[Reactie gewijzigd door TiezZ_BE op 12 mei 2025 10:38]

In exact dezelfde setup is mijn MSI RTX 5090 Vanguard gemiddeld gezien zo'n 10°C koeler (tijdens het gamen) dan mijn vorige kaart (een MSI RTX 3080 Suprim X 10G).
Dat is mooi, maar dat wil niet zeggen dat hij minder energie verbruikt. Als de koeling beter is kan de CPU koeler blijven terwijl er toch meer energie omgezet wordt in warmte. Die warmte wordt dan alleen sneller afgevoerd. Jouw kamer in. Waar het dus warmer wordt.
Je kaart zelf is koeler, maar aangezien er meer verbruik is van je nieuwe kaart zal die extra warmte dus de kamer in gaan en is er dus sprake van meer warmte in de ruimte. Een 3080 verbruikt minimaal 200W minder dus die stoot ook minder warmte uit.
Niet dat ik een 4090 of 5090 heb, maar mijn 3080ti kan er ook wat van zonder undervolt. Ik gebruik nu standaard een undervolt/clock van 0.900v 1930mhz. Met dit profiel zit ik op eind 60c op volle belasting. Op de default tikt deze kaart makkelijk 80c aan.

Ik heb in Afterburner naast dit profiel nog een "zomerprofiel" gemaakt waarbij ik hem redelijk ver terugklok op een mooi laag voltage. Heb zo de nummers niet scherp maar vgm scheelt het me nog een keer 10-12c waarbij die niet eens in de 60c komt.
In de zomer begrens ik vaak mijn framerate. Ik heb een al wat ouder beestje (Radeon RX 6900 XT) maar ook die wil aardig wat stroom slurpen als hij zin heeft. Ik zit met mijn pc op zolder, dus in de zomer kan het hier ook aardig warm worden. Dan neem ik gewoon genoegen met het begrenzen van mijn games op bijvoorbeeld 60fps of wat meer, ligt er aan hoe zwaar de game is. Dan hoeft de GPU niet volle bak te werken en blijft hij tamelijk rustig. Ook zonder die begrenzing vind ik het herrieniveau nog aardig meevallen, maar ik heb ook wel wat tijd en moeite in de airflow van mijn pc gestoken. Ja, alles luchtgekoeld. Geen zin in geklooi met een AIO :P
Een 4090 trekt amper 350watt full load in de meeste games.
Als je 3000 euro voor een videokaart kunt betalen dan zal 1500 euro voor een airco ook wel lukken toch?
Ik game nu soms op een 4060 Laptop kaart en die doet 300W maar de temperatuur in de kamer loopt hard op en dan grijp ik vaal al snel terug op me desktop met een 1060 die overigens bijna alle games nog gewoon doet maar dan blijft de temperatuur behapbaar.
Weet je heel zeker dat de totale geproduceerde warmte van je desktop minder is dan laptop bij hetzelfde gebruik? Dat lijkt me namelijk niet aannemelijk. Mocht het zo zijn dan is het wellicht 100W en die ge je echt niet merken een een kamer.
het is echt dag en nacht verschil tussen bijde. momenteel met desktop blijft het rond de 21 graden, en met de laptop gaat het meteen richting 24-26 graden.
Als je 5090 undervolt en 80% power limit dan is de preformance 4-5% slechter als orgineel. Wel zakt je verbruik van 490-520 watt gemiddeld naar 310-350 watt. Dan is ie behoorlijk efficient door zijn zeer goede koeling blijft ie onder 65 graden met maar 30% fan speed met 100% load.
Maar dan zit je dus bijna op de performance van een 4090.
Een vaste airco met buitenunit maakt nagenoeg geen geluid zodra de kamer op temperatuur is.
Even een investering maar is waanzinnig heerlijk.
Ook in de winter kan hij snel verwarmen als je wilt.
al niet ideaal voor performance natuurlijk, kan je als je wilt je gpu altijd limieten op hoeveel watt je zelf maar wilt.

Zo zou je kunnen kiezen om de graphics iets lager te zetten waardoor je niet of geen fps verliest, of iets minder fps voor lief nemen.
Ik zou persoonlijk Roman Harting eigenaar van onder andere Thermal Grizzly en inmiddels een behoorlijk bedrijf met werknemers, toch iets anders wegzetten dan enkel en alleen "YouTuber".
Jah, het is best bijzonder wat hij inmiddels heeft opgebouwd aan bedrijf. En ze weten ook nog eens waar ze mee bezig zijn, i.p.v cash grabs.
Hij doet echt onderzoek met zijn apparatuur en kennis.

Waar LTT vooral dingen doet wat meer op klungelen lijkt, puur als entertainment en kijkcijfers. Ook GN heeft aardig wat machines staan die meer stof bijten, maar is wel een beter kanaal dan LTT.
opzich zijn alle LTTstore producten van hoge kwaliteit, zijn schroevendraaiers en rugtassen hebben lovende reviews gekregen.
Lijkt me ook, maar helaas, wij EU zijn niet zo belangrijk, dus betalen we ons geel aan bijvoorbeeld een schroevendraaier van ze.
Statistisch gezien zijn wij ook niet heel belangrijk voor hun, alhoewel dat misschien wel meer gaat worden nu de prijzen voor Amerikanen omhoog zijn gegaan En behalve dat, ze zijn eigenlijk nog een MKB, dus het is niet gek dat ze geen Europees distributiecentrum hebben.
Exact mijn gedachten toen ik de tekst en de titel las. Maarja, "Youtuber" zal wel een hogere clickbait waarde hebben.
ik gok dat de schrijver gewoon niet weet dat hij vroeger een EOC-champion was en van daaruit TG heeft opgericht. :'(
Was Roman er niet later ingerold, nadat hij gestopt was bij Casekings ?
beide klopt blijkbaar:
Thermal Grizzly was founded in 2013 as a sole proprietorship by Dipl.-Inf. (FH) Wolf Eike Salow in Hamburg. In 2015, the first thermal paste was launched after Eike Salow entered into a collaboration with B. Eng. Roman Hartung (der8auer e.K.) for product development.

Eike and Roman merged from sole proprietors in 2020 to form the newly founded Thermal Grizzly Holding GmbH.
als ik die laatste afbeelding zo zie, dan is men beter af om een aparte kast voor de GPU te kopen. wat een ding zeg..
Hoezo dat, totaal geen issue voor tower kasten kunnen er wel 2kwijt.

Je let alleen geen mini kast hebben.

Mijn lian Li 2000 doet Al decenia Lang service aan full size pci kaarten en 12 hard disk 3,5"

Kwestie van eenmalig goede kast kopen
welke kast zou je aanraden? Ik heb nog een oude Antec GX505 uit 2012. Flinke kast, maar ik ga toch liever voor eentje die iets cleaner oogt*
kijk eens naar lian Li , Die hebben diverse full towers,

Mijn eigen is een PC 2000 maar die gaat al weer 15+ jaar mee.

Huidige model is de 3000 serie
https://lian-li.com/product/v3000-plus/
uitvoering: Lian Li V3000 Plus White GGF Edition
oof dat vind ik toch wel aan de prijzige kant voor een behuizing.

ik zit te kijken naar de Corsair FRAME 4000D zoals Tweakers' BBG heeft vermeld. Enige nadelen met deze kast mbt massieve videokaarten? ik wil voor de 5080 gaan (GIGABYTE GeForce RTX 5080 WINDFORCE OC SFF 16G, Grafikkarte (CHF 1.039,00))
tja beetje fatsoenlijke tower zit tussen de 200-400 euro. heb je wel een bijna full aluminium.

er zijn ook goedkope alternativen maar die zijn ook vaak niet zo uitgedacht en in de long haul zijn deze zelfs goedkoper.

De mijne doet het al 15 jaar dan was die 400 euro een koopje .
mijn Antec GX505 uit 2012 gaat ook al 13 jaar mee. Toegegeven, mijn 3770K i7 uit 2012 en 1060 6GB kaart zijn nu écht aan vervanging toe. maar ze gaan toch al dik 13 jaar mee en ik heb er heel wat uurtjes plezier in gestopt.

die Antec GX505 heeft mij destijds 90 euro gekost ofzo. ik vind rondom de 100-150 voor een kast meer dan genoeg.
Een echte Titan. Als het niet uitbrengen de andere kaarten in slecht licht brengen, is dat niet gewoon de schuld van NVIDIA doordat ze niet meer kracht kunnen persen uit hun huidige chipfabricators, enkel uit software? Een 4 slot kaart is natuurlijk wel erg extreem, maar als die zuiniger + vergelijkbare prijs is, is het weggegooid geld als fabricatie al op gang is gekomen.
4090 is niet in slecht licht gezet. Uit de video kan je zien dat de Titan er nog boven kon staan als topmodel. Zoals ze ook deden in oudere generaties. De Titan was altijd het topmodel in de reeks.

En nu ook met het volume die de naam eer aan doet.
Oeps, verkeerd gelezen. Heel eerlijk, het volume is wel het beste hier. Niet praktisch gezien, maar wel voor de absurditeit
Waarom heeft deze kaart met 450 watt zoon grote koeler nodig terwijl de 5090 met 600w kleiner afkan.

Ook leuk om te zien dat nvida hier 2power connectors gebruikt voor 450w en dan in de opvolger 1voor 600w.

Met die efficiëntie nummers is de 5090 echt een grote stap achteruit. / stilstaan.
Met die efficiëntie nummers is de 5090 echt een grote stap achteruit. / stilstaan.
Ik denk dat je vooral moet concluderen dat je op basis van 1 game niet kan bepalen welke kaart efficiënter is. Zeker niet zonder ook de andere variabelen te kennen, er zijn immers een boel workloads die (nog) niet alles uit de 5090 lijken te kunnen halen omdat bijvoorbeeld simpelweg de cpu (zelfs een 9800X3D) niet snel genoeg lijkt om alle cuda cores te kunnen voeden.

Er lijkt dus best een kans te zijn, net als dat je zag met de 7800X3D, 9800X3D en de RTX 4090 dat de 9800X3D toch weer meer uit een 4090 weet je persen in scenario's waarvan gedacht werd dat ze GPU bound waren. Dat zoiets ook straks gaat gebeuren als Zen 6 X3D uit komt en de 5090 ineens toch flink sneller blijkt te zijn dan dat men nu kan meten in bijv. gaming workloads.

Je ziet bijvoorbeeld ook in het filmje van Der8auer als je naar de Timespy resultaten kijkt de Titan ook iets efficienter is dan de 5090, maar bijv. in Speedway is de 5090 weer efficiënter.

Wil je dus echt bepalen welke wat de verhoudingen zijn in efficiëntie tussen de 4090, dit Titan prototype en de 5090 zou ik toch echt veel meer tests verwachten, en ook een veel gevarieerder testsuite. Denk aan niet alleen games of 3DMark maar ook een sloot Cuda applicaties.

[Reactie gewijzigd door Dennism op 12 mei 2025 10:13]

Ik vermoed omdat het een prototype is. Dat zie je ook bij veel andere prototypes, dat ze gewoon extra aansluitingen en capaciteit hebben, liever teveel dan te weinig.

Wie zegt ook dat 450W het doel was? Het is nogal wiedes dat hij efficienter draait met meer hardware ingeschakeld en zelfde power budget: Draai je een 5090 op een 450W power budget, dan is die ook efficienter. Dat er een 450W bios op zit, betekend niet dat ze nooit wat anders overwogen hebben.

Of zie de RX 9070 vs 9070 XT: De 9070 is veel efficienter, simpelweg omdat die op een lager power target draait op dezelfde hardware (nog wat extra uitgeschakeld ook).

[Reactie gewijzigd door Sissors op 12 mei 2025 10:42]

NVIDIA is niet meer wat het is geweest, die zijn helemaal van het padje af sinds de 40-Series.

Mijn volgende upgrade gaat geen NVIDIA meer zijn, tegen de tijd dat ik moet uppgraden zijn we weer 5 jaar verder en dan heb ik 20 jaar NVIDIA gebruikt.
Nouja, AMD is ook niet zaligmakend hoor, prijzen liggen ook in de burt van de nvidia kaarten wat betreft performance, en zuiniger zijn ze ook niet echt.
Steeds meer begin ik toch te vermoeden dat Nvidia dondersgoed wist dat de huidige opzet van de 5090 niet zou werken met oa de smeltende connectoren, maar gewoon door heeft gezet om wat centen te besparen. Verkopen doen ze toch wel, en anders kunnen ze meer productie gooien op server/AI-hardware.
Wat een blok van een kaart zeg, denk dat je in menig case tegen de PSU shroud aan zit.

-edit-: Wel een toepasselijke naam zo, Titan.

[Reactie gewijzigd door Juliuth op 12 mei 2025 08:49]

Totaal geen issue voor een full tower , Daar komt de PSU niet eens in de buurt van de Mobo en is meer dan genoeg ruimte voor 2 van deze titan kaarten.
Klopt, maar ik moet eerlijk toegeven dat full towers bij mij en de mensen voor wie ik computers bouw al aanzienlijk minder voor komen. Midi tower is eigenlijk steeds meer de keuze en dan daarna mATX. Even ballpark denk ik als ik zo kijk op de fotos in de pricewatch dat de Meshify van Fractal (case van mijn broertje) stiekem aan toch wel een beetje krap is. Zeker als je een "onhandig" moederbord hebt waarbij je de eerste PCIe slot van de case al moet overspringen.

Maar goed, deze kaart "bestaat toch niet" dus eind goed al goed :p
Sorry, maar wat bedoel je met 'even ballpark denk ik'?
Dat ik het niet helemaal goed kan inschatten op de fotos uit de pricewatch van de Meshify.
Duidelijk. Ik ben het met je eens.
Gisteren al kunnen bekijken idd,
de intro was helemaal geweldig met zijn kat Sheik in de spotlights.
Dat is Makita, Shiek is oranje.
Het is niet bekend waarom Nvidia uiteindelijk besloot om de Titan Ada niet uit te brengen. Der8auer vermoedt dat het prestatieniveau een factor is. De gpu is namelijk grofweg gepositioneerd tussen de 4090 en RTX 5090, waardoor laatstgenoemde daarom minder indrukwekkend zou lijken
Had het niet ook te maken met de professionele kaarten, dat de 4090 Titan daar teveel bij in de buurt zou komen maar daar een véél goedkopere oplossing zou zijn?
De RTX6000 vooral, die moest €10.0000 kosten terwijl een RTX4090 Titan daar onder zou zitten.
uitvoering: Nvidia RTX 6000 Ada
Tja de clock iets verlagen en je bespaart ENORM vel stroom. Mijn 6900XT is stock 325 watt full load maar als ik de clocks verlaag naar 2350 Mhz met een zeer magere 15mv undervolt gebruikt bij ineens nog maar 155 watt. Op 2250 Mhz is dat nog 10 watt minder.

Die laatste 200/300 mhz zijn gewoon ontzettend inefficient. Helaas is het met Nvidia niet zo makkelijk te undervlocken als met een AMD kaart waar het in de drivers kan (last i checked)


In feite kunnen ze een kaart maken met 2x zo veel cores als de 5090 voor 80% prestatie meer en dezelfde power draw of zelfs minder.
Al zijn de yields dan dermate belabberd dat de chip meer als 3x zo duur is om te maken.
Ook Nvidia kaarten ka ln je makkelijk undervolten. Dit kan met afterburner (MSI) of TweakUI (Asus) vrij makkelijk. Kwestie van een lijntje trekken en op save drukken.
Ja helaas moet je dan alleen constant 3rd party software draaien. Daar heb ik persoonlijk een pest hekel aan. Al die software bij elkaar is een enorme lading bloat.
Ze moeten inderdaad eens wat aan die koeling doen, kaarten zijn echt giga tegenwoordig. Vindt eens betere/kleinere efficiënte koeling uit of zo. Miljarden winst, monopolie positie en te beroerd om eens wat in koeling R&D te gooien.


Om te kunnen reageren moet je ingelogd zijn