Nvidia deelt meer details over RTX 5090 Founders Edition met compacte koeler

Nvidia heeft meer details gedeeld over zijn Founders Edition-koeler voor de GeForce RTX 5090. De videokaart bestaat uit drie afzonderlijke pcb's en een relatief compacte dualslotkoeler. Nvidia brengt de RTX 5090 op 30 januari uit.

De RTX 5090 Founders Edition krijgt een dualslotkoeler, bestaande uit twee heatsinks die met heatpipes 'verbonden' zitten aan een vaporchamber-koelblok voor de gpu. Daarbij bevat de videokaart drie losse pcb's, die met ribbonkabels met elkaar worden verbonden, zo bevestigt Nvidia in een video-interview met Gamers Nexus.

De primaire pcb zit in het midden van de videokaart en bevat onder meer de gpu, het GDDR7-geheugen, de benodigde vrm's en de 12-pinsaansluiting voor de stroomvoorziening. Die printplaat wordt bijgestaan door een pcb aan de zijkant van de kaart, waarop de DisplayPort- en HDMI-poorten zitten. Aan de onderkant zit een derde pcb. Die bevat de PCIe-connector waarmee de videokaart aangesloten kan worden op een moederbord.

Nvidia GeForce RTX 5090 Founders Edition-koeler via Gamers NexusNvidia GeForce RTX 5090 Founders Edition-koeler via Gamers NexusNvidia GeForce RTX 5090 Founders Edition-koeler via Gamers Nexus

Beelden van Nvidia's RTX 5090 FE-pcb's. Bron: Gamers Nexus (YouTube)

Het ontwerp met drie losse pcb's zorgt ervoor dat de twee ventilators lucht direct door de twee heatsinks van de videokaart kunnen blazen. Doordat die lucht niet wordt tegengehouden door een pcb wordt de airflow verhoogd, wat volgens Nvidia weer moet zorgen voor lagere temperaturen en minder geluidsproductie. Nvidia noemt dat ontwerp 'dual flow-through'. De voorgaande RTX 4090 Founders Edition had een 'single flow-through' ontwerp, waarbij één ventilator direct door de heatsink kon blazen, terwijl de lucht van de tweede fan op weerstand van een pcb stuitte.

Nvidia GeForce RTX 5090 Founders EditionNvidia GeForce RTX 5090 Founders EditionNvidia GeForce RTX 5090 Founders Edition

Bron: Nvidia

Volgens Nvidia is de nieuwe koeler voldoende om de RTX 5090-gpu te koelen, die beschikt over een standaard-tgp van 575W. De Founders Edition is door zijn ontwerp compacter dan de RTX 5090-videokaarten van andere fabrikanten. De Founders Edition is op het moment van schrijven bijvoorbeeld de enige RTX 5090-kaart die voldoet aan het SFF-Ready-programma van Nvidia, dat aangeeft welke videokaarten geschikt zijn voor gebruik in kleine pc-kasten.

Nvidia kondigde de RTX 5090 begin deze maand aan tijdens de CES. De kaart beschikt over een nieuwe Blackwell-gpu met 21.760 CUDA-cores en boostclocks tot 2,41GHz. De kaart krijgt daarnaast 32GB GDDR7-geheugen op een 512bit-bus, voor een totale bandbreedte van 1792GB/s. De RTX 5090 komt op 30 januari op de markt en krijgt dan een adviesprijs van 2369 euro.

Door Daan van Monsjou

Nieuwsredacteur

16-01-2025 • 19:26

109

Lees meer

Reacties (109)

109
103
28
2
0
65
Wijzig sortering
In het artikel wordt de vaak voorkomende misnomer ribbon cable gebruikt voor een flex PCB "kabel". In de video heeft de engineer van Nvidia het correct over flex PCBs.
Dit is een ribbon cable, en dit is een flex PCB.

[Reactie gewijzigd door Nycrea op 17 januari 2025 06:43]

heeft deze keuze door nvidia verschil voor de eindgebruiker?
Als je de kaart niet uit elkaar gaat halen dan is er waarschijnlijk geen merkbaar verschil tussen een enkel PCB en meerdere PCBs met interconnects.

Natuurlijk ga ik er dan vanuit dat Nvidia een adequaat ontwerp heeft gemaakt, maar hetzelfde geldt in het geval van een regulier PCB - ook hier kan een inadequaat ontwerp voor grote problemen zorgen.
"De RTX 5090 komt op 30 januari op de markt en krijgt dan een adviesprijs van 2369 euro."

Is dat echt zo? Ik dacht dat het iets van 2369 dollar was in Amerika en het nog niet bekend was in euro(pa)
Klopt, hier de prijzen van de NVIDIA FE kaarten:
  • RTX 5090 vanaf €2.369
  • RTX 5080 vanaf €1.190
  • RTX 5070 Ti vanaf €899
  • RTX 5070 vanaf vanaf 654
Bron (scroll helemaal naar beneden)
Reken hier al maar gerust €200 tot €400 bij voor de uitgaves van hardware leveranciers zoals MSI en ASUS
.

Vraag me af wat de prijs gaat worden van een RTX5080 Ti/Super later dit jaar.

Want die zou waarschijnlijk wel met 20GB of 24GB vram kunnen komen en lijkt me veel interessanter te worden in aankoop dan een RTX5080 met 16GB vram ..
Het is $1999 USD ex BTW in de VS.
Deze btw hoef je echter niet in alle staten te betalen en er zijn dus manieren om dat te omzijlen.
Als je families in de staat hebt, en er toch al op valantie ging.
DerBauer had al een video gemaakt waarin ze zelf een 3D model gemaakt hadden gebaseerd op wat ze in konden afleiden van de foto's en het lijkt erop dat hij het goed gezien had.

Ken wellicht niet genoeg van de materie maar het lijkt me toch raar dat ze alles over ribbon cables sturen naar aparte PCB's tegenover een standaard PCB. Ik snap wel dat het voor koeling makkelijker word maar waarom werd dit vroeger dan niet gedaan? Zoals ik zei, ik ken er wellicht te weining van om dit zomaar te snappen.
Ik heb even door de video heen geskimd maar dit soort PCBs met zowel aan de voor als achterkant veel componenten zijn duur om te maken. Het zijn extra productiestappen om twee kanten te voorzien van onderdelen en te solderen. Ook bijvoorbeeld een PCI-e connector op een apart PCB met board to board connector is duurder.
Het geheel zal waarschijnlijk iets duurder zijn door deze constructie. De reden waarom het waarschijnlijk de moeite waard is zal er mee te maken hebben dat kaarten als een 4090 nogal veel defecten hadden door mechanische stress. De PCI-e connector is een punt waar je makkelijk scheurtjes kunt krijgen bijvoorbeeld. naarmate de kaarten steeds meer energie verbruiken zullen ze zwaarder worden. Mogelijk dat het nieuwe koelerontwerp dit design mede gedreven heeft maar het lijkt me waarschijnlijker dat dit voor de betrouwbaarheid gedaan is.
Ik moest ook aan de vroegere dual pcb/dual gpu (in feite 3 pcb's met het SLi connector kaartje erbij) 7950GX2 videokaart van Nvidia denken.

Ik had ooit zelf een 9800GX2, die had géén pcb connector maar ook een ribbon (SLi) cable verbinding.
Correctie: waarschijnlijk een flex pcb, niet een ribbon cable.

[Reactie gewijzigd door HugoBoss1985 op 17 januari 2025 10:42]

Flashback door jouw post! :)
Ik had zelf de GTX 295 (slechtste koop ooit), beide gpu's waren iets lager geklokt dan een single gpu.
Als de dual gpu niet ondersteunt werd door een game, was de kaart langzamer dan een normale single gpu.
Waardeloos, sli heeft nooit echt goed gewerkt, was leuk voor benchmarks en games die het ondersteunde.
Dat was wel een hele interessante want die was er volgens mij in twee versies.

Eentje met 2 pcb's zoals de kaarten die ik noemde... en later eentje met één pcb en twéé gpu's.
Het was ook een interessante kaart, alleen in de praktijk werkte het niet zo goed vanwege gebrekkige ondersteuning van sli met games.
Ik had hem snel vervangen voor een single gpu die hoger geklokt was.
Die 9800GX2 van mij was ook de laatste keer dat ik een multi gpu/multi videokaart setup had.
Mijn ervaring met sli was hetzelfde.
In de tijd van games als Doom 3, Far Cry, FEAR en Half-Life 2 werkte het wel aardig en leverde het wat op.
Ik heb nog 2x 6600 non-gt kaartjes liggen, beide recapped en met 256mb ddr2 ram.
De eerste en meest basic sli setup die er was.
Daar ga ik ooit nog wel een retro bak mee bouwen met een A8N32 SLI Deluxe die ik er bij heb ;)

[Reactie gewijzigd door HugoBoss1985 op 16 januari 2025 22:40]

LOL in mijn retro bak zit een Geforce 256 + monster 3d kaart met een pentium 233 mmx en 8MB met een soundblaster awe gold voor wat ouwe dos games.
Goeie ouwe tijd pc opgestart in 5 seconde door gebruik van compackflash kaart naar ide opslag.
Die Pentium beperkt je Geforce 256 wel :P
Hier ook zoiets (die zit wel in elkaar maar staat te niksen op zolder) met Athlon XP3000, Voodoo 3 3000 en Audigy 2 kaart.
Ik heb ook iets gedaan van een IDE naar een SATA adapter en een SSD.
AWE Gold is mooi, daar ben ik wel jaloers op.
Wauw zo luxe een voodoo3, die monster 3d kaarten die ik hier heb zijn voodoo2 dacht ik.
Audigy 1 en 2 met 5,25 bay heb ik ook nog, waren ook goeie kaarten.
Beste koop was absolute die AWE gold kaart, daar heb ik zoveel plezier mee gehad.
Ging van een soundblaster 16 pro naar die AWE gold en wauw de muziek upgrade was dag en nacht verschil en speelde dagelijks met die midi demo muziek, mooie tijd.
Ik kon alleen maar verlekkerd meelezen bij verhalen van forumleden met een dergelijke bak, genieten die tijd! (en nu dus weer)

Destijds was het FPS boven alles. Ik denk dat je in tijden waar veel meer aandacht uitgaat naar framepacing en andere soorten stutters, oplossingen als SLI echt geen bestaansrecht meer hebben, hoe gaaf het technisch gezien natuurlijk ook was. :D

Wellicht dat de overstap naar LCD de techniek ook geen goed heeft gedaan.
Hoe bedoel je 3 pcb's?
De 7950gx2 bestaat uit 2 pcb's met de sli connector er tussen.(toentertijd nog 620 euro voor betaald en nog 1 van mijn retro componenten)
De meeste dual gpu's zitten op 1 pcb.
(zoals de eerste versies van ati en nvida, maar de allereerste was de Oxygen 402)
Ik bedoelde dat de connector dus ook een pcb is.
Drie pcb's zal duurder zijn dan één, maar componetent aan beide kanten komt toch wel vaak voor hoor, ook op video kaarten.
Tuurlijk komt het vaker voor maar het is wel duurder.
Ik werk bij een bedrijf wat PCB's bestucked voor klanten, grotendeels SMD (automatisch met machines).

Vrijwel alle producten zijn gewoon dubbelzijdig bestucked.

Uiteraard is het duurder omdat de PCB 2x door de lijn moet, maar op het totale kostenplaatje valt dat heel erg mee.
Die flat cables worden ook al jaren gebruikt in laptops en GSM's om verschillende poorten en pcb's te linken.
Ik vermoed dat ze het nu deden om het PCB zo compact mogelijk te houden om het in het midden van de kaart te kunnen positioneren, zodat hun nieuwe koeler design tot zijn volle recht zou komen.
De founders edition lijkt ook de enige 4090 te zijn die echt 2 slots wordt. Van de partners krijgen we weer 3 to 3.5 slots beesten van kaarten :)
Het kan tegenwoordig ook veel compacter op pcb's geplaatst worden. Als je ziet hoe dense bepakt de hele 5090 is tov. de eerdere rtx kaarten. Ding is bijna formaat bierviltje tegenwoordig.

[Reactie gewijzigd door Xfade op 16 januari 2025 19:49]

Waarschijnlijk kosten en geen noodzaak.
Nu, met '1 Jiggawatt', is het misschien de goedkopere oplossing.
Het zijn voornamelijk de kosten.
De printplaat zelf is compacter waardoor je meer lagen koper nodig hebt om alles te verbinden, ondanks het kleinere formaat zal deze duurder zijn.
Dan heb je ook nog alle kosten van flat-cables en de diverse connectoren.
Zelfs in grote aantallen verwacht ik dat een constructie zoals deze kaart al snel ~20-30 euro toevoegt aan de verkoopprijs t.o.v. een conventionele printplaat. Ik verwacht dus ook niet zo snel een constructie zoals deze in videokaarten onder de ~500 euro en met een TDP van minder dan 250W.
Dat niet alleen
Componenten verdeeld aan 2 kanten maakt het compacter.
Houd in de lengte van roundctrip circuit is ook korter als tracing is ook compacter. En dat is goed voor hoogfreqent gedrag lagere inductie en lagere EM . Meer layers helpt ook. Sowieso voor grote BGA chip heb je voor meeste ringen van BGA layer nodig
Het zijn geen ribbon cables maar flex PCB's. In feite zijn dit "gewoon" PCB's maar dan zonder de harde glasvezel plaat en in plaats daarvan een of meerdere vellen kapton. Ooit was dit redelijk exotisch maar tegenwoordig kunnen de meeste PCB huizen dit wel. Dus buiten het toevoegen van twee connectors aan beide uiteindes verandert er niet echt veel behalve wat extra kosten.
Ah ok, ik had ze in mijn hoofd vergeleken met de ribbon cables die je in laptops ziet om alles te verbinden en begreep niet dat zulke dingen geschikt waren voor de signalen die een GPU moet versturen en al zeker niet een 5090. Dank voor de uitleg!
ALs je de video van Gamers Nexus bekijkt, dan legt de engineer ook uit waarom het ontwerp is zoals het nu is.

De hoofd reden is dat ze heel erg de focus hadden op de koeling van de kaart, en de PCB moest daar omheen werken. Nu sprak Steve met de Lead van het koeler ontwerp team. (of iig van de 5090 koeler)

De ontwerpen worden daar aschroon ontwikkeld, dus het thermal team begint al met een koeler te ontwerpen door middel van zogehete heatplates not voor dat het PCB team een PCB heeft. Dit was nu met de 5090 dus ook gebeurd. en omdat ze de koeler zo klein mogelijk wilde maken moesten ze wat schuiven met de PCB en dingen op een andere manier mogelijk maken zodat ze de beste koeler konden maken in de formfactor die zij graag wilde.

Wat @bantoo aangeeft over de betrouwbaarheid is denk ik een positieve bijwerking omdat je nu dus inderdaad heel makkelijk de PCI-E connector kan vervangen, maar dit was zeker niet het uitgangspunt.

TL;DR: Koeler kwam eerst, PCB team moest er omheen werken. Ik raad zeker aan om de video te bekijken.
Staat nog op de planning om te doen, kijk er al naar uit om het te horen en zien.

Bedankt al aan iedereen voor de verschillende standpunten en redeneringen!
SFF-ready en dan met een blow through koeler komen.
Iedere sandwich layout case word een drama want je blaast 500w+ tegen de spine aan dus effectief zijn populaire cases als de Formdt T1, Fractal Design Terra en Lian Li Dan H2O onbruikbaar (of iig erg onhandig).
In cases met een klassieke layout zoals een Ncase, Coolermaster NR200, Deelcool CH160 heb je geen spine maar blaas je die 500w+ direct tegen je CPU koeler of bij een AIO lekker op je VRM’s en M.2 heatsink.

Fractal Design Ridge is dan wel handig, ene kant licht in, door de GPU en er weer uit :P

Maar verder behalve het formaat weinig SFF- ready imho tenzij je de fans van de kaart af kan laten blazen dus in de meeste gevallen de kast uit :p
Dan A4-H2O eigenaar hier. Ik ben hier benieuwd naar inderdaad. Nu zorgen m’n top fans voor genoeg uitlaat, denk ik. Maar ik vraag me af of het inderdaad genoeg is en niet voor problemen gaat zorgen met bv m’n ssd aan de achterkant op m’n moederbord. Nu met een 3090 FE vrij weinig problemen, maar die gebruikt ook een pak minder stroom…
Fractal Design Ridge staat PCIE4.0 bij. De rtx5090 is PCIE5.0 dus dat lijkt me vanuit dat opzicht dan onhandig?
Inderdaad. Voor de NCase M2 in een vGPU config zie ik nog wel kansen voor bottom intake en top exhaust maar of je daarmee voldoende airflow hebt om VRM/RAM ook redelijk gekoeld te houden blijft een uitdaging.
Aan de andere kant: max 575W aan warmte in je SFF case lijkt mij sowieso een uitdaging ongeacht de layout en de wijze waarop de fans zijn gemonteerd. :X
In de Form 1D gewoon de mid plate 1 stand verzetten zodat je meer ruimte hebt. Die 500watt blijft altijd in je kast hangen als je geen exhaust fans hebt, ook in de NP200 etc. Dat is echt niet anders in een full ATX of ITX.
Wat ik vooral ook noemenswaardig vind, en mis in het artikel, is dat hier Liquid Metal gebruikt wordt als GPU TIM.

Toch een knap/indrukwekkend staaltje koeltechniek in de vorm van een 2 slots grafische kaart met 575 watt tgp.
Ik ben benieuwd naar het toerental en aantal decibels.

[Reactie gewijzigd door HugoBoss1985 op 16 januari 2025 19:52]

Ik vind dat voor al dat geld ze van hun founders edition minstens een noctua edition mochten maken, ipv hun kaart uit te rusten met van die gierende fans.

[Reactie gewijzigd door klakkie.57th op 16 januari 2025 20:45]

Ik vind dat voor al dat geld ze van hun founders edition minstens een noctua edition mochten maken, ipv hun kaart uit te rusten met van die gierende fans.
De Noctua Editions in samenwerking met ASUS op de markt gebracht komen altijd enkele maanden later uit dan de andere versies. Meestal zijn dit de RTXxx70's en RTXxx80's die met Noctua koeling door ASUS worden uitgebracht en vereisen tot 4,5 / 5 slots die je kwijt bent in je desktop case.

Er is geen informatie dat er een RTX5090 met Noctua koeling op de markt zou komen
Ik heb een 4090 founders edition en die maakt nauwelijks geluid. Dus ik weet niet waar je die 'gierende fans' vandaan haalt, maar de laatste kaart was iig erg stil. Ik ga er vanuit dat de 5090 dat ook is.
In hen oa een 3070TI founders edition en die, ligt hier nu ongebruikt omdat hij gewoon teveel lawaai maakt onder load.
ik heb hem vervangen door een rtx3080 noctua “homebuild edition”
Naast dat het meer lucht kan doorlaten zorgt het denk ik ook voor betere repareerbaarheid van deze kaarten.
Kijk maar naar de "bekende" problemen bij o.a. Gigabyte videokaarten waarvan de PCB inscheurt wanneer de kaart te ver doorhangt of bewogen wordt in het slot. Al zijn die extra (interne) connectors misschien ook wel weer een extra "zwakke plek".
Nu nog een kaart met verwisselbare geheugenmodules en een verwisselbare VRM :+ :Y)

[Reactie gewijzigd door MineTurtle op 16 januari 2025 22:31]

... zorgt het denk ik ook voor betere repareerbaarheid van deze kaarten.
Bijna alle kabels zijn high speed interconnects (display, pcie e.d.). De meeste consumenten en ook tweakers willen daar helemaal niet aan zitten. Ik zie eerder meer kans op problemen en mogelijkheden tot falen/RMA dan bij een single PCB design, bovendien zijn die printplaten sowieso niet goedkoop, maar met een GPU van pakweg 2.5k is dat ook wel te verwachten. Het zal mij ook niets verbazen als een gedeelte van de normale kosten komen doordat er extra handmatige assemblage moet plaatsvinden bij deze GPU.
Mijn grootste ergernis is nog steeds dat de ontwikkeling van grafische kaarten gericht is op meer resultaat gebaseerd op meer wattage. Ik zie veel liever dat Nvidia, AMD en Intel zich focussen op het produceren van resultaten op niveau van de 4090 (om maar iets te noemen) met wattage. Maar helaas gaat dat niet gebeuren, want printplaten worden vol gedrukt met chips die we niet nodig hebben. Neppe fps door AI, verzonnen pixels door AI. Allemaal bloat.
"ik wil weinig verbruik hebben"
nvidia : 4060 , die verbruikt minder (100watt in games) dan de 3060, 2060 , 1660 en zelfs 3050 .
4060 die in cyberpunk even goed doet als een 3080 (300+watt)
Sommige tweaker "reee fake frames"
Raw power van de 4060 is ruim 30% lager dan dat van de 3080.

Kan je compenseren met DLSS3, maar niet elke game ondersteund dat en als je teveel framedrops hebt wordt het een zeer slecht aanvoelende ervaring. DLSS3 is een mooie technologie maar er zitten wel haken en ogen aan. Visueel is het vloeiender maar de input voelt niet altijd zo.
In zowat all visueel sterke triple A games(waar dit hierover ging) zit dat tegenwoordig wel in en buiten in competetive multiplayer of als je echt heel laag gaat in fps word latency een issue, vergeet niet dat DLSS SR of RR latency juist verbeteren.
Ik kan in de helft van de titels welke ik speel DLSS niet aanzetten of de resultaten zijn niet goed op mijn 4070RTX laptop welke gelijk presteerd aan een 4060 desktop.

De performance komt echt niet in de buurt van een 3080RTX.

Kijk naar Stalker 2 en Indiana Jones bijvoorbeeld. de input latency wordt echt heel slecht met DLSS3 aan en soms oogt het super smooth, andere keren heb je hard stutters (geen vram limitatie). Speel je Ghost of Tsuhima met DLSS3 aan, ja dan is het opzich nice, omdat de baseframerate al voldoende is.
Ik spreek van desktop, laptop gpu's zijn veel zwakker en ken ik niet .

YouTube: STALKER 2 RTX 4060 | 1080p - 1440p | Medium & High | DLSS & FG

Stalker 2 op een 4060 in 1440p DLSS quality : 55FPS met 20ms frametime.

Zet framegeneration aan(75 fps) en die latency zal grotendeels hetzelfde blijven en dus perfect speelbaar zijn.

En dat op een 4060 een kaart van 300 euro die 100watt verbruikt.
Ik spreek van desktop, laptop gpu's zijn veel zwakker en ken ik niet .
De laptop 4070 is de desktop 4060 (De laptop GPU is een heel klein beetje sneller).
YouTube: STALKER 2 RTX 4060 | 1080p - 1440p | Medium & High | DLSS & FG

Stalker 2 op een 4060 in 1440p DLSS quality : 55FPS met 20ms frametime.
Dit is een hele kleine slice van de game. Er zijn omgevingen welke veel zwaarder zijn. Nu zie je alleen de introductie welke dubbel zo vlot draait dan Pripyat. Je ziet dan sub 30fps op een 4060 met setting sop medium en DLSS op balanced.
laptop is een andere GPU dan een 4060 (AD 107 vs106) en zal dus games anders draaien, gemiddelde gezien zijn ze idd grotendeels even snel.

Omdat stalker 2 een buggy mess is zelfs 3090 heeft soms moeite in die gebieden.
Nogmaals 4060 is gewoon heel capabel EN verbuikt nog geen 100watt , onzin dus te stellen dat gpu fabrikanten(toch niet nvidia) louter performance krijgen uit meer verbuik.
4060 is lower end midrange. veel games draaien er echt niet geweldfig op en DLSS kan dat niet fixen vanwege de input latency. Dan kan je beter meer raw performance hebben in die situatie. Leuk dat het maar 100 watt verbruikt versus de 240 wat mijn undervolted 3080 doet. Als het echt zo goed zou zijn. zou ik vaker op mijn 4070 laptop variant gamen. Ja iets andere chip, zelfde architectuur en door het uitkleden van een desktop 4070 voor laptop gebruik bijna identiek aan een desktop 4060. Alleen wat meerr cuda cores wat gamen op hogere resoluties ten goede komt.
4060 is lower end midrange. veel games draaien er echt niet geweldfig op
Ik zou zeggen low end, maar welke games dan wel?
en DLSS kan dat niet fixen vanwege de input latency.
Ik denk dat je neit goed snapt wat dlss is , het is een verzamelterm van technieken waar sommige latency verlagen andere verhogen.
Betreft DLSS aangezien we het hier over frame generation hebben is puur DLSS 3.

Games welke niet echt lekker draaien op een 4060 en waar DLSS 3 de boel niet kan redden is Mechwarrior 5 Clans, Star Wars Outlaws, Black Myth Wukong oa.
DLSS 3 bestaat uit super resolution, Ray reconstruction, reflex frame generation ea.

En ik neem er de laatste uit:

YouTube: RTX 4060 - Black Myth: Wukong - Optimized Settings, Ray Tracing, DLS...

Kan zelfs path tracing aan in 1080p, latency blijft op een 30-35ms wat goed te doen is voor een single player game.
Wat bedoel je dus met "draait niet lekker" ?
DLSS 3 bestaat uit super resolution, Ray reconstruction, reflex frame generation ea.
No shit, maar los van frame generation ondersteunen alle RTX kaarten die functies van DLSS 3 ook.
Kan zelfs path tracing aan in 1080p, latency blijft op een 30-35ms wat goed te doen is voor een single player game.
Het is een single player game, waar alles draait om timing. En dan weer een video in de begin area welke het minst zwaar is. Tevens praten ze over frametime, niet latency. Dat is niet helemaal hetzelfde. Ik quote direct uit zin video "The input lag, is definitely worse, it's like 30fps input lag at this point actually". Iets waar je niet van de graphs ziet.

Visueel ziet er iets misschien 60fps er uit. De game logic wordt niet versneld Die draait dus nog gewoon op sub 60 fps. Jij mag dat misschien prima vinden, velen vinden dat niet.

[Reactie gewijzigd door Sn0wblind op 18 januari 2025 10:43]

No shit, maar los van frame generation ondersteunen alle RTX kaarten die functies van DLSS 3 ook.
Ja en? Het ging over de 4060 en idd die ondersteunt bijvoorbeeld super resolution dat latency verlaagt, net zoals reflex of RR dat doet . En SR & RR zullen je ook hogere FPS geven. Wat je dus zei klopt langs geen kanten.
Visueel ziet er iets misschien 60fps er uit. De game logic wordt niet versneld Die draait dus nog gewoon op sub 60 fps. Jij mag dat misschien prima vinden, velen vinden dat niet.
Velen merken dat niet omdat het niet belangrijk is. De meeste gamers geven niet om ene paar ms en diegene die er wel om geven zouden beter iets anders hebben dan een 4060 .

Dus neen weeral onzin dat dit game slecht speelbaar zou zijn, zelfs op 1440p op een budget kaart als ene 4060 is dat goed speelbaar EN met maar een 100watt verbruik.
In dat opzicht is de 4060 een fantastische kaart, de beste die gewoon uitgekomen is de laatste paar generaties.
Ja en? Het ging over de 4060 en idd die ondersteunt bijvoorbeeld super resolution dat latency verlaagt, net zoals reflex of RR dat doet . En SR & RR zullen je ook hogere FPS geven. Wat je dus zei klopt langs geen kanten.
Je haalt heel veel dingen door elkaar. Het gaat om het feit dat Frame generation als onderdeel van DLSS 3, de framerate visueel wel kan versnellen. Maar de game logic blijft op de oorspronkelijke snelheid draaien. Dit zorgt voor een input response welke niet matched wat je ziet. Het voelt stroperig aan.

DLSS3 Framegen is wel heel leuk als je basis framerate wel voldoended is. alle andere functies van DLSS3 zijn niet de onderscheidende factor op een 4060 want dat kan je ook inzetten op een 20 of 30 series kaart.
Velen merken dat niet omdat het niet belangrijk is. De meeste gamers geven niet om ene paar ms en diegene die er wel om geven zouden beter iets anders hebben dan een 4060 .
Het is juist een kritiek punt wat veel wordt aangehaald. Waar haal jij vandaan dat de meeste er niet om geven? De hele reden dat er zoveel pushback is gegeven op 30fps gaming versus 60fps. Dat high refresh rate monitoren zo populair zijn, is JUIST omdat gamers een vlottere response willen.

Wie zegt dat iedereen het geld heeft om beter te kopen dan een 4060? Of misschien kopen ze wel een 4060 om titles als League of Legends, CS2, Apex Legends etc te spelen welke niet meer vereisen?
Dus neen weeral onzin dat dit game slecht speelbaar zou zijn, zelfs op 1440p op een budget kaart als ene 4060 is dat goed speelbaar EN met maar een 100watt verbruik.
Je eigen videos, naast dat het amateuristische benchmark videos zijn van in beide games tutorial omgevingen, geven bij Black Myth notabene aan dat de input latency niet prettig is.
In dat opzicht is de 4060 een fantastische kaart, de beste die gewoon uitgekomen is de laatste paar generaties.
Een mening mag je hebben, maar het brengt de kaart niet op het niveau van een 3080RTX, waar je bij elke titel meer performance hebt, en bij de DLSS3 titels misschien afhankelijk van de titel visueel wel het aantal frames haalt, is het qua input response een 30 tot 40% slomere kaart.
Tja, ik niet en ik denk velen die dit soort kaart kopen ook niet. Ik wil gewoon meer performance.
Daar richten ze zich ook echt wel op, maar de klant, op mensen zoals jij na, willen dat de volgende generatie gewoon meer kracht toont, anders heeft het voor hun amper nut om te upgraden.
Als ze nu een RTX2060Super (mijn huidige kaart nog steeds) uit zouden brengen die maar een paar watt verbruikt, en verder geen ander nieuwer sneller model, zie ik geen reden om te upgraden, ondanks dat die bakken minder stroom zou verbruiken, dan wacht ik dus wel op een opvolger die wel een stuk krachtiger is maar meer verbruikt.
nVidia zit behoorlijk aan die kant van het spectrum ja, klopt. AMD is standaard ook aan de hoge kant, maar die kan je heel, heel erg goed overklokken met flinke undervolt, dus hoewel je punt valide is, valt er wel degelijk wat aan te doen. Intel heb ik te weinig inzicht over.

De "verzonnen pixels" is simpelweg dat wij als mensen graag voor de gek willen worden gehouden, zodra je het gevoel hebt dat het klopt en in orde is, ga je heel, heel makkelijk mee. Daar maakt voornamelijk nVidia met de multi-frame zooi gebruik van.
Elke GPU tegenwoordig is goed te undervolten. Mijn 3080RTX verbruikt rond de 240 watt in plaats van 3020 want heb een flinke undervolt er op zitten en verlies er geen performance door.
-nvm
ik zie dat dit letterlijk gaat over de video van gisteren door GN gelinkt verder int artikel, niet uit Nvidia zelf zoals titel suggereert

[Reactie gewijzigd door JWL92 op 16 januari 2025 19:33]

Alleen al het idee dat een kaart met 2 fans doorheen blaast en bankrekening. Laten me nu twijfelen om toch van rtx3080 naar deze te gaan.

2dingen zijn belangrijk. Dat is performance en geluidsdruk tijdens gebruik.

Op dit item kan niet meer gereageerd worden.