'Nvidia RTX 5080 Super krijgt meer en sneller vram, verbruikt minstens 400 watt'

Nvidia werkt volgens een leaker aan een GeForce RTX 5080 Super. Deze Super-variant zou meer videogeheugen hebben, dat bovendien sneller is dan dat van de gewone RTX 5080. De nieuwe gpu verbruikt naar verluidt ook flink wat meer stroom.

De doorgaans betrouwbare leaker kopite7kimi schrijft in een post op X dat de RTX 5080 Super de GB203-450-A1-chip gebruikt met 10752 CUDA-cores. Dat is evenveel als de GB203-400-A1 van de gewone RTX 5080. Ook de 256bit-geheugenbus zou identiek zijn.

De RTX 5080 Super krijgt naar verluidt wel een upgrade wat betreft het geheugen: 24GB GDDR7 met een snelheid van 32Gbit/s. Dat komt overeen met een bandbreedte van 1024GB/s, ofwel 6,6 procent sneller dan de 960GB/s van de RTX 5080. Laatstgenoemde moet het doen met 16GB, met een snelheid van 30Gbit/s.

Om de RTX 5080 Super met 24GB uit te rusten, gaat Nvidia waarschijnlijk 24Gbit-GDDR7 gebruiken, ofwel geheugenchips met een capaciteit van 3GB. De chipontwerper zet dat type chips voorlopig alleen in voor de RTX 5090 Laptop, die eveneens 24GB biedt via een 256bit-bus.

Naast het geheugen zou ook het stroomverbruik toenemen. Zo zegt kopite7kimi dat de gpu 'minstens 400 watt' gaat verbruiken. Dat is minstens 11,11 procent meer dan de RTX 5080, die een tdp van 360W heeft.

Het is niet duidelijk wanneer Nvidia de vermeende RTX 5080 Super wil uitbrengen. Het bericht van kopite7kimi is volgens VideoCardz gebaseerd op informatie van Nvidia's boardpartners, wat suggereert dat die al aan het ontwerp bezig zijn. Bronnen van het Chinese Chiphell-forum wezen eind april al op de komst van de RTX 5080 Super 24GB en RTX 5070 Super 18GB.

Door Idriz Velghe

Redacteur

23-05-2025 • 15:12

143

Reacties (143)

143
134
44
0
0
59
Wijzig sortering
Straks heb je geen kachel meer nodig in huis door de warmteontwikkeling van deze kaarten. Tevens ben ik ook wel heel benieuwd naar hoe duur deze gaat worden. Zeker gezien de huidige prijzen van een normale 5080 kaart al.

Ben blij dat ik een 1000 Watt voeding in mijn pc heb zodat ik zonder problemen zou kunnen upgraden in de toekomst.
Kan ik niet GPU rekenkracht verkopen en de GPU aan een boiler hangen ofzo? Alleen aan als energie goedkoop genoeg is en gratis warm water :Y)
Valt nog vies tegen om water te verwarmen met GPU warmte. Kwartiertje douchen is 240 liter. Met een 400 watt GPU ben je 19,5 uur bezig om dat water van 12 naar 40 graden te krijgen. En dan neem je aan dat je geen warmte verliest.

[Reactie gewijzigd door youridv1 op 23 mei 2025 15:57]

Veel boilers hebben een stand met 600W voor langzaam verwarmen, dan zou je met een echt flinke unit wel een eind moeten kunnen komen. 10 minuten douchen met 8L/min is 80L. Die 240L die jij voorschrijft is met een prive-waterval.
10 minuten is behoorlijk lang. Dat haal ik nooit. Smorgens een minuutje (wel eens getimed), echt veel tijd hebben we hier niet in het gezin :+

[Reactie gewijzigd door roffeltjes op 24 mei 2025 06:46]

Ik pak alle douchetijd van de kinderen af en gebruik deze voor mezelf. Scheelt dat ze ongeboren zijn, dan klagen ze niet.
Valt nog vies tegen om water te verwarmen met GPU warmte. Kwartiertje douchen is 240 liter. Met een 400 watt GPU ben je 19,5 uur bezig om dat water van 12 naar 40 graden te krijgen. En dan neem je aan dat je geen warmte verliest.
Warm water uit je boiler wordt ook nog gemengd met koud water wanneer je een douche pakt...
Misschien een idee om de afgevoerde warmte via een pijp of zo de kamer in de sturen. En dan met een ventilator of zo verspreiden. Heb je wel warme lucht in je kamer ;-).
Is er al een markt voor een warmtewisselaar die de verhitte koelvloeistof naar een verwarmingsradiator pompt? En dan bedoel ik natuurlijk niet de standaard radiateur zoals wij dat nu kennen.

Voor de winters best interessant. :+
Met een warmtewisselaar je wko opwarmen is anders geen gek idee.
Hah, nou dat weiger ik toch echt wel hoor om die richting op te gaan. Ik wil geen componenten in mijn PC die 300W of meer verbruiken, moet er niet aan denken. 200W voor een videokaart is wel een beetje het max voor mij, en 100-140W max voor de CPU vind ik ook mooi genoeg, maar liever een stuk minder. Een recente 6- of 8-core CPU voldoet normaal gesproken ruimschoots en GPU is 400W ook niet nodig. Je moet sowieso niet willen 4K gamen en dan is dat ook totaal niet nodig zoveel stroom verbruiken.
Waar baseer je die stroomlimieten op als ik vragen mag? Oprechte vraag en niet vervelend bedoeld. Ik als hardware enthousiast maak me juist absoluut niet druk om hoeveel stroom zo'n beestje trekt, zolang ik hem maar goed genoeg kan koelen zodat ik geen performance verlies.
In de zomer is een 600 kaart en 300 watt cpu echt geen feest. Als je al airco hebt mag die extra hard werken wat voor nog meer verbruik zorgt. Dan schiet de stroom rekening ook flink omhoog.
900+watt in een kamer merk je echt wel.

Zelf kies ik er voor mijn componenten te undervolten je raakt misschien 5-10% prestaties kwijt Maar je kan het verbruik snel 20-40% verlagen.
Ik heb mijn 4070ti geundervolt en overklokt en hij is 20% zuiniger en 5% sneller dan stock!

30% zuiniger en 3% sneller kon ook, en 40% zuiniger voor -1% performance was mijn laatste data point.
Ik heb dit ook. Want de kamer waarin de PC staat en ikzelf word anders wel heel erg warm. Daarbij moet je anders airco regelen wat ook weer extra energie verbruikt. Vaak ook gepaard met meer fans wat ook weer meer lawaai creëert. Al met al minder comfort.

En ook de kosten van elektra lopen dan de spuigaten uit.
Hoewel je de vraag niet aan mij stelt en ik niet voor @NB-1 kan spreken wil ik er nog wel iets aan kwijt.

Vandaag de dag is het voor steeds meer mensen belangrijk om zuinig met energie om te gaan. Is het niet omdat minder verbruik voor lagere rekeningen zorgt dan is het wel omdat het globale stroomverbruik toch wel de spuigaten uitloopt.

Zonder dat ik een rasechte hippie ben neig ik daar wel een beetje naar. Alles in huis is gekozen met duurzaamheid in het achterhoofd. Vrijwel alle apparatuur heb ik gekozen omdat het 'goed' (subjectief) en energiezuinig is.

Dit vertaalt zich ook naar mijn PC. Deze staat vaak langdurig aan dus wil ik het standby-verbruik laag houden. Maar ook onder full load zie ik het liefst een zo laag als mogelijk verbruik. Undervolten is iets wat ik standaard doe en dit gaat zonder merkbaar verlies aan performance.

Dat is nog een hele kunst en zelfs een hele sport als je echt gaat voor redelijk vermogen versus laag verbruik.

Het is alweer een behoorlijk aantal jaren geleden dat ik daar anders over dacht. Overclocken en bij het bereiken van een limiet dan zorgen voor betere koeling en toch proberen het voltage wat op te krikken zo lang het stabiel bleef. Lampen waren hier van het dure daglicht soort en die verbruiken, als je het vergelijkt met reguliere LED-verlichting, toch wat meer.

Inzage in mijn energieverbruik veranderde dat. Ineens vond ik het leuk om het verbruik zo laag als mogelijk te hebben. Ik kocht een andere koelkast, CV-ketel vervangen en ga zo maar door.

eind van de rit heb ik niets hoeven inleveren. Ik leef mijn leven en doe nog steeds alles als daarvoor. En de grap is, per maand betaal ik gemiddeld €60,-- minder per maand aan energie (stroom, gas) dan voorheen. :)

€60,-- is een habbekrats maar doe dat 12x en op jaarbasis en het is behoorlijk wat. Geld kun je maar één keer uitgeven dus stop ik het liever in andere dingen dan een energiemaatschappij. :P
Goed bezig bazs, jij begrijpt het tenminste :) Als ik je een duimpje had kunnen geven had ik het gedaan maar daar ben ik niet voor gekwalificeerd.
Inderdaad, is voor mij ook gewoon fijn voor het gevoel en een beetje sport , en in deze tijd lijkt het me ook niet onnodig dat er mensen zoals wij zijn. Het gaat mij nauwelijks om het geld, het is gewoon het idee/gevoel. Wie is er nou zo krankzinnig om een videokaart met een verbruik van 600+Watt te willen gebruiken. Maarja, Zooveel hoofden, zooveel zinnen, d.w.z. zooveel menschen als bij elkander zijn, zooveel verschillende meeningen heerschen er. Hehe.

Joh ik heb nog een Celeron 566mhz gehad vroeger, zo oud ben ik dus, die kon je probleemloos opklokken naar 890mhz met het standaard koelertje, wat ik ook had gedaan. Dat was echt een 2 euro munt zoiets qua koelblokje met een fannetje erop de helft van de grootte van zo'n klein fannetje die je tegenwoordig wel een op een moedebord chipsetje ziet bijvoorbeeld. Ieniemini, en verbruikte als ik er zo eens naar Google 20W max.
Dus.........vandaar,

[Reactie gewijzigd door NB-1 op 23 mei 2025 16:54]

We hebben een groot deel van het jaar een stroom overschot op bepaalde uren. Wil je iedereen helpen? Zet je pc juist aan.
Ik kijk er een beetje anders tegenaan. Mijn energierekening an sich is nog niet eens 60 euro. Ik geef 1500-2000 euro uit aan een nieuwe game-pc, dan is de energierekening verhogen met 5 euro of 10 euro per maand niet eens zo'n enorm bezwaar. Maar eens, wat niet warm wordt hoef je niet te koelen, en wat je niet hoeft te koelen maakt geen herrie. En da's ook fijn. Een kaart van 600 of 400 watt is enorm, maar dat dacht ik 5 jaar terug ook over kaarten van 300W en nu sta ik op het punt een kaart van 300W aan te schaffen.
Gevoel en ervaring :)
Kijkend naar wat je door de jaren heen krijgt per Watt en de ontwikkelingen door de jaren heen en gewoon common sense. Ik woon al heeeeeel vele jaren niet meer bij mijn ouders dus moet alle stroom zelf betalen, en dat wordt steeds duurder (geen zonnepanelen, is tegenwoordig ook weer een verhaal apart natuurlijk). PC staat hier vaak zowat de hele dag aan, en in ieder geval voor mijn wellicht wat bescheiden gebruik zie ik echt totaal geen noodzaak om de nieuwste topmodellen te nemen qua CPU (12 cores en meer) en GPU (300+Watt), die elk jaar weer meer gaan verbruiken. Alles boven 8 cores qua CPU van de laatste pakweg 4 jaar en 200W stroom qua GPU van de laatste pakweg 4 jaar is zwaar overkill, BEHALVE als je extreme dingen doet of perse 4K wil gamen. Ik wil perse niet 4K gamen omdat dat zo krankzinnig veel meer performance/stroom/geld vergt terwijl je er zo ontzettend minimaal/verwaarloosbaar voor terug krijgt. Maar zij die daar anders over denken is prima, dat geldt gewoon voor mij, en naar ik zomaar vermoed 99% van de overige PC gebruikers.
Ik hou gewoon erg van efficientie en haat verpilling, dat is het vooral. Daarom heb ik destijds maar een RTX4070 gekocht en geen 7800 van AMD... die verbruikt 1,5x zoveel voor 10%-15% meer performance in sommige gevallen, vind ik geen goeie deal.
In principe wordt alles wel iets efficienter en daarmee zuiniger, zolang je maar niet voor die topmodellen gaat, want die gaan steeds meer skyhigh qua verbruik.
Het scheelt dat PV ook niet echt rendabel is in veel gevallen. Als je 's avonds gamet en de zon onder is, of uberhaupt amper op die dag schjint, dan heb je er niet direct iets aan en moet je nog het net als accu gebruiken waarna je bijna niks overhoudt. Dan moet je eigenlijk gaan gamen als je liever buiten in de tuin, het balkon of elders wil zijn.
Ik heb eerlijk gezegd geen idee wat je nou net schreef/wat je bedoelt. Wat is uberhaupt PV? Of bedoel je PC?
Maar laten we de discussie of je je PC ook als verwarming kunt gebruiken een deel van het jaar alsjeblieft buiten beschouwing laten, dan wordt het wel een heel raar verhaal, want het andere deel van het jaar werkt het dan weer averechts, en dat is voor de een anders dan voor de ander (nieuw/geisoleerd huis vs oud ongeisoleerd huis enzo). Lijkt me dat je daar sowieso zo min mogelijk rekening mee zou moeten willen houden, het kachel effect van een PC.
PV = Photovoltec oftewel zonnepanelen
Het scheelt dat PV ook niet echt rendabel is in veel gevallen. Als je 's avonds gamet en de zon onder is, of uberhaupt amper op die dag schjint, dan heb je er niet direct iets aan en moet je nog het net als accu gebruiken waarna je bijna niks overhoudt.
Niet heel relevant met salderen (iig tot 2027 dus). Enkel je terugleverboete/kosten kunnen op jaarbasis dan een 10tje hoger zijn, nou poeh poeh.
Dan moet je eigenlijk gaan gamen als je liever buiten in de tuin, het balkon of elders wil zijn.
Als je PV opbrengst hebt wil dat ook niet zeggen dat het lekker weer is hoor. Vandaag ook weer 20kwh overschot ondanks dat ik geen moment heb gedacht, wat een lekker weer ik wil naar buiten :)

[Reactie gewijzigd door watercoolertje op 23 mei 2025 16:43]

Eh, volgens mij is er momenteel geen energiemaatschappij die geen terugleverboete rekent en nog gewoon saldeert zoals enkele jaren terug. Sinds die terugleverboetes er zijn gekomen is het met die comtracten nagenoeg niet interessant meer om aan te leggen.
Eh, volgens mij is er momenteel geen energiemaatschappij die geen terugleverboete rekent en nog gewoon saldeert zoals enkele jaren terug.
Ik heb die gewoon nog hoor (en velen andere ook want die waren slim genoeg om dat nog af te sluiten voordat het verdween).

Daarnaast stelt die terugleverboete natuurlijk maar weinig voor als je enkel de kwh meerekent die hiermee gemoeid gaan, dan heb je het zoals ik al aangaf over 10tjes...

[Reactie gewijzigd door watercoolertje op 23 mei 2025 17:01]

Alles wat je terug levert zit de boete op, ook dat wat gesaldeerd zou moeten worden… netto hou je maar een paar ct voordeel per teruggeleverde kWh ipv dat het weggestreept wordt tegen je verbruik (ja, ze strepen het tegen elkaar weg maar rekenen wel een boete voor het terugeleveren).
Ik struikel over de stellingen

"je moet sowieso niet 4k willen gamen"
en dat alles zuiniger is geworden, hangt er ook nog maar van af waar je naar kijkt.

Ik vind het goed dat je je bewust bent van je stroomverbruik, maar het is van de zotte dat je je daardoor laat beperken. Als je je verdiept in energie, dan zouden wij al lang genoeg energie kunnen opwekken op grote schaal met ongelimiteerde energie. Maar daar zit geen verdienmodel achter, en dus gebeurd het niet.

Eigenlijk zou iedereen dus 4K moeten willen gamen, bouwen aan een toekomst waarin de energie weer van ons allemaal is - en niet een exclusief product voor de happy few.
Ongelimiteerde energie! Gaaf zeg. Wat een visionair. Lekker blijven struikelen zou ik zeggen.
De theorie is er wel. De zon, oceanen etc. bezitten zoveel energie. Daar kan de mensheid wel 100x op leven. Alleen moeten we de technologie inzetten en maken dat dat ook echt werkelijkheid wordt.

Had je iemand in de jaren 80 gemeld dat je als gemiddeld huis 5000kwh uit het net zou trekken elk jaar en redelijk zelfvoorzienend dan kan zijn, hadden ze de vinger naar het voorhoofd gewesen. Nu anno 2020 en later doen we het gewoon.

We gaan hard vooruit de komende 50 jaar in elektra opwek. Er gaan nog grotere dingen gebeuren dan die windmolens op zee.
Als we bereid zijn er fors voor te betalen is er bijna ongelimiteerd energie beschikbaar.
Maar of je fossiele-, zon-, wind- of nucleaire energie wilt inzetten, of een mix ervan, je zult de prijs moeten betalen.
Nee. 1440p is zat. Niemand wil op 4K. Duur grapje.
Ik uiteraard liever ook niet. Maar op dit moment heb ik een 7800X3D in mijn pc met een 7900 XTX gecombineerd. Ik heb toen bewust gekozen voor wat "overcapaciteit" om ook eventuele pieken in belasting voeding op te vangen.

Meerprijs was 2 tientjes toen dus vandaar. Mocht ik een keer een 4090 willen of 5090 kan ik hem handelen in ieder geval.
Mweh, je betaalt ongeveer anderhalve cent per watt per uur per week gamen op jaarbasis. (30 cent gedeeld door 1000 voor Wh ipv kWh en keer 52 weken)
Dus als ik 8 uur per week game, betaal ik 12 cent per jaar per watt. Ik lig er niet wakker van of mijn componenten 100 watt meer of minder verbruiken als het me 12 euro per jaar kost en 100% van die afgevoerde warmte van mijn gasvebruik af gaat.

Ik let op het verbruik van dingen die 24/7 aan staan omdat een watt extra dan ineens 2,5 euro op jaarbasis scheelt. Verder kijk ik er niet naar om.

Maar ieder zijn ding.

[Reactie gewijzigd door youridv1 op 23 mei 2025 16:02]

Joh prima.
En in de zomer airco verbruik dus...
Een airco heb ik niet en die zou ik ook niet aanzetten als er tegelijkertijd een 400-500 watt hittebron (in het geval van mijn pc) bezig is. Net zoals dat je de thermostaat van de airco een paar graden boven die van de vloerverwarming zet

Ik ventileer liever gewoon goed in de warmere ruimtes. En als het zo warm is dat ik niet met ventilatie uit de voeten kan dan zit ik sowieso niet binnen te gamen. Ik heb wel betere dingen te doen die 3 weken dat het in nederland warm is. In de warme weken staat mijn pc niet tot nauwelijks aan. Dan ben ik op vakantie, op mijn balkonnetje van de zon aan het genieten of zit ik op een van mijn motoren. Achter mijn scherm is wel de laatste plek.

[Reactie gewijzigd door youridv1 op 23 mei 2025 16:06]

Die airco is in de zomer sowieso wel nodig, en die verbruikt vele malen meer, ook zonder dat die GPU gebruikt wordt. Overigens als dat zo'n probleem voor je is kun je natuurlijk altijd wel wat bedenken om de warmte weg te leiden.
Per Watt per uur per week???
Wat is dat?
Het is niet zo dat als je het e.a. idle hebt draaien het ook zoveel stroom verbruikt.
Dat is alleen bij belasting. Zet er maar eens een Ikea Inspeling ofzo tussen, kun je zien wat je systeem doet.
Weet je gauw genoeg dat een uurtje flink gamen meer verbruik heeft, dan een uurtje internetten of typen. ;)
Je moet sowieso niet willen 4K gamen en dan is dat ook totaal niet nodig zoveel stroom verbruiken.
LOL, onzin. Naar 2160p upscalen met DLSS of alternatief is prima te doen met een kaart anders dan een 400W slurpend monster. Dat gaat gewoon prima op een systeem met wat mindere specs. Helemaal op 60 fps.
Upscalen naar 4K is dan ook niet hetzelfde als native 4K resolutie. Dat het een prima alternatief is, mee eens natuurlijk - bovendien kost een 4K monitor ook een stuk meer dan een 1440p of een 1080p :)
Mijn suprim 5090 trekt soms 680 watt 🤣
LOL kabel en mobo tot de max en erover heen hoop dat alles heel blijft :D
Nou nou zeg, dat extra stroomverbruik is verwaarloosbaar tegenover andere hobbies. 1 avondje stappen kost velen al meer dan een jaar lang doorsnee gamen op zo'n 5090.
Waarom? 2 uur gamen op dat vermogen (gebeurd zelden) kost je nog geen 50 cent met dat verbruik zonder de zonnepanelen...

En als jouw systeem dan 2x zo zuinig is dan is het verschil (dus je 'winst' tegenover dat systeem) maar 25 cent voor die 2 uur gamen.

[Reactie gewijzigd door watercoolertje op 23 mei 2025 16:48]

Ja lekker makkelijk om niet inhoudelijk reageren, vindt je dat geen verspilling van energie dan (zowel jouw computer, als tweakers servers en jouw mentale/lichamelijke)?

[Reactie gewijzigd door watercoolertje op 23 mei 2025 16:59]

Bro ben 41 en heb 25 x 520 wp zonnepanelen 🤣 En al verbruikt dat ding 2kw per uur, ik wil max prestatie en is een hobby dus wat maakt het uit. Ik rook en drink niet, dus dit is mijn ding dan.

[Reactie gewijzigd door Cyclonic op 23 mei 2025 17:00]

Bro is niet een woord dat gewone mensen gebruiken.

Wordt gebruikt door mensen die denken dat iedereen hun vriend is.

Ik hoop toch dat niemand het normaal vindt op een platform als Tweakers.
Zie mijn bericht hier onder. het belangrijke stukje gequote. Ik hoop dat dit jaar weer gebeurd. Vorig jaar was die super kaart dus juist 200 euro goedkoper
Edit: Vorig jaar was hij goed koper. Ik verwacht nog steeds niet dat dat dit jaar weer gaat gebeuren. Zie:Drie keer is scheepsrechtreview: RTX 4080 Super - Drie keer is scheepsrecht
3080 warmt mijn kamer al op in de winter, best wel absurd.
Klopt mijn 7900 XTX doet al goed zijn best. Ben ook wel blij dat mijn kast 2x front 1x rear 140 mm fans heeft en een AIO CPU koeler met 3 fans die ook goed meehelpt lucht af te voeren.

Mijn hand bovenop mijn kast leggen is behoorlijk warm. Dus wordt alleen maar erger denk ik zo met de nieuwe kaarten.
vraag me serieus af wat voor nieuwe materialen en of technologien nodig zijn om met dit performance iets energie zuiniger kunnen maken in de toekomst.
Zal vast wel een eis worden vroeger of later.
Undervolten ken wat schelen toch

[Reactie gewijzigd door Mrmike123 op 23 mei 2025 18:50]

Dat heeft op een gegeven moment ook diminishing returns, als elke nieuwe generatie GPU's meer stroom trekt.
Blijft wel stapelen.
Dat komt mede omdat het geheugen groters is gewordern dan 16gb mede daarom stookt die kaart meer wattage weg omdat hij dan zodoernde meer stroom verbruikt.
1000watt is toch meer dan voldoende zelfs met een GPU die 600watt zou trekken, geen idee wat voor andere componenten samen je zou hebben dat in de buurt komt van die 1000watt, zelfs met de beste gaming CPU zit nog ruim onder de 200watt..
Mijn voetjes in de winter die worden wel lekker toasty met die PC ernaast haha, geen deken nodig!
Ze brengen dus opnieuw de 4090 uit maar dan met een andere naam, gotcha.
En met fake frames. Niet vergeten.
Hou toch eens op met dat gehuil, je hoeft die fake frames niet te gebruiken, en de meeste mensen zien visueel het verschil toch niet, en zonder is er geen kaart die het 'native' voor elkaar krijgt. Ik zet 'native' al tussen haakjes, want echt ruwe power is het ook niet omdat er al gruwelijk veel truukjes uitgehaald worden om dat mooie beeld te tonen.
de meeste mensen zien visueel het verschil toch niet
Het is niet alleen verschil zien, het is ook vooral verschil voelen...
Dit is namelijk vsync maar veel erger (ie input lag, want het gerenderde frame zie je pas na alle neppe tussenframes)

Voor nvidiass marketing gelul moet je trouwens wel degelijk fake frames gebruiken
Ook weer zo'n BS dat je dat voelt. Ook hier weer, mensen merken er tijdens echt spelen niets van tenzij ze side-by-side en er op gewezen worden waar ze op moeten letten. Alleen hypersensitieve mensen zullen het merken, maar 98% zal daar niets van merken en zit het gewoon tussen hun oren omdat het ze vertelt is dat het 'enorme' inputlag heeft. Het gaat hier niet om 100den milliseconden, zelfs niet eens tientallen.
Ik merk het dus duidelijk wel dus meningen verschillen.
Hangt vermoedelijk van je "basis" of "echte" framerate af. Want als je een spel op 30fps speelt, en de framegen rate is 120fps, dan heb je dus muisvertragingen etc. van 30fps.

Voel ik dat? Geen idee, ik heb geen kaart met framegen. Maar ik weet wel dat ik het direct merk als een computer muis de standaard Windows acceleratie instelling heeft, en ik weet ook wanneer een spel (e.g. REPO) geen standaard muis implementatie heeft.
Zal helaas wel een rib uit je lijf gaan kosten die 5080 super aangezien de huidige als 1200+ is. maar 24GB vram klikt wel heel nice. Zal alleen nog wel even duren voordat we daar meer over gaan zien. de normale is net uit. lijkt mij toch niet dat ze nu al met een super gaan komen.
offtopic:
Ik wil een 5070 Ti of 5080 halen, wacht tot deze kaarten bekend zijn of gewoon voor de normale gaan?

Edit: Vorig jaar was hij goed koper. Ik verwacht nog steeds niet dat dat dit jaar weer gaat gebeuren. Zie:Drie keer is scheepsrecht
De RTX 4080 Super heeft een adviesprijs die maar liefst 350 euro onder die van de gewone RTX 4080 ligt, maar in de praktijk komt dat op twee even dure kaarten neer

[Reactie gewijzigd door RcsProst op 23 mei 2025 16:19]

Zal alleen nog wel even duren voordat we daar meer over gaan zien. de normale is net uit.
Klopt. Bij de vorige RTX 40 generatie kwamen de Super edities zo'n 9-14 maanden na de normale varianten op de markt. Dus pakweg een jaar - nou dan kijk je al snel naar begin 2026 voor zo'n 5080 Super.
Was het zelfs niet bijna 2 jaar voor de 4080 super trouwens?
Nee hoor! Hier is een overzicht. De normale RTX 4080 launch was op 16 november 2022. De launch van de RTX 4080 Super was op 31 januari 2024. Dus 14 maanden en een beetje! ;)
Ik wist dat ene uit 2022 kwam en andere uit 2024 dus keek alleen naar jaartal en dat is 2 jaar. Dus zo gek is mijn reacite nog niet. Ik pak alleen google erbij als ik iets niet weet. Hoezo daar zit ik ook fout. Wat is mijn andere fout dan?

Tevens zou wel wat aardiger mogen. We zijn hier om informatie te delen en te leren van elkaar. Hou het een beetje lief ;)

[Reactie gewijzigd door RcsProst op 23 mei 2025 16:20]

Ik zeg gewoon wat ik denk te weten ben hier om te leren en sociaal te zijn. Als dat fout is heb ik liever dat mij het verteld wordt dat ik het verkeerd heb en mij verbeterd. Zodat mensen weten mijn "Onzin" niet correct is en wat wel correct is en dat ik weet dat ik het fout heb. Daar leert iedereen en ik ook. Dus een opmerking zoals is google stuk heeft niemand wat aan. Je spreek in hele zwevende termen. Ik heb nog steeds niet gehoord wat allemaal fout is. Ik hoor alleen maar aannames.


Toevoeging: Ik probeer niks te verkopen, als iemand mij zou wijzen op dat ik fout zit neem ik dat meteen aan. We zijn allemaal mensen.

[Reactie gewijzigd door RcsProst op 23 mei 2025 16:42]

Het verschil tussen de RTX 4080 en de RTX 4080 Super was feitelijk minimaal. Die 4080S had wel een paar extra ROPs etc, maar met dezelfde Power limit als de 4080 leverde dat in de praktijk nauwelijks enig verschil op.

Deze specs van een 5080 Super zijn daar daarom dus totaal niet mee te vergelijken, zelfs als je per sé een lijn wil trekken met onregelmatige dingetjes uit het verleden.

[Reactie gewijzigd door Ché Mig op 23 mei 2025 16:50]

Maar daar heb ik toch niks over gezegd? Ik heb niks over de performance of power gezegd? Dacht alleen dat de prijs veel duurder zou zijn in verband met de 8GB meer vram. tot ik oud artikel van tweakers had gekeken en daar stond dat die dus juist 350 euro onder de advies prijs zat en dat ik niet verwacht dat dat dit jaar weer gaat gebeuren. Dus ik heb alleen naar de prijs van het verleden gekeken. Dat is toch normaal en niet gebasserd op feiten maar puur om een verwachting proberen te krijgen van wat er gaat gebeuren?
De azijn was vandaag in de aanbieding zeker?
Je bent wel een beetje jammer bezig. Je kunt ook een andere toon gebruiken in je berichten, daar kom je verder mee hier.
Wat ben jij een naar figuur
Hey maffioso, graag je medetweaker niet beledigen, wat je zegt ben je zelf

[quote]
Wat ben jij zielig.
Kwa prijs zal het helaas een duur grapje worden en de extra % performance wat die gaat geven lijkt me nihiel.
Het is niet alleen de performance waar je naar moet kijken. De term "Future proof" waar we zo van houden komt hier bij kijken. Als jij deze kaart tot 10 jaar wilt gebruiken komt die paar extra Vram goed van pas. Als games straks 18 Gb gaan vragen kan jij met deze kaart er gewoon mee door. terwijl de 5080 dat dan niet kan. Ook voor 4k zal die beter zijn

[Reactie gewijzigd door RcsProst op 23 mei 2025 16:23]

Als jij deze kaart tot 10 jaar wilt gebruiken komt die paar extra Vram goed van pas
Met hoe het nu gaat met games, denk ik niet dat deze kaart over 10 jaar nog relevant is, zeker niet snel genoeg om de 24GB vol te krijgen
Die 10 jaar was even zomaar een jaartal. Misschien iets te hoog maar was meer bijwijzen van.
Ach, de volgende generatie consoles krijgen volgens mij zoveel geheugen helemaal niet, en dat remt simpelweg de mainstream hardware vereisten voor games voor de komende 5-10 jaar. Je kan de games als ontwikkelaar nog wel mooier maken voor de weinigen die een significant krachtiger systeem hebben, maar waarom zou je als ontwikkelaar de investering doen - kan met niet voorstellen dat het meer oplevert?
De obsessie met het aantal FPS tegenwoordig, focus maar meer op de gameplay.
Daar kan Nvidia niks aan doen. Dat moeten de game developers doen.
Ja en nee, de focus bij veel mensen zelf ligt ook op maximale resolutie en FPS ipv het spel zelf.

Daarbij laat men zich enorm beinvloeden door zogenaamde influencers die toch wat moet posten voor de kijkcijfers.

Zie amper reviews waarbij de 5060 TI 16GB wordt geprezen; 4070 performance op 130-170w met laatste DLSS versie en framegen.
Dus feitelijk gewoon de bestaande 5080 met een kleine overclock alleen dan met 24GB geheugen. Benieuwd wat de prijs gaat doen....
Inderdaad, ik zie ook niks SUPER's, tis meer een 5080E als in Extended VRAM. De winst met een VRAM upgrade van 16GB naar 24GB is lastig uit te leggen in de benchmarks, of moeten die dan weer zeer specifieke scenarios volgen....

Als dit gerucht realiteit gaat worden lijkt de chaos en wanorde bij Nvidia nog niet voorbij en maken zij zichzelf nog ongeloofwaardiger door het actuele 5060 8GB drama.
Geheugen is ook sneller. Maakt het wel dat geheugen bij die GPU niet meer de bottleneck zal zijn. Daarop outperformed hij de gewone 5080 zeker.
Ach welnee. Het is hetzelfde geheugen als wat ze nu gebruiken alleen iets meer. In de BIOS underclocked. Je kan het geheugen wat de kaarten nu hebben gewoon veilig op de waardes draaien die ze nu vrijgeven voor een zogenaamde super.
Zeer interessante GPU, de sterktes van de RTX5080 + extra's .. en met 24GB VRAM.

Als deze nu verkocht gaat worden voor minder dan €1100 is dit een goede koop .. :Y)
Waarom zouden ze het voor minder dan €1100 verkopen als de 5080 voor meer wordt verkocht en er een gigantische gat is naar de 5090. Het gat tussen de 5080 en de 5090 is niet voor niets door Nvidia op deze manier gebouwd.
Er zit zo een groot gat tussen de 5080 en de 5090. Ook zit de 5080 zo dichtbij de 4080.
Het is best aannemelijk dat de 5080 Super gewoon is wat normaal de 5080 zou moeten zijn. De "gewone" 5080 is meer wat een 5070 zou moeten zijn.
Zal een iets zuinigere en wellicht betaalbaardere (zeker nu) 4090 zijn. Ik denk dat de 5070 Super met 18GB voor onder de prijs van een 5070Ti (en efficiënter dan een 5080) interessanter zal zijn...
In een tijd dat de EU bepaalt dat TVs en stofzuigers maximaal xyz watt mogen verbruiken en dat de dop aan mijn flesje moet blijven zitten is het toch tamelijk vreemd dat er geen wet is die bepaalt dat GPUs niet meer dan bijvoorbeeld 150w mogen verstoken.


Om te kunnen reageren moet je ingelogd zijn