Verpakking Nvidia RTX 5080 verschenen, vermeende tdp's RTX 5080 en 5090 bekend

Er is een foto verschenen van de vermeende productverpakking van een Nvidia RTX 5080, waardoor enkele specificaties worden bevestigd. Daarnaast hebben leakers de tdp's van de RTX 5080 en RTX 5090 naar buiten gebracht. Beide gpu's worden binnenkort verwacht.

De productverpakking van een custom RTX 5080 was te zien in een inmiddels verwijderde Chiphell-post, merkt VideoCardz op. Het gaat om de OC-editie van een Gaming Trio-model van MSI. Volgens de achterkant van de doos beschikt deze gpu over 16GB GDDR7 en een 256bit-geheugenbus. Dat komt overeen met eerdere geruchten. De verpakking bevestigt ook dat dit model driemaal DisplayPort combineert met een enkele HDMI-stekker, al zijn de versies niet bekend. Nvidia is naar verluidt van plan om ondersteuning voor DisplayPort 2.1a in te bouwen.

Daarnaast hebben enkele doorgaans goed geïnformeerde X-gebruikers de vermeende tdp's van de RTX 5090 en RTX 5080 onthuld. Volgens hongxing2020 krijgt de RTX 5090 een tdp van 575W. Kopite7kimi bevestigt dit en voegt toe dat de RTX 5080 een 360W-tdp heeft. Dat is respectievelijk 25 en 40W minder dan in geruchten werd beweerd, maar die verwezen mogelijk naar de tbp-waarde.

Nvidia houdt op 7 januari een keynote tijdens de CES in Las Vegas. De fabrikant gaat naar verwachting op dat moment de RTX 5080 en RTX 5090 bespreken. De RTX 5080 zou als eerste Blackwell-videokaart uitkomen op 21 januari. Het is momenteel niet duidelijk wanneer de RTX 5090 moet volgen.

RTX 5080 MSI GeruchtRTX 5080 MSI Gerucht

Door Idriz Velghe

Redacteur

03-01-2025 • 11:57

301

Submitter: nilsson1234

Lees meer

Reacties (301)

301
288
100
2
0
140
Wijzig sortering
Voor de referentie de tdps van de huidige generatie:
  • 4090: 450 W +27.78%
  • 4080: 320 W +12.5%
edit: percentages toegevoegd

[Reactie gewijzigd door J_C op 3 januari 2025 12:36]

Also de 5080 net zo snel/goed is als de 4090 ga je er dus op -80 W op voorruit.

Maar er zijn vast nog geen benchmarks van.

Wel geruchten:

https://9meters.com/techn...onsumer%20graphics%20card.

[Reactie gewijzigd door mjl op 3 januari 2025 14:28]

Maar wel 8GB VRAM op achteruit.
Ik denk dat de cap op VRAM bewust zo laag wordt gehouden, zodat deze kaarten niet aantrekkelijk zijn voor LLM’s, die juist heel veel VRAM nodig hebben. Door het geheugen net genoeg te maken voor games, zijn ze perfect voor gamen, maar ongeschikt voor LLM’s. Je móét voor die toepassingen dus wel overstappen op de (fors duurdere) AI-specifieke videokaarten.

Gelukkig is Apple met de M4-serie SOC’s een geweldige optie. De M4 Pro zit qua GPU-snelheid rond de midrange Nvidia 40-serie, met snel geheugen plus een flinke bandbreedte, wat je bijvoorbeeld in een Mac mini kunt uitrusten tot 64 GiB. En straks, met de Mac Studio M4, kun je in een M4 Ultra zelfs tot 192 GiB geheugen configureren. Qua GPU-prestaties kom je dan waarschijnlijk in de buurt van de Nvidia 50-serie, afgaand op extrapolaties van de benchmarks van de M4 Pro en Max.

Zo’n Mac Studio is niet bepaald goedkoop, maar zal wel een veel gunstigere prijs-prestatieverhouding hebben voor het draaien van LLM’s dan alles wat Nvidia aanbiedt.
Wat ik aan benchmarks zag langskomen zijn Macs toch echt een stuk trager dan GPUs voor LLMs. 32GB op een 5090 is overigens niet weinig voor lokale LLM. Tuurlijk, je hebt er geen 70B model mee, maar misschien moet je lokale AI vooral willen gebruiken voor wat het wel goed kan en voor het overige de grote modellen in de cloud gebruiken. Maar al je documenten bevragen, bijvoorbeeld, al dan niet met speech to text en vice versa gaat waarschijnlijk goed lukken met dit soort gaming kaarten.
Juist de 70B die jij noemt, draait perfect op een Mac mini M4 Pro non binned met 64GiB. Baseer je je dan niet op oudere (M3/M2) benchmarks? Op dit moment is de llama community lyrisch over de resultaten van llama 3.3 70b draaiend op een Mac mini M4 pro.
Zie hier bijvoorbeeld: https://www.reddit.com/r/...d_m4_mini_pro_with_llama/

[Reactie gewijzigd door Emielio op 3 januari 2025 20:18]

ik zeg niet dat het niet draait, maar langzamer dan op een gpu. Op mn 16gb m1 pro draait een 11B model ook best vlot. Ben te lui om die benchmarks te googelen echter.
Punt is, als je toch duizenden euro's gaat uitgeven, wat is dan het beste besteed?
Punt is, als je toch duizenden euro's gaat uitgeven, wat is dan het beste besteed?
Dat is precies waar ik denk dat de prijsprestatie van die M4 chips op dit moment zeker alle Nvidia kaarten zwaar overclassed, zo ver ik in de community kan nagaan.

Een M4 draait een 70B model gewoon vlot en heel goed bruikbaar. Dat krijg je volgens mij met de consumenten Nvidia kaarten niet voor elkaar. Wellicht 2 stuks 5090 met 32 GiB, maar dan denk ik dat je een stuk duurder uit bent, en twee kaarten maakt het ook super veel complexer!
Is een verhaal van kwaliteit vs snelheid inderdaad. Een klein model kan tientallen tokens per seconde uitspugen op een videokaart. Zo een M4 doet een 70B model nog met 4,8 tokens per seconde. Liefst heb je 10, maar de helft mag met ietsjes geduld prima werkbaar zijn. Het mag daarmee ook meteen heel duidelijk zijn dat je veel en veel meer mogelijkheden hebt met de M4 als je geduld hebt, want je geheugen is domweg zoveel groter dan een GPU inderdaad.
Tegelijk is een nog groter AI model, dat zeg even 160GB vereist, ook typisch viermaal zo langzaam dan een model dat 40GB vereist. Daar kom je de opmerking van @brobro tegen, zo een M4 ultra met 192 GB zou dan mogelijk nog maar 1,2 token per seconde produceren, of als de geheugenbandbreedte daarvan dubbel zo hoog ligt 2,4 token per seconde. Blijft gaaf dat je zoiets überhaupt zelf kan draaien, maar het wordt dan wel serieus lang wachten op wat grotere output.
Ik snap wat je bedoelt ja. De vraag die ik mezelf hierbij nog wel stel is over use-cases en bruikbaarheid. llama 3.3 70B wordt veel vergeleken met GPT4. Dat is best bruikbaar, maar houdt niet over.

Ik gebruik voor mijn werk veel ChatGPT, en gebruik 70% o1, 25% 4o en 5% o1 Pro. Ik merk dus dat ik ondanks dat o1 langzamer is dan 4o veel meer o1 gebruik, omdat het grootste deel van de taken die ik aan het LLM uitbesteed al niet door 4o betrouwbaar uitgevoerd kan worden.

Ik heb lokaal modellen gedraaid van rond de 10B, maar behalve spielerei heb ik nog niet kunnen ontdekken wat je er nuttig mee kan.

Ik merk dat de opensource modellen zowel beter als slanker worden, en heb dus bijvoorbeeld de hoop dat er zo'n "redeneer laag" over het llama model komt, dat richting o1 gaat. Ik vind een o1 niveau antwoord waar een lokaal model 10 minuten over doet, veel nuttiger dan bijvoorbeeld een GPT-3.5 antwoord dat in 5 seconden er uit komt. Het GPT-3.5 antwoord is meestal niet zinnig in alle use-cases waar ik het voor gebruik.

Voor mijn persoonlijke use-cases is 4o niveau de ondergrens voor het uberhaupt nuttig zijn, en o1 niveau gewoon ontzettend fijn in het dagelijkse gebruik. Ik ben recent overgestapt op het PRO abonnement van OpenAI simpelweg omdat ik de kosten er makkelijk in 10-voud uithaal in productiviteitstoename. Ik schrijf veel lesmateriaal en ben dyslectisch. Het vormen van logische zinnen kost mij ontzettend veel tijd, energie en concentratie. Wat ik nu dus veel doe is het LLM vertellen wat er in de alinea moet komen te staan, en daarna vooral controleren op correctheid.
Heel interessant, dank voor het delen. Ik zie ook de M4 dan voorlopig ook wel echt als koploper voor zo een toepassing ja. Ik houd AMD nog even in de gaten voor een mogelijk wondertje met een dubbele VRAM variant van de een of andere nieuwe kaart, maar anders kun je deze nieuwe generaties nu meteen alweer afschrijven qua prijs per GB vergeleken met een M4 van 64-128-192GB, als je dan al 5090's moet inkopen. Blijft voorlopig meerdere 3090's of bedrijfsmatige accelerators van de vorige generatie tweedehands de enige nog een beetje haalbare optie, samen met een geschikt model op meerdere 7900XT/XTX'en, maar daarin is de keus voor AMD nu nog relatief beperkt ten opzichte van NVidia, ondanks dat er wel degelijk stappen worden gezet.
Ik denk dat ze dan later een versie met andere geheugen chips uitbrengen waardoor het geheugen x1.5 gaat.

En nu dus kiezen om 16GB en 32GB uit te brengen, wat dan 24GB en 48GB wordt.
Dat geeft het eerste kwartaal de mogelijkheid de 4090 rest verkoop te doen, en de eager de 32GB te laten kopen. En later nog een keer de 48GB versie. En de "upgrade" van 3090 naar 5080 na die mem-revise ook iets opleverd (meer snelheid en minder stroom), en alles wat je op 3090 in AI kon draaien, draait dan sneller op de 5080.
Zo kan de prijskaart van de 5090 32GB en de 48GB variant omhoog t.o.v. de 4090 en kan de 4080 24GB net iets onder de 4090 prijs worden gepositioneerd.

En schuift de gemiddelde prijs die men voor een videokaart betaald dus weer iets omhoog en creëer je een nieuw nog hoger prijs segment in de consumer versie videokaart reeks.

[Reactie gewijzigd door djwice op 3 januari 2025 18:32]

Maar ook een stuk minder duur dan de 4090. Al dat Vram gepraat is leuk. Maar weinig mensen gebruiken het daadwerkelijk zo.

Als je bv op 4K alles ultra zet met FG zal je wellicht over de 16gb kunnen komen. Maar de gameplay is dan sowieso beperkt mijn inziens.

Verschil tussen high en ultra is vaak niet veel. En zaken staan vaak ook aan voor niets. Ook is het GDDR7 verwacht op 30 of 32gbit sec. Dus het geheugen kan alles sneller verwerken dan gdrr6x waardoor je ook mindersnel een bottleneck met je Vram zal krijgen.
Ga uit van 1899-1999,-

Ik noem dat niet een stuk goedkoper.
Haha ja als ze de 5080 voor 1900 euro in de markt gaan zetten dan ga ik nooit meer upgraden. Had gehoopt voor 2000 euro een 5090 te kopen (als de eerste piek geweest is).
Vergeet het maar...dat is de prijs van een 4090
Niet officieel. De adviesprijs was rond de 1600 meen ik.
Tja...advies prijs.
De realiteit is iets anders.
Precies, dit had ik ook in gedachte. Was aan het denken om een RTX 5090 te gaan kopen, maar niet als die meer kost dan 2000 euro.

Maar alleen als ik mijn RTX 4080 voor een leuke prijs kan verkopen.

[Reactie gewijzigd door Toonen1988 op 3 januari 2025 20:54]

*edit mijn opmerking bleek niet waar te zijn

[Reactie gewijzigd door Xander.M op 4 januari 2025 10:25]

Tja whatever dan koop ik er geen he. Het is geen levensbehoefte.

Het is wachten tot het imperium van nvidia eens instort met deze belachelijke prijzen.
Je kunt wachten tot doomsday, Nvidia gaat echt niet even weg.
Ik denk dat ze alleen maar sterker worden.
Maar op een gegeven moment gaan mensen die overpriced shit niet meer kopen. 3000 euro voor een high end videokaart is enkel nog voor de 1 procent betaalbaar.
Ja, en........??
Wie verplicht je daar toe.
Ik vind het prachtig dat je het KUNT kopen.
Helaas zal ook jij een keer moeten upgraden. Of ga je naar console?
Ik moet niks. First world problems. Dan maar niet meer gamen.
Ik had het inderdaad anders moeten formuleren, gezien je mijn commentaar zeer letterlijk neemt. Om op je pc de nieuwste game titels op ultra of high settings te kunnen spelen zal je binnen de 10 jaar een keer moeten upgraden.

Het klopt. Als je niet meer wil gamen, dan hoef je niet up te graden. En als je oude titels wilt blijven spelen, dan hoeft dat ook niet.

Dat ter zijde, ik ben net zo gefrustreerd door Nvidia als jij dat bent. De rede hiervoor is omdat ik €1000,- aan Alternate cadeaubonnen heb liggen die voor mij nu als waardeloos aanvoelen. Ik wilde dit gebruiken voor een nieuwe gpu echter voelt dat nu als geld weggegooien.

[Reactie gewijzigd door Thyphonius op 6 januari 2025 11:27]

Dat gaan ze, dat is vrijwel zeker nu.
Hopelijk doet AMD het beter. Daar gaan de geruchten nog alle kanten op. Al zie ik daar ook op Ray tracing na niet veel progressie in de frames per euro komen.
Mja AMD biedt dan ook qua performance niet veel meerwaarde.

Het is toch bizar dat ik 8 jaar oude spellen niet eens op high kan draaien op een 3080/5800x3d op 5120x1440.
AMD gaat je waarschijnlijk inderdaad niet van je 3080 af helpen deze generatie.
Voor AI lokaal draaien is VRAM echter de sleutel. Best een aantal die daarom de 4090 en 3090 kiezen. Komt nu enkel dan 5090 bij, 5080 doet niets voor die toepassingen
Wat een onzin! Ik zie in Indiana Jones op een ultrawide (3440x1440) het videogeheugen al tegen de 16GB aanzitten. Dan staan de settings net één stapje onder Supreme.

Er zijn genoeg moderne games die rustig meer geheugen benutten op hoge settings (hoge resolutie textures) wanneer dit beschikbaar is. Ik vind het om die reden idioot dat een 5080 'maar' 16GB geheugen krijgt. Er wordt (ook hier in de reacties) al vaker aangegeven dat dit sterk lijkt op 'planned obsolescence' simpelweg omdat nVidia het momenteel kan...

Tevens kom ik geruchten tegen over een prijs van 1700 euro voor deze kaart. 8)7

[Reactie gewijzigd door R0KH op 3 januari 2025 21:34]

Gealloceerd is niet in gebruik. Ik zag bij sommige games de 20gb langs komen op een 7900xtx en die games runnen prima op een stuk minder vram

Maar ik ben wel van mening dat voor een xx80 16gb te weinig is
Caching van textures en dergelijke om deze sneller alvast toegankelijk te hebben is een van de redenen om meer videogeheugen toe te wijzen.

Een andere is inefficiënt geoptimaliseerde game engine. Helaas komt dat vaker voor dan we moeten willen, maar het bewijst wel dat meer videogeheugen nuttig kan zijn om daarvoor te compenseren.

Verder is met oog op toekomstige games het wel prettig dat wanneer je een high-end videokaart koopt (zeker met dergelijke prijzen) deze ook toekomstige games van de komende paar jaar moeiteloos kan draaien.
Momenteel betalen we naar mijn mening teveel voor videokaarten en hebben deze een 'beperktere levensduur' op deze wijze.

Voor mij was dit een reden om een AMD kaart aan te schaffen (ook een 7900XTX) alleen vind ik het zuur dat AMD steeds meer achter de feiten aan blijft lopen en nVidia momenteel 'godstatus' lijkt te hebben (en dit maximaal benutten).
Ik hoop op een verassing van AMD de komende release... :X
Ik baal net zo heftig als jij dat doet. Ik heb ook een ultra wilde en wil best €1500 investeren in een kaart, maar dan niet één die marginaal beter is dan het vorige model.

We worden genaaid jongens.
Minder duur? 5080 dreigt 1780€ te kosten, 4090 gelaunched voor 1600€, en daar had je al geniet tot nu mee en 8gb meer mee, neen 5080 is slechtste Nvidia prijs ook, zelfs 5090 aan 3000€ heeft betere prijs/kwaliteit als je er plant lang mee te doen. (32gb ram, dubbele stream procs, 512 bit bus).
De 4090 kost gewoon 2100-2300 euro. Die 1600 voor een 4090 heb ik alleen in dollars zonder VAT/salestax gezien.

De 5080 gaat net geen 2k kosten. Alle signalen over de hele wereld verspreid wijzen daarop.
Heb 4090's gezien voor 1800€ toen in amerika 1600$ waren (jaar geleden ofzo) Toen geruchten van 4090D in china kwamen die alle kaarten opkochten sindsdien is het verslechterd en nooit meer goed gekomen. Ik vrees ook dat dit met 5090 zal gebeuren. Misschi sporadisch 2800-3000€, maar 3300€ zal vaker de prijs zijn en misschien niet meer verlagen.
Met de belachelijke prijs voor de komende RTX 5080, vind ik dat gezien de gelekte specs misschien zelfs voorzichtig. Maarja AMD laat met hun slide ook zien dat ze niet eens de intentie hebben te concureren met de vorige lijn van Nvidia.

Hopelijk houden ze in het rode kamp iets achter. Maar ben bang dat Nvidia kan vragen wat ze willen zonder een fatsoenlijk antwoord van de concurrenten.
Als je er nu al tegen aan kan lopen dat je te weinig VRAM hebt, baart dat natuurlijk wel zorgen als je een nieuwe hIgh end GPU wilt kopen. Sommige nieuwe spellen gebruiken veel geheugen. De nieuwe Call Of Duty game zit bijna op 16gb VRAM op ultra settings op 1440p. Hoe zal het gaan op 4K, en met spellen die nog moeten komen? Het zou jammer zijn als je grafische instellingen moet verlagen puur omdat je te weinig VRAM hebt.

[Reactie gewijzigd door revengeyo op 4 januari 2025 06:59]

Maar wel GDDR7, en 16GB voldoende voor alle games.
Had wel gehoopt op 320 bit geheugen pad met 24 GB.
Voor hoge resoluties en refreshrates blijft bandbreedte nog steeds king.
Genoeg games die er wel baat bij hebben.
Ze kunnen ook met 256-bit naar 24Gb. Dan moeten ze 3Gb modules pakken in plaats van 2Gb modules.

Memory bussen worden niet kleiner met kleinere duurdere procedes
Wat ook de hoofdreden was voor AMD’s ontwerp met chiplets voor GPU’s. Iets wat ze initieel amper voor elkaar kregen.
Misschien een domme vraag: waarom is undervolten geen optie? Dit zou veel toegankelijker worden gemaakt. Misschien kan de 4090 naar 400 Watt zonder in te boeten in performance.

Maar ik vind het jammer dat er naar mijn zin te weinig geheugen opzit. 24 GB voor de 5080 had ik liever gezien en 32 GB voor de 5090, misschien zelfs nog meer. Zo'n kaart koop je niet voor 2 jaar en games worden snel veeleisender.
ik ben eens benieuwd naar de prestatiewinst. De verwachting bij een nieuwe generatie is toch wel dat deze hoger ligt dan de verbruikstoename. Plak hier nog een high-end CPU aan en je hebt geen verwarming meer nodig in de kamer waar de Computer staat. In tijden van een reeds totaal ontspoorde Klimaatcrisis is dit eigenlijk geen verantwoord product meer.
het verbruik zal goedkoper zijn dan een convector kacheltje die warmte opwekt met 2000watt.. vind eigenlijk wel een goede onderbouwing om hiermee naar mijn vrouw te gaan om dit aan te schaffen.
De hoeveelheid warmte die je uit een pc of een electrische kachel komt is exact even groot bij gelijk wattage hoor, dus daar zit geen efficiëntieverschil in (tenzij je wat je met de pc doet ook mee rekent).
Hoe ga je de vrouw uitleggen dat het in de zomer bij 35 graden nog steeds nodig is om de kamer te verwarmen met je PC?

Ik vind het nu wel erg OTT gaan met energieverbruik, voorheen was het een kleiner procede = lager energieverbruik maar dat is aardig uit het raam gegooid voor max prestaties.
Het gaat om de WAF. Het is een mooi argument die positief aan de WAF bijdraagt.
Als de geruchten kloppen dan is de 5080 zo'n 10% sneller tegen een 80W lager verbruik. Dus die generationele verbeteringen zijn er wel degelijk.
Inderdaad. Ook als de RTX5070 of Ti versie vs de 4080 een pak zuiniger is en iets beter presteert dan 4080. Dit had ik gemerkt toen RTX4070 of Ti minstens 100 watt zuiniger is en beter presteerde dan RTX3080 die ik heb.
Plak hier nog een high-end CPU aan en je hebt geen verwarming meer nodig in de kamer waar de Computer staat. In tijden van een reeds totaal ontspoorde Klimaatcrisis is dit eigenlijk geen verantwoord product meer.
En dat is dan ook precies wat er in mijn computerhok niet gebeurd :P Zo doe ik nog wat nuttigs met de energie die anders alleen voor verwarmen word gebruikt
Toch steken we bakken vuurwerk af, gaan we niet minder op (vlieg) vakantie. Ergens zit er een gat tussen doen en wensen?
We wensen dat anderen dit doen.
Dat komt doordat er weinig concurrentie is. In een kapitalistische systeem heb je minimaal 5 partijen nodig voor gezonde concurrentie (onderzoek uitkomst EU).

Ik vind eigenlijk dat de overheid moet ingrijpen als er 4 of minder partijen zijn in elke branche want zonder gezonde concurrentie krijg je dus dit.
Het is maar een GPU. Je kan ook gamen op een XBOX of PS. Ik heb me jarenlang vermaakt met oude games spelen op een iGPU. Het is echt lachen hoeveel vette classic games je kan kopen voor een prikkie. Een dedicated GPU is gewoon een luxeproduct, als er al ingegrepen moet worden dan hooguit voor onze concurrentiepositie met betrekking tot AI.
Jep, dan krijg je dit. Dit is waarom de focus steeds op high end hardware leggen, mensen van pc gaming wegdrijft. Ofwel het beste, ofwel helemaal niets. Het kan grijs ook. Je hoeft niet te kiezen tussen een Xbox een igpu en een 5090. Keuze zat hoor.
Gelukkig komt er met Intel aan de onderkant een goede concurrent bij.
Helaas leven we nu in een wereld waar bedrijven ingrijpen wanneer de overheid iets doet wat ze niet leuk vinden :+
Ondanks dat ze generationele increase steeds verder afvlakt en de releases verder uitgespreid worden.
Zuig je dit uit je duim? Of heb je daar een bron voor, mijn gevoel zegt namelijk het tegenovergestelde.

En als je gelijk hebt, wil het zeggen dat Nvidia minder en minder heat voelt van concurrentie. Dus dan is boos worden op Nvidia wel een beetje dom, als je boos wil zijn lijkt het me logischer dat je dat bent op de concurrentie die maar geen deftig antwoord bied aan Nvidia. Nvidia is geen liefdadigheids instelling, en geeft sinds ai geen ene moer meer om gamers. Wij gamers kosten Nvidia enkel geld, want productie capaciteit en resources die naar gamer GPUs gaan, kunnen niet meer naar enterprise GPUs gaan, waar ze het grote geld mee verdienen.

[Reactie gewijzigd door BlaDeKke op 3 januari 2025 18:34]

Inderdaad. Er is helemaal geen klimaat/milieucrisis!

Er verdwijnen altijd binnen 30 jaar 63% van de soorten op aarde, smelten ijskappen extreem snel en zien we meer weerextremen.

Bizar dat de wetenschap hier conclusies aan verbindt. De echte crisis is de economische crisis. Want ook met een slecht klimaat/milieu kunnen we hier op aarde blijven leven.

/s
????

Hoeveel dieren zijn sinds 1990 uitgestorven?
De onderzoekers ontdekten dat van de 95 soorten die sinds 1950 als uitgestorven in het wild zijn geclassificeerd, er 11 sinds de jaren 90 zijn uitgestorven. Aan de andere kant zijn 12 van deze soorten succesvol opnieuw geïntroduceerd, teruggebracht van de rand van uitsterven.14 mrt 2023
Lees je even in aub. : Wikipedia: Holocene extinction

oa.
Many of these extinctions are undocumented, as the species are often undiscovered before their extinctions.
Confirmation bias.

Je hebt gelijk echter: ik zal voortaan de bronnen erbij zetten. Dat is de manier waarop we hier op Tweakers handelen. Helaas was ik niet in de gelegenheid.
Misschien handig om toe te voegen of dit een serieuze comment is danwel als grap bedoeld.
Een TDP van 575W is wel erg veel...

Maar het voelt echt aan alsof er iets mist tussen de 5080 en 5090, waarschijnlijk nog een Ti dat ze binnen een halfjaar gaan aankondigen :)

Ik hoop wel dat de prijzen wat gaan mee vallen 8)7
Gewoon 400 Watt Power Limit instellen met nvidia-smi.exe

Ik draai mijn 4070 Ti op 200 Watt (285 standaard) met maar 5-6% prestatie verlies.
Waarom haal je dan niet een 4070/4070S? verbruikt minder en behaal je de zelfde prestaties.
Enige verschil is de VRAM capaciteit.
Juist de VRAM capaciteit is de reden. Dat is een hele goede beredenering om toch de duurdere variant te nemen. Veel meer futureproof.

[Reactie gewijzigd door MrFax op 3 januari 2025 13:51]

Inderdaad! Heb echt jaren met een 1080ti kunnen doen omdat die voorzien was van 11GB VRAM. :)
Same, die van mij is pas vervangen toen de 4090 uitkwam, en heeft tot afgelopen week nog trouw dienst gedaan in de game PC van mijn neefje.
Omdat het goedkoper is een instelling te veranderen dan een nieuwe kaart te kopen?
Misschien je initiele aankoop wat doordachter doen, scheelt geld + wat tijd mbt het wijzigen van de instellingen om uiteindelijk de zelfde performance te hebben.. :+
Nu kun je op een later moment eenvoudig upgraden zonder nieuwe hardware te kopen. Ieder heeft z'n eigen beweegredenen. Je clownemoji is overbodig, niet?
Het kan ook zijn dat die kaart toevallig in de aanbieding was en in dezelfde buurt kwam van de andere?
Toekomstbestendigheid kan een overweging zijn. Niemand weet wanneer je 16, 20, 24 GB echt nodig gaat hebben. Misschien ondersteunen de nieuwe kaarten tegen die tijd allerlei nieuwe features waardoor je zowel een 4080 super als een 4090 zou willen vervangen, maar in het algemeen helpt het wel.

Een andere reden is dat sommige mensen VR en monitor afwisselen waarbij ze bij VR wel echt de prestaties nodig hebben. Wil je met monitor dan ook maximum TDP van je systeem? Ik ga daar praktisch mee om. Bijvoorbeeld wel ray/path tracing, maar ook DLSS, frame generation en een frame cap onder het maximum van mijn monitor bij single player.
Omdat ik deze 4070 Ti gekocht heb op release dag, toen was er nog geen 4070 en 4070 Super. En al had ik dat geweten had ik alsnog de 4070 Ti gekocht omdat een kaart met meer cores op lange duur beter mee kan komen wat prestaties beteft, ook al heeft deze een Power Limit.

En mocht ik de extra PK's wel nodig hebben kan ik de Power Limit weer uit zetten.

Dus ik heb wel degelijk een goed doordachte aankoop gemaakt.

[Reactie gewijzigd door TheDeeGee op 3 januari 2025 16:02]

4070ti super heeft een andere chip als de normale 4070 of 4070 super

Ikzelf wacht even af wat er met de 50xx serie gebeurt en zal dan die van mij verkopen om voor een paar 100 te kunnen upgraden hoop ik.

Al zal dat waarschijnlijk niet voor een paar 100 kunnen, wishfull thinking
Ik zit voorlopig wel goed, ik had voor mijn 4070 Ti een 1070 :)
Nee, er is geen verschil in VRAM-capaciteit tussen de 4070, 4070 Super en 4070 Ti. Deze hebben alle drie 12 GB gekoppeld aan een 192-bit geheugenbus. Alleen de 4070 Ti Super heeft 16 GB i.c.m. een 256-bit bus.
Ik doe hetzelfde met mijn 4080 super. Heb die met MSI AB afgesteld dat die eigenlijk niet meer boven de 2550 mhz uitkomt. Gevolg mijn gpu komt eigenlijk nooit boven de 60c uit na urenlang gamen met een hotspot van ongeveer 70c. Ook is het verbruik max 225 watt.

Ik heb ook ergens tussen de 5 en 7 % minder FPS. Maar doordat de 4080 super al zo snel is merk je in de praktijk er weinig van.

Mijn pc is fluisterstil zowel in gewoon surfen alsmede gamen. Dat is mij veel waard. Ik hou namelijk niet van luidruchtig.

Daarbij komt ook nog eens dat de levensduur ermee verlengd wordt omdat het niet voluit belast wordt.
Ik heb zelf ook een I7-14700KF.

Ook die CPU is undervolted in de bios. En id heb een VID limiet ingesteld van 1.275 volt.
Gevolg mijn cpu wordt niet warmer dan 83c na 30 minuten Cinebench met een paar % minder prestaties. Ik haal nog steeds 33/33.5K multiscore. Maar mijn max verbruik is nu 183 watt.

Tijdens gamen gebruikt die ook een stukje minder en wordt die niet warm. Meestal ergens tussen de 60 en 70c na uren. Ook is de cpu watergekoeld wat helpt.

Maar deze 2 componenten beide goed afgesteld scheelt een hoop.
Als je verbruik belangrijk vindt, waarom heb je dan voor een 14700KF gekozen? 7800X3D verbruikt de helft voor dezelfde/betere prestaties.
Waarom die moeite doen? Vind 5-6% nog best wel wat om maar een beetje stroom te besparen, voor je hobby.
Mijn target is toch maar 60 FPS, de rest is headroom.

Heb een 4070 Ti hard nodig voor games als Portal RTX.

[Reactie gewijzigd door TheDeeGee op 3 januari 2025 21:27]

Dan moet je hem ook undervolten. Dan haal je er meer uit.
Te veel gedoe en gevaarlijk.
Op welke manier zou dat gevaarlijk zijn?
Maar het voelt echt aan alsof er iets mist tussen de 5080 en 5090, waarschijnlijk nog een Ti dat ze binnen een halfjaar gaan aankondigen :)
RTX 5090 beschikt dan over 21.760 CUDA-cores, 32GB aan GDDR7-geheugen en een 512bit-bus.
Mogelijk 575W

RTX 5080 Ti of Super .. ??

RTX 5080 moet beschikken over 10.752 CUDA-cores, 16GB aan GDDR7-geheugen en een 256bit-bus.
Mogelijk 360W

RTX 5070 Ti over 8960 CUDA-cores, 16GB aan GDDR7-geheugen en een 256bit-bus.
Mogelijk tot 320 of 350W
Gezien wat jij als gegevens neerzet heeft die 5080 nauwelijks levensvatbaarheid. Mensen zullen vooral in Nederland voor de 5070TI dan gaan.
Dat heet dan in marketingtermen het decoy effect.
Een slecht product neerzetten om een andere er beter uit te laten komen?
Juist. Door een kaart neer te zetten die net iets goedkoper is dan de duurste kaart maar die dan wel een feature mist die je graag zou willen, lijkt de duurdere kaart de betere deal.
Maar in dit geval zullen de meesten dan voor een wat goedkopere kaart kiezen. Of je bedoelt dat de 5070Ti relatief goedkoper is om te maken en dus relatief duurder voor de klant?
Gezien wat jij als gegevens neerzet heeft die 5080 nauwelijks levensvatbaarheid. Mensen zullen vooral in Nederland voor de 5070TI dan gaan.
De RTX 5070 Ti komt er inderdaad als beste uit, ik ga zelf in april kijken of ik een RTX4080SUPER aanschaf of de RTX5070Ti in mijn nieuwe build .. als overbruggings GPU voor de volgende 14 tot 16 maanden.

Later werk ik mijn build dan af met een RTX6080 Ti of SUPER .. ;)
4080 Super is toch ook end of life? Die zal wel stijgen in prijs.
4080 Super is toch ook end of life? Die zal wel stijgen in prijs.
.

Hangt dit er niet enkel vanaf of er tekorten zijn op een soortgelijke GPU bij de opvolgers .. ?

Als er genoeg RTX5070Ti en RTX5080's op de markt komen gaat die zakken in prijs tot hij bijna niet meer verkrijgbaar is en dat is de moment dat de prijzen gaan beginnen stijgen voor die RTX4080 SUPER.


.

[Reactie gewijzigd door MPIU8686 op 3 januari 2025 18:25]

Precies, maar dat blijft speculeren. De prijzen zijn nu al aan het stijgen namelijk.
Dat gaat natuurlijk helemaal afhangen van hoe de prestatie/prijs gaat zijn.

Als ze een AMD'tje pullen gaat iedereen voor de 5080.(7900XT 899$/7900XTX999$ bij launch)

Vergeet niet dat de 5070ti een die zal zijn die meer defecten zal hebben en daardoor meer cores heeft uitgeschakeld. Meestal vertaald dat ook in een lagere clocksnelheid die mogelijk is.

Als de 5070ti dicht bij de 5080 prestaties komt en een stuk goedkoper is gaan veel mensen idd die kopen. Maar Nvidia staat er nu niet echt bekend om dat ze kado's weggeven. Ze zullen de prijs prestatie tussen de 5070ti en 5080 zo houden dat beide vergelijkbaar zijn prijs/prestatie.

Ik had ook een 4070ti super gehaald en deze alsnog voor msrp verkocht en de 4080 super gehaald.
Uiteindelijk zal de 4080 super meer opbrengen naar verhouding.

Zo had de 4070ti super minder cashe wat een redelijk groot verschil maakte in prestaties. Ik geloof 48 t.o.v 64.

Zo iets zal ongetwijfeld ook wel met de 5070ti en 5080 gebeuren.
Wie zegt dat? Jij zult dat misschien doen, maar genoeg mensen zullen toch gewoon voor de 5080 gaan ipv 5070ti, maar alles is afhankelijk van prijsverschil en prestatieverschil waar nu nog nul komma nul over bekend is. Naast dat niet eens bekend is wanneer een 5070ti uit komt.
Maar het voelt echt aan alsof er iets mist tussen de 5080 en 5090, waarschijnlijk nog een Ti dat ze binnen een halfjaar gaan aankondigen :)
Waarschijnlijk en de Super en de Super TI, dan heb je al 3 kaarten om dat gat te vullen :)
De super varianten komen pas meestal een jaar of minder voordat de nieuwe lijn komt, dus voorlopig is er nog lang geen sprake van super varianten.
Helaas niet nee. Een 5080 met 16GB voor net geen 2000 euro is niet iets waar mensen warm voor gaan lopen.

Gaat daar volgend jaar pak en beet 400 euro vanaf en gaat er 24GB geheugen op.

Met nog kleine stepping verbeteringen en daardoor betere clocks. Ja dan wordt het een heel ander product.
De prijzen zullen wel veel hoger zijn dan de 40 series die al veel te duur waren. en komt een ti variant met 24 gb? dat zou dan wel beter zijn.

we moeten ook allemaal een kerncentrale gaan aanschaffen om hem te kunnen voorzien van stroom :)
Geruchten hebben te goede bronnen om het nog anders af te laten lopen dan compleet ridicule prijzen.
En dan mensen nog beweren dat een 800 eur console mooier en beter is :+
Zit hem veelal in de resolutie. Op consoles game je op 1080p. Die 4090/5090 zit op zo'n resolutie uit zijn neus te eten zogezegd. Dan zie je ook minder de meerwaarde ervan. Tevens kan je op PC alle instellingen veranderen om die 4090/5090 helemaal uit te buiten, terwijl consoles komen met een standaard set (die uiteraard minder is).
Console 4k op 120 hz, Hoezo 1080p??
Er is een verschil tussen de output container en de daadwerkelijke renderresolutie.

Er zijn games die ook daadwerkelijk op 2160p met 120fps draaien. De meerderheid haalt dit bij lange na niet en daar mag je blij zijn met een resolutie van 1080p die vervolgens wordt geschaald naar een hoger resolutie, als het al geen sub-1080p basis is.
In de praktijk heel veel games die dan maar 30 fps halen en max 60. Ze adverteren wel 120 fps maar dat halen ze nooit met moderne games op de console. Enkel oude games die niet veeleisend zijn.

Kijk maar op internet zijn veel testen van. Ze kunnen beter adverteren met in sommige gevallen wel tot 120 fps. Ook gebruiken de consoles upscaling van AMD met FSR dus. Ook niet kapot van.
Xbox series X haalt in game toch 120 fps. Dat kan ik zien middels de Corsair Xenon beeldscherm informatie. FSR en upscaling gebeurt overal tenzij je dat ook op pc uitzet.
Nee FSR en upscaling gebeurt niet overal. nVidia kaarten kunnen voor upscaling namelijk DLSS gebruiken. En dat upscaling standaard aan staat op PC is echt wel iets van de laatste tijd. Volgens mij was het Remnant 2 die dat voor het eerst deed.
Geen nieuws voor mij.
Blijkbaar wel want jij zegt hier dat FSR en upscaling overal gebeurt tenzij je het specifiek uit zet.

- Op xbox wordt je bij bepaalde games gedwongen om dynamische upscaling te gebruiken omdat je anders simpelweg geen nuttige framerate kunt behalen. (geen mogelijkheid om het uit te zetten alleen keus tussen high quality of high framerate mode)
- Op PC heb je de keus om het te gebruiken om wat meer frames uit je hardware te persen.
Met een PS5 Pro kan ik nog wat jaren mee vooruit, die ik voor €750 heb gehaald. Deze kaarten zullen vanaf €1500 beginnen echter...
PS5 controller input lag is duidelijk verbeterd en gezien meeste fighting games al een ingebouwde input latency hebben is dat niet relevant meer. Daarnaast bieden meeste PS5 Pro (en niet-Pro) games een 60fps mode aan en sommige zelfs 120fps. Console gaming valt reuze mee, soms prefereer ik dat zelfs ondanks dat ik een 4070Ti heb.
Sommige prefereren minder geld uit te geven.
zo'n 1900-2000 euro voor 5080
Ik kan echt genieten van dit soort geruchten. Ik heb de afgelopen weken zo'n beetje alle bedragen tussen de 1000-2000 USD/euro wel gehoord, waarvan de hogere prijzen gebaseerd worden op die Australische ''rumor''.

Zelf vind ik die 9,999 RMB (Chinese Yuan) rumor veel aannemelijker. Dat vertaalt zich naar ongeveer $1199, exlusief btw. De 4080 deed 't niet heel goed voor $1199, en de 4080 Super verscheen begin 2024 op de markt met een $200 price cut ($999). Gezien die historie vind ik $1199 voor de betere RTX 5080 best logisch, vanuit NVIDIA gezien. Dat is de prijs die ik persoonlijk verwacht op 7 januari.

Hoe dat zich vertaalt naar euro's anno 2025 met de huidige wisselkoers en komende US tariffs... ik durf het niet te zeggen. ;(

[Reactie gewijzigd door IlIlIllII op 3 januari 2025 14:36]

Sowiso zal voorraad belabberd zijn eerste maanden, door Trump. En met hoe gemeengoed (best van kaart) 5090 rtx is zal die zeker vaak uitverkocht zijn ongeacht de prijs.
Wat een prijzen. Ben gelukkig nog heel erg blij met m'n 4080.
Alles is relatief. Ik vind 1200+ euro's voor een 4080 al extreem. 500 euro voor een goede videokaart is genoeg voor mij. Geef wel weer bovenmatig veel uit aan CPU's .....
Die maakt AMD gelukkig nog.
Niet echt, want de AMD kaarten met vergelijkbare prestaties als Nvidia verschillen niet echt heel erg veel van elkaar.
10% sneller voor 10% minder geld voor een getweakte geheugen overclock met een 7900 GRE in vergelijking met een RTX 4070 (super) 12GB

Het was de beste deal. Totdat AMD de stekker eruit trok. De 7800XT is iets minder interessant nog steeds een prima optie.
Onzin het zal rond de 1400 max zijn
Inb4: 4k voor een kaart die SH2 remake niet op 4k draaiend krijgt. Welkom in 2025
Wat is het verbruik idle? Niet alles gaat altijd full power.
Je koopt bij de aanschaf van een RTX5090 meteen een andere PSU bij.
Anders kan je nog niet verder.
Moet je er wel bij optellen.
En de airco niet vergeten :+
Dat is maar voor een paar maanden per jaar, de rest van het jaar heb je een 'gratis' kachel ;)
Jep, zit nog te twijfelen tussen de 5080 en 5090 maar denk dat mijn 700-800W net iets te riskant gaat zijn. (maarja, ding is ook toe aan vervanging na zo'n 10 jaar trouwe dienst)
Heb een Ryzen 5800x3d en een 4090 en gebruik een 850watt voeding. Verder heb ik een paar nvme en sata/hdd schijven erin zitten. Zal dit nog goed gaan bij de 5090 en ook, als ik ooit een Ryzen 9800x3d neem? Of zal het dan net te zwak zijn.

En nog een vraag.
Ik gebruik de 12VHPWR kabel van Corsair en nog niet de 12V-2X6 variant. Deze is toch nog steeds geschikt voor de 5000 serie?
Ja, de 12VHPWR kan tot 600 watt over een enkele kabel trekken. Het pci-e slot zelf kan ook tot 75 watt leveren.

Ik denk zelf wel dat ik mijn 850 watt voeding ga vervangen voor een 1000 watt versie. De efficiëntie van de voeding is niet meer optimaal boven de 85%(beetje afhankelijk van het model) load over het algemeen.

[Reactie gewijzigd door master.fean op 3 januari 2025 13:54]

Dat de 5000 serie de 12V-2X6 gebruikt gaat geen problemen geven? En hoe weet je als die efficiëntie niet optimaal is. Gebruik zelf de Corsair RM850x (2018).
De efficiëntie van een PSU wijzigt naarmate de load van de PSU wijzigt. Voor de meeste voedingen is het optimum ergens tussen de 70-85% load. Daarboven of daaronder neemt het af.

Hmmmm, is 12V-2X6 niet voor het moederbord ipv de GPU?

Verder vraag ik me echt af of de top 5090 kaarten wel genoeg hebben aan 650-675 watt ala single 12VHPWR connector. Meestal liggen die namelijk net iets hoger dan het standaard TDP en hebben de mogelijkheid nog wat extra TDP erbij te OC’en, al was dat bij RTX 4000 niet echt heel veel.

[Reactie gewijzigd door master.fean op 3 januari 2025 13:53]

12V-2X6 is vernieuwende connector van de 12VHPWR.
Je hebt helemaal gelijk, ik ben in de war met ATX12VO, excuus!
RTX5090 kopers, hadden al een 4090 of 4080. De voeding was al op orde. Die paar watt erbij boeit ze niet. Ze hebben al een 1000 watt voeding.
Ik heb 2 jaar een 4090 gedraaid op een PSU van 750W zonder problemen. Dat gaat zeker niet mogelijk zijn voor de 5090.
Niet waar. Ik heb nog een 2080 Ti. Maar de extra kost van een nieuwe voeding boeit me inderdaad niet.
Ik heb een 4080 op een 850 watt voeding. Als ik naar een 5090 zou gaan dan mag ik dus wel een nieuwe PSU kopen. Ik draai een ITX systeem dus moet eerst eens kijken wat het formaat van de kaart is, maar de PSU upgrade gaat mij sowieso 200 euro minimaal kosten.
Ik heb een 4090 en 1200 watt voeding.

Genoeg ruimte over nog voor een 5090 erbij in SLI :+
Meesten die voor een 5090 gaan zullen al wel een benodigde voeding hebben, of zullen toch al wel een compleet nieuw systeem bouwen/kopen.
En nu al de 5080 verouderd met maar 16gb vram.
Raytracing en framegen hakken er goed in.
(Game,s gaan zich anders gedragen bij vram tekort zoals stuttering of texures weglaten).

[Reactie gewijzigd door mr_evil08 op 3 januari 2025 12:09]

Is gewoon een prima kaart voor 1440p240.
Er bestaan (bijna) geen slechte kaarten, alleen slechte prijzen (dat laatste is erg populair de laatste jaren).
Maar je bent wel een oelewapper als je 1K+ gaat uitgeven aan een videokaart om dan op 1080p te spelen, tenzij je 500+ fps nodig hebt voor esports ofzo.
Het gros dat voor een high-end kaart gaat speelt niet op 1080p.
1080p is een heel ander doelgroep.

[Reactie gewijzigd door mr_evil08 op 3 januari 2025 14:21]

Ik game op een 4K monitor en ik heb een aangepaste resolutie ingesteld op 3200x1800.
Je verliest een klein beetje detail maar je wint heel wat performantie.

Ik begrijp niet goed waarom geen enkele fabrikant dergelijke schermen uitbrengt met deze resolutie.
Dit is voor mij het perfecte alternatief voor wie meer wil dan 1440 maar geen 4K kan.
DLSS super resolution quality dient daar eigenlijk voor, 4k word dan 1440p zonder kwaliteitsverlies .
4k is beter te vermarkten als qualitatief, en 1440p op snelheid.
nvm

[Reactie gewijzigd door evmmb op 3 januari 2025 13:37]

is 16GB voor de CPU niet aan de lage kant?
Hangt van de prijs af. 16GB is momenteel ruim voldoende voor alle games in bijna alle configuraties, maar bij een xx80 zou ik eigenlijk iets meer ruimte / future proofing verwachten. Iets van 18 of 20GB.

Wat ik nu zou zoeken in een kaart zoals dit, is dat ie nog een paar jaartjes meegaat in de volgende consolegeneratie. In principe moet dat met 16GB nog wel uit kunnen zolang je niet op 4K speelt. Maar ik denk dat de 5080 Ti comfortabeler word.

Als deze net zoals de 4080 ruim €1000 gaat kosten dan wil je eigenlijk niet die kanttekening erbij hebben. Dus die VRAM besparing wil je terugzien in de prijs.

[Reactie gewijzigd door Wolfos op 3 januari 2025 12:21]

Precies. "goed genoeg" is iets voor midrange. Niet high-end of 1000euro+.
Voor €800 - 900 zou ik het nog overwegen omdat het waarschijnlijk wel echt een topkaart word voor 1440p, al is het met een kleine kanttekening. Maar laten we realistisch zijn, hij word waarschijnlijk minimaal €1100 en dat vind ik sowieso te gek voor een videokaart.
18GB is niet goed te doen. Dan moet je 9 chips van 2 GB gebruiken, op een 288 bits geheugenbus (9x32). Wat wel kan, is 20 GB. Dat is simpelweg het dubbele van de 3080 10 GB (320 bits, 5x64)
Die 20GB 320bit configuratie zullen ze misschien bewaren voor een mogelijke 5080 Ti later.. Zelf denk ik ook dat 16GB voor de komende 3-4 jaar nog wel voldoende is.. Mijn huidige RTX 3080 heeft maar 10GB en draait opzich ook nog prima op de 3840x1600 resolutie van mijn monitor.. Ik kan alleen in een paar games bepaalde features niet gebruiken omdat men daar een 12GB minimum aan heeft gehangen, zoals b.v. pathtracing in Indiana Jones.. Voor de rest nog geen echt last gehad van "maar" 10GB.. Textures hoeven ook lang niet altijd perse op ultra (wat meestal alleen minder compressie inhoudt), je ziet het verschil met high vaak amper tot niet maar scheelt wel al boel VRAM gebruik..
Is de RTX 5090 met een tdp van 575W niet aan de hoge kant ?
Stond inderdaad even met de ogen te knipperenl. En dat voor iemand die een 7900XTX heeft draaien. Dat is hoger als de piekbelasting (20ms) van deze kaart.
Die komt er hier niet in. Ik doe moeite om het huishouden een beetje energievriendeljk te houden en zoonlief zou een GPU van 575W in zijn PC flatsen. No way.

Uberhaupt een beetje een uitzonderlijke ontwikkeling. Overal worden energielabels en milieusubsidies tegenaan gegooid en het stroomverbruik van Neerlands jeugd grootste hobby blijft toenemen door de pixelhonger.
Mijn Game PC zit nu in Idle op ca 64 watt verbruik.
Zodra ik een spel start ongeveer rond de 180 a 300 watt max.
Verschilt gelukkig per game.
Ryzen 7 5700 (non-x), 32GB Ram met Radeon 6700XT 12GB.

PC met steamOS met Ryzen 5 5600G, 32GB Ram en Geforce 1060 6GB verbruikt rond de 25 a 50 watt idle.
Met een Game ongeveer rond de 120 tot 170 watt.

Enkel in het weekend staat deze ook aan. Doordeweeks gebruik ik mijn Uperfect Lapdock 15.6" i.c.m Samsung Galaxy S24 Ultra als Hoofd Computer.
Samsung Dex dus.

Verbruik van deze zit zo tussen de 8 en 16 watt.
9 watt tijdens een film kijken of youtube.

Diezelfde Lapdock gebruik ik ook voor de R6700XT pc.

Lapdock icm S23, en nu sinds een tijd de S24 Ultra heeft mijn 9 Kilowatt verbruikt in 2024.
Dat is dan ook gelijk met de telefoon opladen erbij.

De Hoofd PC met R6700 XT heeft mij zo rond de 60 Kilowatt laten verbruiken.

Lampen alles vervangen voor Smart Home met energiemeter en USB Bureaulamp zit ik op 15 Kilowatt voor mijn woning voor het jaar 2024.

TV en Geforce 1060 steam console ongeveer 6 Kilowatt. word zelden gebruikt.

Enige energievreters zijn koelkast, magnetron en oven.

Dus ja ik deel je mening, zulke energievretende hardware komt er bij mij dus ook niet in.
Als je de 16 GB VRAM bedoeld van de RTX 5080, dan ja dat is inderdaad magertjes. Mijn RX 6900xt heeft net zo veel en die kwam uit in december 2020. Dat is meer dan 4 jaar geleden. Ik zelf zou voor deze prijzen niet deze GPU willen hebben. Ook is voor mij de TDP van beide Nvidia GPU's te hoog met onze elektriciteitsprijzen in Nederland (en de zomers).
Die heeft wel andere VRAM dan de 5080. Dat is wel ook belangrijk in deze discussie. Als je geheugen sneller is, hoeft het er minder lang in te zitten. En dus is het weer eerder beschikbaar voor iets anders.
Zo werkt het meestal niet met videokaarten. De texturen zijn gewoon gebufferd in VRAM om op afroep razendsnel beschikbaar te zijn. En dan blijft 16GB toch 16GB.

En zolang er geen nieuwe consoles komen zie ik geen sprong komen in VRAM gebruik de komende jaren. Dus met 16 zit je nog wel goed op 4K. De 5K monitoren zie ik niet echt doorbreken, behalve professionele toepassingen. 8K gaat nog wel even duren voordat het doorbreekt.
Zijn we wel weer een generatie of 2 verder is mijn verwachting.
Maar 1GB VRAM in een groene videokaart staat gelijk aan 2GB bij een concurrent :+
Wat verwachte prijs betreft lijkt dat wel te kloppen :o
Ondertussen wachten velen af tot de RTX5080 Ti/Super met 24GB vram uitkomt .. :D

.. waarschijnlijk 3 tot 5 maanden wachten ..

.
En zijn er al geruchten over de RTX 6090 .. _/-\o_

https://superdetects.com/...e-next-gen-graphics-card/

https://www.pcgamesn.com/nvidia/rubin-gpu-early-release

.

[Reactie gewijzigd door MPIU8686 op 3 januari 2025 12:42]

Lijkt me weinig van waar, de specs van de RTX 5090 zijn nog niet eens officieel confirmed en mensen gaan al beginnen over de RTX6090?

Dat 2e artikel lijkt gewoon clickbait te zijn, er staat 0 infromatie in wat niet generiek is/ wat te verwachten is. Verwachte release halverwege/eind 2025? en dat valt volgens hun in het standaard release patroon? Lijkt me sterk dat de 5090 maar een half jaar de flagship GPU is... een 5090 ti is logischer dan 6090.
Duurt meestal een jaar ofzo voordat Supers uitkomen
Duurt meestal een jaar ofzo voordat Supers uitkomen
Er is ook aangekondigd geweest dat men de 2 jaarlijkse cyclus gaat doorbreken en er mogelijks elk jaar een nieuwe GPU reeks op de markt komt met tussentijds bijzondere GPU's.

Gezien de RTX5080 met 16GB vram gaat er al snel een RTX5080 Ti of Super met meer dan 20GB vram komen om de leegte tussen de RTX5080 en de RTX5090 op te vullen. Misschien zelfs wel 2 modellen.

Want een verschil van 16GB vram naar 32GB vram is wel een zeer groot verschil.
Maar als je nu een 40xx hebt met 16GB is er niet veel nut bij een upgrade zonder dat het geheugen meer is als ik de comments zo lees.

Ik game niet veel, mijn 1080 doet het best :) de 2060Super van mijn dochter is voor fortnite al meer dan genoeg.
Lijkt me bedrijfstechnisch niet logisch, daarbij voelen de artikelen een beetje AI-geschreven aan. Een jaarlijkse generatie is al zeldzaam, nu opeens een halfjaar?
575W valt duidelijk nog mee. Zou (volgen geruchten, uiteraard) eerst 600W of meer worden. Alleen even hopen dat je een er 600W PCIe 5.0 12VHPWR Type-4 verloopstukje bijkrijgt.
Dus straks met de 6090 hoeft de marketing machine alleen eerst te roepen 800W, daarna blijkt het 675W te zijn en dan ben jij tevreden....

575W is gewoon teveel in deze tijd.
Dus straks met de 6090 hoeft de marketing machine alleen eerst te roepen 800W, daarna blijkt het 675W te zijn en dan ben jij tevreden....
Het wattage daargelaten, het ging er mij om dat je met 575W dus uitkunt met die enkele PCIe 5.0 12VHPWR connector (binnen de 600W).

En is 575W te veel? Voor jou wellicht; maar ik draai mijn RTX 4090 al op max 500W; dan kan er ook nog wel +75W bij voor een kaart die weer twee maal zo snel is.
Ik heb van de week een asrock b580 gehaald, voor driehonderd zoveel euro. En voor komende tijd is dat mijn grens. Ik heb ooit een evga 8800gt gehaald voor niet meer dan 300 euro. Nu spreken we van bedragen ver boven de 1500 euro, exclusief stroomkosten. Oké, laten we maar naar de inflatie kijken, dus niet. Vroeger kon het wel, maar nu lijkt dat het een soort traditie is geworden dat de prijzen elke jaar moeten stijgen, we klagen erover maar we kopen het toch. Vroeger kon je een high end mobiel halen voor max 500 a 600 euro. Maar dat is een andere topic...maar hetzelfde trend.
Tja de huidige high end is 5-10 keer zo snel. Je kan gerust nog het equivalent kopen van die kaart van 500 euro hoor en dan ben je 100 euro kwijt.
Vroeger kon je ook de oneplus 1 halen voor 350± euro met de specs van een flagship samsung, die tijden zijn helaas ook voorbij.

Alles is in prijs verdubbeld, loon met 10% ofzo omhoog.
Dat ding word gemaakt in Asia daar stijgen de lonen niet zo hard he.
Het hele (productie)process is minimaal 10x zo ingewikkeld als 10 jaar terug, maar niet 10x zo duur.

[Reactie gewijzigd door watercoolertje op 3 januari 2025 13:38]

Die werken daar voor een habbekrats he.
Loon is helemaal niet relevant in mijn opmerking :)

De eerder genoemde 8800gt heeft bijv 754 miljoen transistors, een 4090 TI heeft 76.300 miljoen transistors! Meer dan 100x zoveel dus.

[Reactie gewijzigd door watercoolertje op 3 januari 2025 13:52]

Weet ik :) dat voegde ik toe haha
En het ging over de 1plus phone ;)

[Reactie gewijzigd door xaradine op 3 januari 2025 17:02]

300 euro 10 jaar geleden is meer dan 300 euro nu. Dus je moet je ook niet te vast pinnen op absolute bedragen
Dat dingen duurder worden hoort bij de inflatie. Dat gezegd hebbende is eea wel harder gestegen dan inflatie.
De 4090 zou volgens de geruchten ook 600w worden, is niet gebeurd. We zullen het volgende week wel zien denk ik :-)
Nee, die smolt door, voor een kaart van meer dan 1500 euro.
Lijkt wel dat iedereen toch de mening aangedaan is dat 16GB weinig is voor een high-end kaart. Ja, voor de huidige games zal het wel werken, maar zodra je iets met AI doet (image/video generation, LLM's, ...) is 16 echt wel te weinig. Het lijkt erop dat Nvidia specifiek weinig VRAM erop zet zodat we absoluut deze kaarten voor niks anders dan gamen gebruiken. Spijtig, zeker als markleider lijkt me dit een sprekend voorbeeld van "planned obsolescence".

Het is niet alsof AI een vreemd verhaal is, de marketing machine klopt je er dood mee. Aan de andere kant laat het andere vendors (Intel, AMD) om daar het verschil te maken.
AI is zeker geen vreemd verhaal, daar heb je een heel andere lijn GPU's voor met inderdaad veel meer VRAM. Denk aan de Nvidia L4, L40, H100, H200 enz.

Ik ben er dus zeker niet door aangedaan dat een gaming GPU 16GB VRAM heeft, dat is namelijk genoeg voor gaming.
We kopen toch ook geen CPU die enkel maar voor gaming nuttig is ? Of heb jij een specifieke excel cpu in je pc zitten ? We zouden als tweaker even hard moeten toeteren dat dit niet kan, een niet-upgradebare component toeknijpen en zo bepaalde opties niet mogelijk maken, en dan alsnog de hoofdprijs vragen.
Lijkt wel dat iedereen toch de mening aangedaan is dat 16GB weinig is voor een high-end kaart. Ja, voor de huidige games zal het wel werken, maar zodra je iets met AI doet (image/video generation, LLM's, ...) is 16 echt wel te weinig. Het lijkt erop dat Nvidia specifiek weinig VRAM erop zet zodat we absoluut deze kaarten voor niks anders dan gamen gebruiken. Spijtig, zeker als markleider lijkt me dit een sprekend voorbeeld van "planned obsolescence".

Het is niet alsof AI een vreemd verhaal is, de marketing machine klopt je er dood mee. Aan de andere kant laat het andere vendors (Intel, AMD) om daar het verschil te maken.
Dat, en je verplicht gebruikers eerder te upgraden.

Toen ik destijds mijn 6800 kocht met 16gb vram zeiden mensen dat ik dom was en beter een 3070 kon kopen(die ca 100 euro duurder was).

Meer dan 8gb vram was toch niet nodig.

3 jaar later en plots gebruiken games 12gb vram en is de 3070 100 euro minder waard op de tweedehandsmarkt...

Nvidia maakt lekker misbruik van het feit dat AMD uit de high end markt lijkt te stappen, ik hoop dat AMD snel terugkomt ik beloon liever niet de wanpraktijken van Nvidia...
Welke games gebruiken 12gb ram?

Op 1440p heb ik met geen enkel spel tegen de 8gb ram limiet aangezeten.

En anders zet ik de textures van ultra naar high.. oh nee
Indiana Jones heeft zelfs aan 16 GB ram te weinig als je alles vol open wilt zetten op een 4080.

De kaart loopt dan niet tegen zijn limiet, maar de vram. Als je dan de vram usage omlaag gooit (door textures lager te zetten of shadows) dan loopt hij weer als een zonnetje.

Een 4080 met 24 GB ram zou die game kunnen draaien met alles op max, maar helaas die zijn er niet.

Edit: Frame generation en DLSS vragen behoorlijk wat ram. Net zoals Path Tracing.

[Reactie gewijzigd door WiXX op 3 januari 2025 14:14]

Waarom zou je alles open willen zetten? Dat heeft toch geen voordeel?

Je kan gewoon de game op max settings spelen, op 4k met dlss quality, en dan krijg je gewoon hoge framerates. Met een 3070

En dan bedoel ik raytracing uit. Waarom zou je dat aan willen zetten?

Ja natuurlijk als je alles op de ubermax wil spelen, maar dan haal je ook geen midrange kaart zoals een 3070.

[Reactie gewijzigd door James Pond op 3 januari 2025 14:50]

Waarom zou je alles open willen zetten? Dat heeft toch geen voordeel?

Je kan gewoon de game op max settings spelen, op 4k met dlss quality, en dan krijg je gewoon hoge framerates.

En dan bedoel ik raytracing uit. Waarom zou je dat aan willen zetten?
Ja maar again dat is nu, games gebruiken steeds meer vram, niemand zegt dat 16gb weinig is, maar als ik 1.5K uitgeef aan een kaart wil ik gewoon alles op max kunnen spelen de komende 4-5 jaar zonder te moeten schuiven in texture quality.

Bij goedkopere kaarten is het anders, maar gezien de 5080 meer dan het dubbel van de 3080 gaat kosten vind ik dat we 24gb vram mogen verwachten...

En dat kan misschien komen omdat sommige games slecht geoptimaliseerd zijn, maar ik verwacht niet dat devs plots beter gaan optimaliseren.

[Reactie gewijzigd door izzet3838 op 3 januari 2025 14:53]

Ja dat ben ik zeker met je eens, je mag wel verwachten dat voor future proofing er een 24 gb variant beschikbaar gesteld zou worden.
Kijk eens op youtube naar de verschillen tussen path tracing en rasterization. Echt een wereld van verschil, vooral de lightning in de tombes en piramides etc. zijn van een ander niveau met path tracing.

Dat je überhaupt vraagt (no flame intended) waarom je Indiana Jones vol open zou zetten doet mij vermoeden dat je niet weet over welke verschillen er zitten in de waargenomen kwaliteit van graphics met deze techniek.

Edit: Ik heb het niet over een 3070 btw. Ik heb het over een 4080 en nu dus de 5080. Dat zijn kaarten die top range zijn. Erg vreemd dat deze weer met maar 16 GB uitkomen. Vooral nu Frame gen en Path tracing games steeds meer en meer voorkomen.

[Reactie gewijzigd door WiXX op 3 januari 2025 15:10]

Natuurlijk weet ik wat de verschillen zijn. Maar ik heb het over een 3070.

En als volgende opstap is de 4070 weer interessant, want die prijzen gaan omlaag zodra de 50 serie uitkomt.
Wukong (met frame gen en dlss) op 1440p heb ik regelmatig een warning gehad vanuit special K dat ik toch echt net over die 8GB ga, niet met max textures, dus dat het al gebeurt uberhaupt is zwaar klote.

RE4 remake ook maar die was niet onspeelbaar op 1440p, wel op 4k blijkbaar crashes.

[Reactie gewijzigd door Joshuffle op 3 januari 2025 13:11]

WuKong is gewoon slecht geoptimaliseerd.

En RE4 met dlss op 4k quality mode (dus 1440p upscaled) draait bij mij gewoon goed

[Reactie gewijzigd door James Pond op 3 januari 2025 13:41]

Lijkt wel dat iedereen toch de mening aangedaan is dat 16GB weinig is voor een high-end kaart.
Situaties waarin 16GB niet voldoende is voor gaming zijn zeldzaam en dat zal nog wel even zo blijven. Het is dus een afweging die vooral van de prijs/prestatieverhouding af zal hangen en of je een 4K monitor hebt.

Mensen gaan er alleen bij voorbaat vanuit dat de prijs/prestatieverhouding niet top gaat zijn, en gezien de recente geschiedenis lijkt dat me ook geen verkeerde aanname.

[Reactie gewijzigd door Wolfos op 3 januari 2025 15:26]

Het is dan ook primair bedoelt als gamingkaart, voor AI zijn andere kaarten bedoelt.
Een kaart met prijs (geruchten) richting de 2K die enkel nuttig is voor 4K gamen, is nogal zeer niche. De volgende generatie games zullen nog meer (vermoedelijk) AI gebruiken, voor bepaalde interacties. Er zijn kaarten met 24GB vram, high-end kaarten verwacht je toch niet een middelmatige hoeveelheid vram ? 5080 en 5090 liggen ver uit mijn budget, maar ik kan moeilijk voorstellen dat hun 5060 bijvoorbeeld dan ook 12 of 16 vram krijgen ?

AGI is een verkeerde term in jouw remark.
"enkel nuttig voor 4k gaming"
Waar haal je dat? Iemand die een 1440p 240hz scherm koopt wil toch niet gamen aan 60fps?
Een 4090 in Cyberpunk op 1440p met path tracing aan haalt een 60fps native zelfs met RR,SR (quality) en FG gemiddeld een 120fps, als de 5080 dus evensnel is (en nee dit is ene 11GB VRAM verbuik dus dat maakt daarvoor niet uit) zal je zo'n scherm daar niet kunnen voor gebruiken.

Indiana jones : 1440p dlaa : 45fps met een 4090
...

4060 ti was nu al een versie met 16GB, amper sneller dan de 8gb versie.
En noem het ANI, AI of gelijk wat je wil, deze kaarten worden niet op de markt gezet voor dat, maar voor gaming.

Op dit item kan niet meer gereageerd worden.