Gerucht: Nvidia wil prijs van RTX 5090 geleidelijk verhogen naar 5000 dollar

Nvidia en AMD zijn van plan om de prijzen van bepaalde videokaarten de komende maanden fors te verhogen. Dat beweert de Zuid-Koreaanse site Newsis. Zo zou de adviesprijs van Nvidia's topmodel, de GeForce RTX 5090, de komende maanden geleidelijk stijgen naar 5000 dollar.

De prijsverhogingen gelden volgens bronnen van Newsis zowel voor consumenten-gpu's als voor datacenterchips. AMD zou de eerste prijzen al vanaf januari 2026 willen verhogen. Daarbij gaat het volgens de Koreaanse nieuwssite om producten uit de Radeon RX 9000-serie, maar specifieke gpu's worden niet genoemd.

Nvidia begint naar verluidt in februari met het verhogen van de videokaartprijzen. Newsis noemt specifiek dat de adviesprijs van de GeForce RTX 5090 dit jaar stijgt van 2000 dollar naar 5000 dollar. Het is niet duidelijk wat dat betekent voor de europrijzen; in Europa kostte de RTX 5090 Founders Edition bij de introductie in januari 2025 2369 euro, maar inmiddels noemt Nvidia een adviesprijs van 2099 euro op zijn website, hoewel de FE-versies van de kaarten momenteel zijn uitverkocht. Overigens zou Nvidia de prijs niet in één klap willen verhogen naar 5000 dollar. Volgens Newsis gebeurt dat geleidelijk in de komende maanden.

De huidige forse stijging van geheugenprijzen is volgens Newsis een belangrijke reden voor de prijsverhogingen van de gpu's. Er zijn al maanden grootschalige geheugentekorten vanwege de grote vraag naar AI-chips. In een paar maanden tijd gingen de prijzen van DDR5-modules zo'n vier keer over de kop.

Nvidia en AMD hebben het bericht van Newsis niet bevestigd. Wel gaf ASUS eerder deze week aan dat het de prijzen van bepaalde producten per 5 januari gaat verhogen, waarbij het tekort aan geheugen- en opslagcomponenten specifiek wordt genoemd. Om welke producten het gaat, is echter nog onduidelijk.

Adviesprijs Nvidia GeForce RTX 5090
De huidige adviesprijs van de RTX 5090 FE

Door Kevin Krikhaar

Redacteur

01-01-2026 • 10:01

367

Submitter: Coen

Reacties (367)

367
365
119
3
0
205

Sorteer op:

Weergave:

Misschien wordt het eens tijd dat spelers en de consument nee zegt tegen de gretigheid en opdringerigheid van de bedrijven ? het klinkt misschien veel gedoe wat weinig effect heeft maar bedrijven zullen er wel degelijk last van hebben als niets meer vanzelfsprekend is dat hun maar kunnen doen wat hun willen van informatie verzamelen en beleid opdringen tot prijs verhoging.

Zoals op oudere generatie hardware spelen waar spellen gespeeld kunnen vanaf de informatie drager zonder updates en uitloggen op accounts als dezen niet actief gebruikt wordt zoals Google, Gmail, Facebook, Instagram, Sony, MS, Nvidia enz. misschien een idee om in plaats van het zoveelste bericht of mail persoonlijk contact op te nemen voor koffie of een biertje en een potje Klaverjassen ^^

Folle lok en seine yn it nije jier!
Het probleem is dat consumenten alleen maar vervelend zijn voor deze bedrijven nu. Ze schuiven de productie veel liever naar bedrijven die veel meer voor hun business class spul neerleggen.

Dus, ze prijzen de consumenten uit de markt, zodat er minder vraag is, zodat ze die capaciteit in kunnen zetten voor datacenter hardware waar ze veel, veel meer aan verdienen.

Dit gaat niet om consumenten een poot uit te draaien, dit gaat om consumenten wegkrijgen.
Het probleem is dat consumenten alleen maar vervelend zijn voor deze bedrijven nu. Ze schuiven de productie veel liever naar bedrijven die veel meer voor hun business class spul neerleggen.

Dus, ze prijzen de consumenten uit de markt, zodat er minder vraag is, zodat ze die capaciteit in kunnen zetten voor datacenter hardware waar ze veel, veel meer aan verdienen.
Voorlopig: de bubbel ZAL barsten, daarna zal nVidia de broeksriem strak moeten aanspannen en moeten wennen aan iets normalere prijzen die consumenten wel nog willen betalen.

Voor wie twijfelt of dit een bubbel is: OpenAI is het lievelingskindje van de AI-hypers, het meest succesvolle bedrijf dat inmiddels al lang zijn dienst al betaald product aanbiedt.

Wat zijn hun inkomsten vanuit klanten (dus geen opgepompte frauduleuze cirkel-investeringen)? 13 miljard, over 2025.

En wat voor uitgaven doet OpenAI? Ze hebben meer dan 1.150 miljard geplande uitgaven aan infra. Dat is alleen al infra, geen personeel, acquisities, R&D, of andere kosten.

Wie gelooft dat dit goed komt is, sorry, een regelrechte idioot. Ter vergelijking: dat is alsof ik met een inkomen van 50.000 euro per jaar een huis koop van 4,4 miljoen... Maar ik beloof de bank dat ik ECHT wel heel veel meer geld ga verdienen. Voor de duidelijkheid: voor een hypotheek van 4,4 miljoen zou je normaal een jaarinkomen van ongeveer 900.000 euro nodig hebben, 45 keer meer dan wat ik heb.

En die vergelijking is al misleidend, want hypotheken lopen over veel langere tijd (30j) dan de afschrijving van die server-infra. Geen enkel gezond bedrijf kan onder normale omstandigheden wegkomen met even contracten tekenen om alvast 88 jaar aan inkomsten uit te geven.


De vraag is enkel: wanneer barst deze onzinnige alles-verwoestende bubbel? De dotcom bubbel zag ook iedereen aankomen, maar het duurde nog twee jaar voordat die barstte.

Het enge is wel dat deze bubbel echt veel groter is en het effect van een crash zal NOG breder zijn dan die van de dotcom bubbel. Pensioenfondsen gaan daardoor echt een hele pijnlijke tijd tegemoet, en de huidige hervorming zorgt er dan weer voor dat het probleem niet bij het fonds maar bij de pensioentrekker wordt gelegd. En wie mag er straks weer zorgen dat alle ouderen in armoede uit de problemen geholpen worden? Juist ja: jij en ik.

Dankjewel AI.

[Reactie gewijzigd door kiang op 1 januari 2026 18:32]

De bubbel, deze vaagheid gaat de markt niet veranderen.

En wat er met nvidia gebeurd is koffiedik kijken of ijlende hoop.

Dat de bedrijven met onderlinge prijsafspraken, investeringen en overnames geldrondpompen is duidelijk, maar zolang er geen globale of europese organisatie is die hier iets aan doet om kartelvorming e.d. te bestreiden is kan een crisis / klappende zeepbel voor consumenten zelfs nog ongustiger uitpakken.

Ondertussen wordt ons europese stelsel systematisch weer afgebroken die de consument zou moeten beschermen. Dit is gaat veel dieper en verder dan AI, dit is een decennia oud systematisch machtspel, dat wij al lang hebben veloren.

Deze bedrijven hadden veel meer belasting moeten afdragen, om te voorkomen dat een handjevol CEO's het vermogen van een klein land opbouwen. Helaas was de wereld er niet klaar voor - en onder het mom van vrije markt staan we nu met onze broek op de enkels gebukt en zeggen we dankjewel.

Dit nu veranderen is te laat en zou oneerlijk zijn voor startups die er nog wat van proberen te maken, voordat ze opgeslokt of weggewerkt worden.
Met hoe interwoven het allemaal is is het een hele grote wanneer die knalt inderdaad.

Er is nog wel een mogelijkheid waar de boel niet knalt; een doorbraak waardoor het gebruik zo goed als onmisbaar wordt. Ze hadden, zo lijkt het, verwacht dat deze er al zou zijn, maar dat is tegengevallen.

Wat ik er van lees zijn de duurste modi van de huidige modellen wel heel erg goed aan het worden, maar extreem intensief en prijzig om te draaien, bv de 200USD per maand GPT 5.2 op max.

Als ze dat niet goedkoper/sneller krijgen gaat de boel klappen inderdaad. Als ze een doorbraak krijgen schiet er zoveel meer geld in dat de investeringen en rondpomperij van bullshit geld van nu er niks bij zijn.

Maar dat is een hele, hele grote als.
Als ik 2 uur werk kan besparen per maand is die 200 USD al terug verdient. En ik denk als je het slim inzet je veel meer kunt besparen als je er een beetje handig mee wordt.
Leuk, maar jij bent niet bepaald een gemiddeld inkomen dan, ik hoop dat je dat zelf ook wel inziet. Alleen een selectie zeer hoog betaalde pros gaan niet de opbrengsten geven die ze nodig hebben, lijkt me een simpel rekensommetje, niet?
Je moet niet de prijs rekenen die een developer per uur verdient, maar wat hij per uur kost voor een opdrachtgever.

Stel je verdient 20 euro per uur. Een salaris van +/- 3.600 euro per maand (20 Euro x 8 uur x 22 werkdagen). Daar komen dan de sociale lasten, doorberekening auto van de zaak, laptop, vrije dagen, etc. nog boven op. Kosten voor een werkgever is dan al gauw 40 euro per uur. Werkgever wil nog wat verdienen. Dan praat je al gauw over een uurtarief van 60 euro of meer.

Dus inderdaad een uurtarief van 80 - 100 USD is niet bepaald overtrokken (voor inhuur van developers).

En met een salaris van zo'n 3.600 euro per maand, praten we dan niet over hoog betaalde professionals. (Een senior developer krijgt wel wat meer dan 20 euro per uur).
Volledig terecht als er vanuit die kant gerekend wordt, zo las het echter niet voor mij.
Het gaat toch om de waarde die je investeert en wat het terug oplevert? ROI ?
Wat je ook uitgeeft, als de ROI positief is boeit het toch niet of het nou 100, 200 of 300 euro is per maand.

[Reactie gewijzigd door Immutable op 2 januari 2026 13:51]

Het gaat er hem om wie de langste adem heeft. Ik denk dat OpenAI gewoon failliet zal gaan omdat een andere partij zoals bvb Google of Meta met het marktaandeel gaat lopen, die hebben immers degelijke inkomsten uit advertenties.

Iedereen investeert nu als een gek om zo snel mogelijk aan de top te staan, maar aan de top zijn het aantal plaatsen beperkt. Veel bedrijven gaan geld verliezen aan hun AI investeringen omdat iemand anders met hun marktaandeel wegloopt, men kan wel niet anders want zonder AI te omarmen verdwijnt hun marktaandeel ook wel. In dat opzicht is AI een vergiftigd geschenk, sommigen gaan steenrijk worden en anderen straatarm. Door het verdwijnen van jobs zal de kloof tussen arm en rijk ook enorm toenemen.
Die 200 USD staat alleen niet in verhouding tot wat het product/ de dienst echt kost.

Daarom zijn NV en andere hardware verkopers de enige die momenteel goed geld verdienen. De prijs van AI features moet nog op tafel komen. Momenteel ligt dat bij investeerders die later verwachten dat er dus dure abbonementen oid worden afgesloten die het veelvoud kosten van die 200usd.

Als we het dus over programmeren hebben moet AI dus een junior developer gaan vervangen oid maar of het dan nog goedkoper is is maar de vraag.
Waarom maakt Google dan nog steeds gigantisch veel winst?
Punt is dat die 200 euro per maand eigenlijk richting 2000 euro zou moeten gaan(met groei van het aantal klanten), willen de AI boeren er winst op gaan maken. Ze verkopen hun rekenkracht onder de kostprijs.
Ik denk dat we ongeacht de uitkomst sowieso wel de sjaak gaan zijn.

[Reactie gewijzigd door Rarz op 1 januari 2026 17:19]

Wat ik er van lees zijn de duurste modi van de huidige modellen wel heel erg goed aan het worden, maar extreem intensief en prijzig om te draaien, bv de 200USD per maand GPT 5.2 op max.
Misschien kan iemand veel slimmer dan ik uitleggen hoe de LLM modellen ooit betrouwbaar zullen worden? Ik kan na 3 jaar Chat GPT gebruik dat nog steeds niet vertrouwen en boek zodus ook niet de efficientiewinsten die er zijn voorspeld.

Er zullen best wel sectoren zijn die er vandaag wel al voldoende baat bij hebben maar voor de gemiddelde office drone in ons bedrijf (circa 10k medewerkers in de EU) zie ik de winsten nog niet verschijnen? Maar misschien kijk ik verkeerd.
Hoe betrouwbaar moet het zijn om bruikbaar te zijn? Ook mensen maken fouten, ook boeken hebben nog steeds type, schrijf en vertaal fouten.

Als je voor bron onderzoek met AI samenvattingen 90% tijd kan bespare en AI vertalingen 90% van artikelen in vreemde talen snapt kun je in minder tijd meer informatie doorspitten. En die tijd kun je dan gebruiken om te verdiepen in wat interessant bleek.

Voor creatieve beroepen kun je makkelijk concepten maken die je op traditionele wijze kan uitwerken.

Ook is niet alle AI gebaseerd op LLMs: deepfakes werken met beeld, en er zijn modellen voor ontwerp en natuurkunde, waarmee medicijnen en raketmotoren worden ontwikkeld.

Ook die zal je moeten naberekenen en testen, maat het kan helpen om een startpunt te hebben.
In verrassend veel gevallen kost het je minstens zoveel tijd om door andermans code te akkeren en fouten eruit vissen. Idem met vertalingen: gebruikte iemand een beeldspraak? Maakte iemand een woordspeling die je niet letterlijk vertalen kunt? Is een bepaalde vertaling wel consistent hetzelfde vertaald door het hele stuk, etc.
Volgens mij is de droom dat iemand straks a raison 5-20k€/maand white collar agents kan ontwikkelen en verkopen. Spaart een werkgever 50% op de kosten, en 100% op 'het gedoe'. Zo lang dat niet lukt denk ik niet dat ze de investering er ooit uithalen.

En mocht dat allemaal lukken dan kunnen we 30% minder gaan werken (yeah right) met behoud van levens standaard (natuuuuurlijk).

[Reactie gewijzigd door DrVic op 1 januari 2026 18:28]

Klopt, de belofte is dat die grote doorbraak er komt en dan zal alles fantastisch zijn.

Wat ik ind e praktijk echter zie: de grootste aankondiging van OpenAI, op vlak van wat je met hun model nu kan, is dat je nu ook seksueel getinte gesprekken kan voeren.

Als ik een investeerder van OpenAI was zag ik dat als allergrootste red flag om nu meteen alles te verkopen. Denk even na: dit bedrijf beheert dat ze echt op het punt staan om een model te hebben dat bedrijven toelaat om 90% van hun werknemers te vervangen met dat model, dat is de grote gouden belofte.

Als dat werkelijk waar is, waarom je professionele uitstraling verdoezelen door je te richten op mensen die een beetje porno willen genereren?
Nou de geschiedenis heeft wel aangetoond dat de platformen die porno negeren/ bannen steevast het niet redden in de markt...
De Apple app Store redde het volgens jou niet in de markt?
Dat is omdat je genoeg andere bronnen kan gebruiken om porno te kijken op je iPhone. Daar heb je geen App Store voor nodig.

VHS vs Betamax

VideoCD vs DVD

Verder, porno zorgde voor:

adoptie online betalingen

creditcard- en abonnementsmodellen te populariseren

dwongen infrastructuur rond fraudepreventie en billing
Leuk staaltje selectief Rapporteren: HD-DVD heeft het toch echt niet gehaald van blu ray.

En de gemiddelde consument in Nederland begon pas met online betalen nadat er ook echt winkels waren die dat mogelijk maakten, met iDeal. En iDeal kwam niet vanuit porno.

Het hele "porno bepaalt alles in tech" verhaaltje is een leuk ietsje voor de telegraaf en nu.nl, maar echt hout snijdt het niet echt.

[Reactie gewijzigd door kiang op 2 januari 2026 14:26]

ABP bijv. spreid zijn beleggingen enorm. NVidia zit wel in her rijtje maar is een van de honderden beleggingen. Dus of de pensioenfondsen een heel groot risico lopen kan ik niet vinden.
Als ze de beleggingen verdelen naar rato van market cap, dan gaan ze alsnog best getroffen worden nu de grote AI-investeerders zo groot geworden zijn. NVidia heeft een market cap van 5000 miljard, en daarmee staan ze ruim boven alle niet-AI bedrijven. De eerste niet-IT/AI die ik zie is Aramco, a 1500 mljard (en grotendeels in staats-handen).

Als we de AI-boys halveren in waarde gaan de Amerikaanse indices tientallen procenten naar beneden. De AEX zal het worst wezen, ASML raakt z'n spullen toch wel kwijt, dus ik hoop maar dat ze flink Europees beleggen.
Als ze de beleggingen verdelen naar rato van market cap, dan gaan ze alsnog best getroffen worden nu de grote AI-investeerders zo groot geworden zijn. NVidia heeft een market cap van 5000 miljard, en daarmee staan ze ruim boven alle niet-AI bedrijven. De eerste niet-IT/AI die ik zie is Aramco, a 1500 mljard (en grotendeels in staats-handen).

Als we de AI-boys halveren in waarde gaan de Amerikaanse indices tientallen procenten naar beneden. De AEX zal het worst wezen, ASML raakt z'n spullen toch wel kwijt, dus ik hoop maar dat ze flink Europees beleggen.
Top 10 bedrijven zijn samen goed voor ~$30 biljoen*, top 10.000 ~$136 biljoen**.

Het wordt waarschijnlijk voor iedereen huilen met de pet op. Jammer dat hebzucht dit doet.

[Reactie gewijzigd door drdelta op 2 januari 2026 05:54]

Je hebt gelijk, ik heb de tijdsperiode fout overgenomen. Ik corrigeer even.
Er is een heel belangrijk punt wat veel mensen missen en ik vind het zelf ook enorm jammer dat dit waarschijnlijk wel hét punt gaat zijn:

De US vindt het héél belangrijk om met AI de leiding te hebben. Wat OpenAI aan het doen is is het geval van 'als ik €10.000 verschuldigd ben aan de bank is het mijn probleem, als ik 10 miljard verschuldigd ben aan de bank is het een probleem van de bank'. OpenAI is gewoon een dermate belangrijke positie in de economie van US aan het 'kopen' dat Trump of de opvolger van Trump vrijwel zeker niets anders kan dan de hele boel in de lucht blijven houden anders klapt die hele economie in elkaar want uit de S&P500 klapt dan in elkaar: Nvidia, Apple, Microsoft, Amazon, Google, Meta, Broadcom, Tesla en Berkshire. Juist: de hele top 10. Samen goed voor bijna 40% van de gehele S&P500, waar iedereen en zijn 401k in de US in is geïnvesteerd.

100% dat de boel gaat klappen, dat kan dit jaar zijn, dat kan volgend jaar zijn maar het kan ook nog 4-5 jaar goed gaan. Maar uiteindelijk zal de US ze (helaas) te hulp -moeten- schieten.

[Reactie gewijzigd door Swift9 op 1 januari 2026 23:53]

Hoezo ga je er nu vanuit dat het gaat klappen? Google zit ook balls deep in AI, en maakt gewoon winst op dit moment. Dus hoe kan iets wat WINST maakt, geen schulden heeft en gigantische cashflow dan omvallen? :) Hele AI bubbel is alleen maar PAPEGAAI PRAAT.

Google zit ZO DIEP in de AI, dat ze de GEHELE STACK beheren en maken. Van hardware tot infrastructuur tot aan AI tot aan tooling tot aan alles. Geen CENTJE verlies.

[Reactie gewijzigd door Immutable op 2 januari 2026 13:55]

Het is inderdaad schandalig dat Nederlandse pensioenfondsen ongeveer 2/3e van het vermogen van hun klanten beleggen in de VS en daarmee heel veel exposure hebben op dat la d en de gekkigheid die daar plaatsvindt. Het beste zou zijn als die gedwongen worden om hun overexposure stil terug te schroeven en minstens 2/3e in Europa investeren.

Dan is er gelijk genoeg geld om hier een hele tech sector op te bouwen, de energietransitie te financieren en infrastructuur te verbeteren.
Zolang onze eigen tech sector alsnog chinese energiemeters inkoopt omdat het de beste (lees goedkoopste, niet kwalitatief beste) oplossing was. Ik zou er niet heel erg op vertrouwen, wij (europese gezaghebbenden) leren onze les nooit tot niet.

Je zou toch zeggen dat we inmiddels al genoeg klappen gekregen hebben?
Oliecrisis, kolencrisis, dotcom bubbel, subprime crisis, aardgascrisis, en dan nu meerdere tech crisis in opkomst. Maar ondertussen doen we niks, maar dan absoluut niks om onszelf te wapenen tegen dat soort dips. Sterker nog, de meeste politieke beslissingen leiden tot de afbreuk van onze veerkracht en bouweconomie.

Ik zeg niks, maar er zijn uitzonderingen. Frankrijk bouwde bijvoorbeeld kerncentrales na de oliecrisis, een beslissing waar ze tot vandaag profijt van hebben, inclusief de export van energie zodra de groene energie stopt in andere landen.
Klopt. Sinds de jaren 80 (neoliberalisme) is industriepolitiek taboe. In het kader van het einde van de Koude Oorlog en de nieuwe orde daarna was dat allemaal prima. Helaas dachten een paar oude KGBers en andere types dat het voor hun beter zou zijn als we terug gaan naar de tijd van de grote rijken... En nu past dat neoliberalisme niet meer.

Inderdaad tijd dat we in Europa wakker worden en onze zaakjes op orde brengen.
AI is alleen maar een excuus. Als het geen AI was geweest was het wel wat anders geweest.
laat maar, verkeerd gelezen (en slechte bui)

[Reactie gewijzigd door Visgek82 op 1 januari 2026 20:26]

Ik snap je verhaal, maar dat snapt inmiddels iedereen. Je belegging heb je in 10 seconden verkocht, maar tot die tijd kun jij en ook pensioenfondsen gewoon de op de bubbel blijven wedden. Stel je wint over de periode van een jaar 20% en je verliest door iets te laat verkopen 10% heb je nog steeds een heel goed jaar gedraaid.
je verliest door iets te laat verkopen 10% heb je nog steeds een heel goed jaar gedraaid.
Zo werkt een crash natuurlijk niet. Toen de dotcom bubbel barstte begon dat met MicroStrategy, wiens koers op 1 dag 60+% daalde.
Er zijn ook genoeg argumenten waarom de bubbel niet zal barsten. Alleen willen mensen die argumenten vaak niet aanhoren.

Vertel jij mij eens want Google loopt gewoon voor op OpenAI qua techniek en modellen, waarom het zou barsten bij Google? Google heeft de gehele stack in zijn beheer, en maakt gewoon winst. En gaat gewoon door met investeren. Ze maken nog steeds gigantisch veel winst elk jaar.

Wees eens eerlijk? Waar is die bubbel dan?
De vergelijking met dot.com bubbel is ook krom, want toen maakte men geen winst. Nu wel. Google maakt gewoon winst.
Google heeft de gehele stack in zijn beheer, en maakt gewoon winst
Maakt Google winst met Gemini? Toon maar aan dan.

Google doet heel veel meer dan enkel AI, en heeft het gevoel niet achter te kunnen blijven. Dat wil niet zeggen dat de AI investeringen winstgevend zijn of dat ooit worden.

[Reactie gewijzigd door kiang op 2 januari 2026 14:00]

Zolang Alphabet winst maakt kan de bubbel toch niet ploffen of wel? Ze maken elke keer maar meer en meer winst. Eens? Het gaat erom, of de argumenten of er een bubbel is. Wel genuanceerd zijn en wel echt zijn, en wel alles meegenomen gaat worden.

Ik denk zelf dat die AI bubbel niet gaat barsten. En als het gaat kraken, enkel OpenAI en Anthropic opgekocht gaan worden door andere partijen. En dan is het gewoon weer van: En door!!!! Gaan met die banaan.

Ik zie geen bubbel echt. Er word genoeg winst gemaakt om de trein nog tientallen jaren voort te laten gaan.

[Reactie gewijzigd door Immutable op 2 januari 2026 14:01]

Die winst komt gewoon van advertenties. Eens de bubbel varsr staan heel veel mensen op straat, wordt heel veel infra afgedanlt, en daalt het aandeel fors omdat blijkt dat heel veel investeringen waardeloos zijn.
Hele AI bubbel verhaal is een Papegaai praatje. Want ten eerste kun je dit totaal niet vergelijken met de dot.com bubbel. Dat was compleet anders. Dus dat mensen die vergelijking maken is al krom en fout en naief.

Het hele AI bubbel verhaaltje kwam omdat iemand zei: Oh een paar partijen zitten in elkaar te investeren als ouroboros. Klopt, maar dat is maar een klein deel van het gehele kapitaal dus niet zo spannend. (Van een mug een olifant maken zeg maar.)

Als er een partij is waar ik het meeste zorgen om maak is OpenAI. Omdat die het volledig van investeerders moeten hebben. En Anthropic ook. Maar Anthropic gebruikt amper Nvidia, maar ze gebruiken chips van AWS. Google maakt zijn eigen chips. Vooral X.Ai en OpenAI maken gebruik van Nvidia. X.Ai met Grok vind ik persoonlijk niet echt een hele goede AI. En OpenAI ook niet. Grappig dat de twee AI's die het meeste leunen op Nvidia eigenlijk gewoon slechtste zijn van de 4 groten.

De beste zijn op dit moment gewoon Gemini en Claude. Beide draaien NIET op Nvidia.
Nvidia gaat ook niet klappen, die gasten hebben al teveel geld verdient.

Enige AI bedrijf dat eventueel zou klappen, waar ik geen geld in zou stoppen is OpenAI. En X.Ai heeft wel genoeg geld met Elon Musk erachter en zijn vriendjes en funding connecties. (veel beter dan OpenAI.)

Als OpenAI gaat.... Microsoft gaat het kopen. Het zal dus niet "verdwijnen".
Er is dus maar 1 mini bubbeltje. Dat is enkel OpenAI.

[Reactie gewijzigd door Immutable op 2 januari 2026 14:13]

ten eerste kun je dit totaal niet vergelijken met de dot.com bubbel. Dat was compleet anders. Dus dat mensen die vergelijking maken is al krom en fout en naief.
Je roept dit nu wel, maar onderbouwt dit niet. Ik zie anders genoeg parallellen: zonder geld te verdienen zie je bedrijven nieuwe technologie in alles proppen en enorme investeringen krijgen, maar de inkonsten blijven maar uit. De P/E ratio stijgt naar ongeziene hoogstens, allemaal gebaseerd op beloftes en niet op echte resultaten.

Uiteindelijk is de dotcom bubbel geknapt. Niet omdat enthousiasme onterecht was: het internet was wel degelijk een enorme game changer, alleen was het enthousiasme te hard en te snel opgelopen, waarna we een keiharde correctie kwam, die door de grootte van de bubbel helaas de rest van de economie meesleurde.

AI is zeker niet nutteloos. Maar ik wijs je weer op de inkomsten en uitgaven van openAI: totaal van de pot gerukt. En de P/En ratio van de S&P500 is nu weer even astronomisch als toen.

De vergelijking is in mijn ogen dus absoluut terecht, en dat baseer ik dus deels op cijfers.

Ik hoor heel graag welke feiten je kan aantonen die me tot een ander inzicht kunnen brengen.

Overigens wijs ik naar OpenAI omdat dit met het meest succesvolle AI bedrijf is. De onkosten van alle andere AI bedrijven liggen vele malen lager en daar wordt het plaatje dus nog lelijker. En bij de Big Tech partijen zoals Microsoft en Google is het plaatje oneerlijk: ik MOET van Microsoft dit jaar 30€ meer betalen voorijm Office en OneDrive plan, omdat ik er nu AI bij krijg, ook al wil ik het niet. Die gebruiken dus andere diensten om hun AI product op te dringen aan klanten. En ook Google drijft op inkomsten uit andere bronnen (advertenties), en dringt je Gemini op eender wanneer je iets zoekt. Daar ga je dus nooit eerlijke cijfers vonden als je echt wilt achterhalen of er eigenlijk wel echt vraag is naar de huidige AI features, en er dus wat aan te verdienen valt.
EASY, Dot-com PE ratio's waren destijds wel 4x hoger gemiddeld dan nu. Nasdaq zat tijdens de dot.com bubbel op wel 200 PE ratio.
Google zit maar op 30, Nvidia op 25, Amazon op 32, Microsoft op 33. X.Ai = Privaat. En OpenAI is ook privaat.

De dotcom bubbel was VEEL extremer, er werd toen geen winst gemaakt. NU WEL. Dat is het verschil! Allemaal papegaai praat. Geloof me nou.

Ik ben het wel eens dat ze natuurlijk AI overal erin proberen te pushen. Zoals Microsoft en Google.

[Reactie gewijzigd door Immutable op 2 januari 2026 14:33]

er werd toen geen winst gemaakt. NU WEL
Niet met AI. Wederom: openAI, het meest succesvolle AI bedrijf (die dus geen winst maakt met andere activiteiten om de enorme AI verliezen te maskeren) heeft 13 miljard dan inkomsten, maar wel uitgaven van 1150 miljard aangegaan, enkel voor infra.
PE ratio's waren destijds wel 4x hoger gemiddeld
De ratio van de S&P500 in 2000 was ongeveer 44.

Die ratio is nu 40. (Voor beiden heb ik de Schiller ratio gebruikt om te corrigeren voor inflatie en kortstondige schommelingen)

Dus neen, ik blijf vooral gelijkenissen met de dotcom bubbel zien.

[Reactie gewijzigd door kiang op 2 januari 2026 14:58]

Ik geef je helemaal gelijk rond de bubbel rond AI.

Maar niet je sneer richting het nieuwe pensioenstelsel. Ook in het oude stelsel is het geld namelijk gewoon belegd. Als u in het oude stelsel een tekort is, dan is dat ook het probleem van de gepensioneerden.

Het is niet zo dat er nog een veel grotere som geld ergens klaar staat om tekorten aan te vullen.
Dat idee heb ik ook indd. Een snelle google search gaf de volgende cijfers voor de gaming revenue van Nvidia de afgelopen jaren. Jensen geeft zelf ook aan dat ze geen 'gaming' bedrijf meer zijn maar inzetten op ai datacenters.
  • Fiscal Year 2023: Gaming accounted for 33.6% of total revenue.
  • Fiscal Year 2024: Gaming's share dropped to 17.15%.
  • Fiscal Year 2025: Gaming reached a new low of 8.7% of total revenue. 

[Reactie gewijzigd door Stehf op 1 januari 2026 12:15]

Heb je ook absolute getallen? Want percentages zeggen nu helaas niet zoveel vooral als je kijkt naar hoe sterk AI is gegroeid qua bedragen. Procentueel is het aandeel afgelopen jaren gedaald van gaming, maar veel interessanter is hoe dat zich verhoudt naar de 'total revenue'.
Maar waarom zou dat interessanter zijn? Gaming is maar een klein deel van het bedrijf, en zal gewoon veel minder aandacht krijgen van het management.
Omdat er gesuggereerd lijkt te worden dat Nvidia minder aan consumenten wil gaan leveren, terwijl het best kan zijn dat die leveringen stabiel zijn gebleven, maar door de enorme groei van AI bedrijven vooral veel meer zijn gaan kopen bij Nvidia.
Ik denk dat men wel nog de gaming markt ook wil bedienen maar dan met goedkopere hardware. Het is pas als de 5060 bvb fors zou opslaan dat het gros van de gamers wegloopt richting bvb consoles. Plots is het erg logisch dat de 5060 nog steeds "maar" 8GB heeft.

Gamers zijn gewoon enorm verwend geweest in het verleden met als hoogtepunt de 1080Ti. Ik denk niet dat die tijd ooit nog terugkomt.
Zo werkt het niet altijd de praktijk, er kunnen diverse redenen zijn maar bv ik ben ook meer geïnteresseerd in absolute getallen dan abstracte cijfers.

Percent zegt helemaal niet zoveel in een bubbel, toch?
Als ik vandaag 1 miljoen winst maak op mijn beperkte productie capaciteit en 10 miljoen omzet en morgen 1.5 miljoen op 12 miljoen omzet maar 50 miljoen op een andere 100 miljoen omzet dan is het niet relevant dat in absolute getallen gaming winstgevender is geworden danwel meer omzet heeft gedraaid als non gaming veel meer kan opleveren door daar de productie capaciteit voor in te zetten.

De absolute getallen die tellen: de mogelijke winst die uit productie capaciteit kan voortvloeien. Niet hoeveel gaming kaarten zijn verkocht.

[Reactie gewijzigd door TWeaKLeGeND op 1 januari 2026 15:04]

Vergeet ook niet dat v
10jaar geleden je elk jaar tot 2jaar nieuwe kaart kocht ivm die veel sneller was en betere graphics had.
Nu zitten we al 10jaar tegen de limiet en zien we weinif nieuws elk jaar komen. Met gevolg dat rtx3080 nog steeds meer dan goed is voor games.
Kaart van goei 5a 6jaar oud. Dat was vroeger wl anders na 5jaar
Nee de consument is niet vervelend de consument is de hoofdreden waarom bedrijven überhaupt bestaan of het nu om PC of console spelers gaat of om gebruikers van sociaal media of service diensten de consument is diegene die alles betaald en alles draaiend houdt daarom moet de consument eens nee zeggen tegen beleid en prijsverhoging.

Bedrijven zoals Micron en Nvidia enz. die kunnen wel nee zeggen tegen de consument dat hun bepaalde hardware niet kunnen kopen of prijzen verhogen omdat die bedrijven voorkeur geven aan andere bedrijven die services willen verkopen maar als de consument daar nee tegen zeggen dat zijn al die investeringen in AI en Cloud zinloos.

Niet alleen hardware fabrikanten en service providers zullen er last van hebben dat de klant nee zegt ook software ontwikkelaars zullen het effect voelen omdat de consument niet meer investeert in nieuwe hardware en dus software en het was al triest met al die ontslagen maar misschien moet de hele industrie eerst crashen voordat het duidelijk is.

Hetzelfde met accounts en informatie verzamelen en training van AI als gebruikers niet meer inloggen voor informatie verzameling en geen gebruik van services maken dan is het allemaal zinloos voor die bedrijven om te investeren in AI en Cloud dan zullen hardware fabrikanten toch weer bij de consument aankloppen om centen te verdienen en gaan de prijzen weer naar beneden.

Het gaat niet specifiek om één onderdeel maar in het geheel moet wij eens nee zeggen en dat zal even vervelend zijn om anoniem of met VPN te browsen en in plaats van een bericht of mail zelf op bezoek gaan en in plaats van het nieuwste spel een spel van 10 jaar of 20 jaar terug te spelen of gewoon even een potje Klaverjassen maar voor bedrijven zal het zware gevolgen hebben en blijkbaar is dat nodig.
Nee, specifiek voor deze bedrijven is de consument vervelend (geworden). Bijzaak. Niet relevant. Zie bv de cijfers waarmee Stehf reageerde, in 2025 was de gaming tak minder dan 9 procent voor Nvidia. Die productie capaciteit hadden ze veel liever gebruikt voor datacenter producten.

Verder klopt wat je zegt wel, het enige wat dit recht kan zetten is een mega crash. De stappen die je noemt om daar te komen zijn echter compleet onrealistisch, veruit de overgrote meerderheid blijft lekker door consumeren en kan dit alles aan hun kont roesten.

Not gonna happen.

Enige manier waarop dit misschien gebeurt is als AI inderdaad instort en alle vraag daaruit verdwijnt. Zeker realistisch mogelijk, maar nog steeds een flinke "als".
edit:
Walgelijke schrijffouten gefixt

[Reactie gewijzigd door Diavire op 1 januari 2026 15:55]

Wat je nu al ziet is een verhoging van software efficiëntie. Een bepaalde tool in mijn vakgebied waar data wordt geanalyseerd met AI modellen, is van 12 uur draaien op een A100, naar minder dan een uur op een H100 gegaan. Puur door efficiëntere code en andere optimalisatie.

Gevolg, minder hardware nodig, want de ruwe data kunnen we toch niet sneller produceren
Uhm... Een H100 is wel een heel ander beestje dan een A100. Dat is niet puur efficiëntie en andere optimalisatie.
Klopt, in de praktijk scheelt het echter maar een factor twee (ongeveer) voor dezelfde job. Op de a100 doet ie er ongeveer 2 uur over tov de oude 12, dus nog steeds een forse efficiëntie verbetering
Ik voorzie eerder dat er weer iemand het gat gaat vullen die er toch ontstaat. De vraag is er.

Net als met de crypto gpu boom, er ineens specifieke miners gemaakt werden die efficiënter zijn dan een videokaart. En daarmee de markt weer wat ruimte gaf.

Dat nu deze grote bedrijven vol inzetten op ai chips is begrijpelijk, maar om daarmee de gaming markt gewoon gedag te zeggen is dom. Het kan prima naast elkaar bestaan. Maar zelfs als nvidia geen 6000 serie zou maken blijft er toch vraag naar high end gpus.

Ik snap ook niet dat ze de gamers willen uitmelken als er toch een vetpot staat vanuit de ai centers. Blijkbaar willen ze de productie terugbrengen en toch de omzet blijven houden.
Vraag en aanbod is één ding maar prijs kwaliteit een ander. De prijs van de 5090 is nu a niet verantwoord laat staan het dubbele.
Je vergeet dat er maar een beperkte hoeveelheid wafers gefabriceerd kunnen worden voor dit soort geavanceerde chips.

De volledige productie is verkocht voordat het zelfs maar uit "de oven" gerold komt.

Dus nee, het kan niet naast elkaar bestaan, het is een keuze tussen (heel gesimplificeerd);

1) Producten die 100 euro per stuk opleveren

2) Producten die 1000 euro per stuk opleveren

Dan gebeurt er wat je hier ziet (en in andere berichtgeving), productiecapaciteit voor de gaming producten omlaag en ruimte maken voor de dingen die 10x zoveel opbrengen.

Productiecapaciteit duurt jaren om bij te bouwen, je hebt het hier over de meeste state of the art faciliteiten, dat zet je niet in een half jaartje neer.
Ik neem aan dat de prijs per chip niet veel verschilt afgezien van de kwaliteit van de chips (verschillende versies 5050-5090 bijvoorbeeld)

Dat nu voor ai dezelfde chip gebruikt wordt omdat die chip goed is in deze berekening, hoeven ze niet ineens meer waard te zijn.

Maar blijkbaar is de vraag naar de chips zo groot dat daarom de prijs stijgt en daarom dus ook de videokaarten stijgen

[Reactie gewijzigd door Bulls op 1 januari 2026 18:48]

Binnen je eigen comment kom je blijkbaar tot het besef wat waarde van iets inhoudt, heel goed ;D

De R&D zal vele malen hoger zijn, de daadwerkelijk wafer niet, daarom is het ook logisch dat ze de productie schuiven naar iets wat zo goed als evenveel kost, maar vele malen meer opbrengt. Daarbij zorgt de toenemende schaarste (lagere productie aantallen, iets van -30% voor dit jaar geloof ik) in hogere prijzen voor gaming spul. Dan hebben we het nog niet eens over (V)RAM.
China is de laatste jaren druk bezig om zoveel mogelijk nationaal te proberen produceren op vlak van semi conductors, er is ondertussen al een beperkte productie gestart van DDR5 geheugen door de firma CXMT.

Er zijn ook andere bedrijven in China die bezig zijn met ontwikkelen van CPU / GPU s, het is een kwestie van tijd alvorens ze producten ontwikkeld hebben die performant genoeg zijn om de globale markt te betreden.

Bijkomend is het gebruik van GPU's voor AI al niet meer exclusief, Amazon heeft zijn eigen silicon ontwikkeld genaamd Trainium wat performanter en efficienter is dan GPU's.

Er is dus nog hoop :p
Dat is toch al lang gaande? Google gebruikt zijn eigen Tensor chips. En AWS levert hun Trainium & Inferentia chips. Daarnaast heb je nog AMD die nu op stoom begint te komen.

Echter dat lost het geheugen probleem niet op.
Ja, voor wat aan het einde van de keten wordt geleverd is de consument altijd belangrijk. Maar voor de schakels er tussen in niet. Even kort door de bocht: het boeit bijvoorbeeld HPE echt niet of hun klant genoeg verdient aan consumenten, zolang ze maar betalen voor de servers. Ze kunnen hoogstens meer servers verkopen als iets succesvol wordt, maar ook op de eerste server die ze aan een klant verkopen maken ze winst.
Dan kunnen ze ook gewoon stoppen met de consumententak. Dan zijn die consumenten in één keer weg.
Wat je misschien bedoelt is dat ze voor de vorm nog consumenten producten aanbieden om als de AI markt instort een fallback plan te hebben, maar alle prio op AI en commerciële toepassingen leggen. Dat is denk ik een terechte inschatting.
Yup, volledig afkappen zou jezelf hard in de voet schieten zijn, als de boel klapt kunnen ze gewoon weer met productie schuiven. Maar voor nu is het voor hun het meest interessant om spul voor gamers op de back burner te houden.
waarom stoppen ze dan niet gewoon met de productie en verkoop van de consumenten hardware? Dat is veel eenvoudiger en effectiever dan een hele strategie opzetten om de consument weg te krijgen. Nergens voor nodig om nog 5090's of lager te produceren als je niet wil dat consumenten je lastig vallen.
Omdat je dan geen fallback meer hebt voor wanneer vraag uit datacenters afneemt.

Als ze de gamertak minimaliseren maar niet afschaffen kunnen ze redelijk makkelijk schuiven met productie naar wat het meeste opbrengt.

[Reactie gewijzigd door Diavire op 1 januari 2026 17:36]

Een consument met een beetje een geheugen en geweten zou NVDIA dan de vinger moeten geven en zeggen dat ze nooit meer iets van dat kutbedrijf zullen gaan kopen, gezien de manier waarop ze betutteld en gemarginaliseerd geweest zijn...
Het is zo jammer dat alle bedrijven wettelijk verplicht zijn winstmaximalisatie te realiseren voor de aandeelhouders.

Een beetje eergevoel en trouw naar gamers waar ze altijd van bestaan hebben speelt blijkbaar geen rol. Nvidia is een monster dat zonder geweten geld eet.

Zou de lokale bakker op deze manier zaken doen kan hij het zelfde jaar zijn deuren nog sluiten, omdat niemand hem meer wat gunt, en de bakker verderop ook prima brood bakt.

Gamers hebben de pech dat hun hardware over de laatste jaren toevallig heel geschikt blijkt te zijn voor andere taken waar blijkbaar meer geld mee verdiend kan worden, crypto/AI.

Anyway, ik heb in mijn leven nog nooit een groene gpu gekocht en ondanks dat is Nvidia nu het waardevolste bedrijf ter wereld lol, zo zie je maar weer.

Het zou me niks verbazen als we qua hardware een langdurig plateau hebben bereikt. Misschien daarom dat gabe juist nu de steam machine introduceert. Hopelijk leren AAA game developers in deze tijd genoodzaakt eindelijk hun games goed te optimaliseren. Ze kunnen er iig niet meer op vertrouwen dat hun klanten elke 2 jaar een gpu upgrade doen.

De hobby is niet meer wat het was helaas. En AI kan zowel de redding als de ondergang zijn van gaming. Tot nu toe merken we alleen nog maar de nadelen...

[Reactie gewijzigd door Catrinus op 2 januari 2026 13:52]

Dan begin je toch een eigen bedrijf om een concurrent van Nvidia te worden, om de consument te bedienen? 8)7

[Reactie gewijzigd door Immutable op 2 januari 2026 14:16]

Als je helemaal stopt dan geef je de markt ook aan Intel en AMD natuurlijk, plus zitten ze ook nog aan allerlei contracten vast, retail partners, driver support ook voor grootzakelijke overeenkomsten. Het is slimmer om te minimaliseren en naar een soort exclusiviteitsverhaal te gaan. Dan blijf je wel begeerlijk als merk, en kun je altijd weer de sluizen openzetten als de AI bubbel barst. En dan blijft het ook naar concurrenten AMD en Intel een risico, als die dan tegen hogere prijzen extra chip capaciteit inkopen, lopen ze altijd dat risico van NVidia die plots weer helemaal terugkomt in de consumentenmarkt. Dat remt je concurrenten hun investeerders dus ook weer af in hun capaciteitsuitbreiding, want dat kan dan plots een korte termijn verhaal blijken.
Hadden AMD en Intel nu net nieuwe GPU generaties klaarstaan, dan was daar misschien ook wel wat meer bloed geroken vanuit de investeerders, maar je leest overal dat dat waarschijnlijk toch echt pas weer 2027 wordt. De marges op huidige kaarten zijn niet zo spectaculair, en de winst voor gaming prestaties ook niet dat gamers veel hogere prijzen bereid zijn te betalen, dat je daar duurdere productiecapaciteit aan wilt besteden.

[Reactie gewijzigd door OruBLMsFrl op 1 januari 2026 17:22]

Nope, ze hebben controle over de markt, want AMD en Intel hebben niet de middelen om tegen Nvidia op te bieden voor productiecapaciteit. Buiten lopende contracten is iedereen gewoon de Sjaak.

Productiecapaciteit is eindig, alles is al verkocht voordat het uberhaubt geproduceerd is.

Als AMD en Intel geen productiecapaciteit kan inkopen omdat Nvidia meer biedt, dan houdt het simpelweg op.
Zoiets las ik laatst ook bij het bericht over dat Samsung zelfs geen chips aan zichzelf verkoopt, omdat ze er meer voor krijgen van o.a. Apple.
Bedrijven zijn ook gewoon aantrekkelijkere klanten, omdat die meer geld hebben. Dit heeft verder niks specifiek te maken met dit deel van de markt; dit geld in alle industrieën en markten: lonen stijgen minder hard dan de economie en dan inflatie, bedrijven groeien harder dan inflatie, harder dan lonen. Bedrijven hebben een steeds groter aandeel van ons geld, dus bedrijven worden steeds aantrekkelijker als klant, en gewone mensen minder.
Als een RAM producent al letterlijk zegt dat ze liever heel hun capaciteit reserveren aan big tech bedrijven die hun AI willen upscalen, dan ga je als consument hoogstens een druppel op een hete plaat betekenen.

Het enige waar je op kan hopen is een volledige crash van de AI bubbel, tot dan lijkt geen enkel bedrijf die massa's investering in AI niet te willen stoppen uit schrik om als verliezer uit de AI race te stappen.

Maar het is inderdaad pure waanzin wat er nu aan het gebeuren is. Als je absoluut een nieuwe pc wilt samenstellen, dan lijkt plots underdog Intel Arc een piste. Als je dan iets van tegengewicht overweegt, dan is dat precies de betere keuze.
Dan moeten we als consumenten AI links laten liggen. De markt is verschoven: waar NVIDIA en de RAM producenten eerst direct aan de consument leverden, leveren ze nu aan de AI leveranciers die een product aan de consument leveren.
dat is het lastige. als consument kun je de AI niet links laten liggen. Ik werk zelf bij de lokale overheid en alle promotiemateriaal, modellen, een deel van de teksten, marktanalyse: komt allemaal uit AI. al een poosje. Reclames op TV worden met AI gemaakt (al dan niet zichtbaar voor de consument), logo's van bedrijven, noem maar op: allemaal AI. En als consument weet je helemaal niet waarom het ene bedrijf een paar euro goedkoper is dan een ander bedrijf. we kijken vaak snel naar wat hetzelfde product bij de een en bij de ander kost, en gaan voor een goedkopere optie als dat kan. Dat die goedkoper is door de inzet van AI weten wij vaak helemaal niet.
Ik gebruik het zelf ook steeds meer. Ik betaal er niet voor, maar het is af en toe wel heel erg handig om iets aan Gemini of ChatGPT voor te leggen, al is het maar om mijn gedachten over een complex onderwerp wat te ordenen.

Is het de absurde investeringen waard? Dat denk ik niet. Ik denk dat de AI industrie een enorme kuil voor zichzelf aan het graven is. De enige manier waarop dit volgens mij het geld waard kan zijn, is als ze het kunnen aanbieden als vervanging voor dure werknemers. Dat zou natuurlijk catastrofaal zijn als dat gebeurt. Maar het zou intussen denk ik ook catastrofaal zijn als dat niet gebeurt, want dan komen heel veel grote bedrijven in de problemen.
Of het de absurde investeringen waard is... zal de tijd leren. Iedereen weet dat er lucht zit in al die AI bedrijven. Maar iedereen weet ook dat er bij de internet-bubbel een aantal bedrijven zijn boven komen drijven. De internet-bubbel is wellicht gebarsten. Maar internet niet.

Het gaat er m.i. voorlopig nog niet om dat werknemers vervangen worden. Maar dat er bijv. 10% minder werknemers nodig zijn. Dat bepaalde taken sneller gaan. Ik zie het AI-gebruik op mijn werk ook overal toenemen, bij zo'n beetje alle disciplines (zoals Arokh hierboven ook zegt).

Ik sprak gisteren bijv. een vriend van me die bij een internetredactie werkt. 100% van de teksten laten ze 'even' redigeren door ChatGPT. En idd, ze starten ook met opzetjes die door ChatGPT worden bedacht. Als je 10% minder mensen nodig hebt... Of je kunt met dezelfde hoeveelheid mensen 10% meer werk verrichten... dan is dat best veel waard...
Iedereen weet? Je bedoelt die Papegaai Praat over de AI bubbel die iedereen elkaar napraat zonder enige goede argumenten. En zonder ook tegenargumenten serieus te nemen? (En dus de AI bubbel, dus een biased mening is?)
Waar wordt die AI voor gebruikt ? dan zal toch uiteindelijk weer voor consumptie bedoeld zijn dus als de consument nee zegt wat dan ? hoe gaan de bedrijven hun investeringen terug halen als de consument nee zegt tegen informatie verzameling en nee zegt tegen betaalde services ?

De wereld draait om geld en de gewone consument staat daar centraal in dus waarom blijven bedrijven denken dat de wereld om hun draait ? de consument zoals jij en mij moeten gewoon eens zeggen nee wij kopen niet meer en nee wij gebruiken niet meer dan moet eerst maar eens de prijs en kwaliteit verhouding beter.

MS, Sony, Nvidia enz. roepen al 10 jaar of langer 4K en 120 frames maar in de praktijk een 60 frames op 1080P halen is al teveel gevraagd voor omstreeks de 500€ op console en omstreeks de 800€ op PC en daar komt nog wel een 200€ of 300€ bij voor consoles en op PC misschien wel 400€ zodat je een spel van 80€ vol met bugs & glitches kunt spelen.

Het begint off topic te worden maar ik ga terug naar fysieke media met zowel spellen als films en muziek en blijf mooi verder gaan met Nintendo DS, Switch, XB360, XBS PS4, PS5 en misschien komt er ook wel weer een NES in huis of gewoon de NES Mini volgooien met spellen en hopelijk zeggen andere spelers en gebruikers ook eens nee tegen bedrijven want anders wordt het alleen maar erger en is eigendom verleden tijd.
De AI race heeft een zware inzet, naar mijn mening is dit "het nieuwe zoeken op internet" (en meer) en net daarom dat hier zoveel geld naartoe gegooid wordt. Als je bekijkt wat Google / Alphabet van waarde heeft, dan weet je dat er fel veel geld mee gemoeid is.

Maar die "en meer" is ook belangrijk (en misschien nog belangrijker). Waar ik werk is AI al succesvol gebruikt geweest. Van de training van nieuwe support medewerkers (interne chatbot op basis van 1 jaar telefoongesprekken afluisteren) tot wetteksten lezen om het legal team te versterken of hulpmiddel voor de ontwikkelaars bij het schrijven van code. Dat zijn wel tools waar bedrijven gerust wel geld voor overhebben als kan bewezen worden dat het nuttig is. De consument, daar denk ik inderdaad dat die niet zo snel zal betalen voor die AI hulpmiddelen.

Maar geef je overschot van gelijk dat het nog maar de vraag is of het de investering kan terugbetalen. Als ik kijk naar de zelfrijdende wagen, waar ook al miljarden naartoe is gevloeid, dan stel ik mij echt de vraag of we ooit tot op dat punt geraken. Een zelfrijdende wagen moet 100% werken voordat een transport bedrijf er pakweg €1.000/maand voor overheeft. Als die er altijd een chauffeur naast moet zetten voor correcties, dan zal die nooit dat bedrag eraan willen betalen. Een consument, die zal echter nooit honderden euro's per maand extra betalen voor een zelfrijdende wagen, dat weegt gewoon niet op tegen gewoon een rijbewijs halen.
Het verschil tussen AI en de zelfrijdende wagen is echter wel dat AI niet 100% moet werken om succesvol te zijn. Gewoon al een hulpmiddel waarbij een expert controle doet van wat die maakt is eigenlijk al voldoende, net zoals bij ons voorbeeld van de wetteksten. AI kan zeer snel meteen een eerste inzicht geven nog voor onze juridische dienst het moet heeft bekeken.
Waar wordt die AI voor gebruikt ? dan zal toch uiteindelijk weer voor consumptie bedoeld zijn dus als de consument nee zegt wat dan ? hoe gaan de bedrijven hun investeringen terug halen als de consument nee zegt tegen informatie verzameling en nee zegt tegen betaalde services ?
Ik denk dat defensie uiteindelijk de grootste afnemer wordt. Echte ai voor defensie en een afgezwakte versie voor consumenten en bedrijven. Dus techbedrijven zouden in mijn hypothese wel eens een belangrijke rol kunnen innemen bij defensie en overheidsinvesteringen, net als bijv. vliegtuigbouwers 100 jaar geleden. Als ai de gamechanger wordt die het wenst te zijn, dan zal het ook voor slechte dingen ingezet worden. Hoop er uiteraard niet op!
Ik hoop dat Intel met ARC in het onstane prijsgat kan springen, zou geweldig zijn als er een derde speler komt die wel redelijke prestaties tegen goede prijs kan leveren. Als ze dan kunnen groeien van 1 tot 10 procent moet AMD en ook Nvidia er serieus rekening mee gaan houden.
De markt van mensen die zelf een nieuw PC samen stellen is al helemaal niet interessant voor dit soort bedrijven. Dat is leuk in onze tweakers bubbel maar daar buiten bestaat dat vrijwel niet meer.

Maar dat ze liever in het groot willen verkopen is niet exclusief voor deze sector. Een boer verkoopt ook liever alle groenten vooraf aan 1 grote afnemer dan dat hij sperziebonen per 500 gram aan consumenten levert. En zo geldt dat voor iedere sector.
Misschien wordt het eens tijd dat spelers en de consument nee zegt tegen de gretigheid en opdringerigheid van de bedrijven ?
Dit wordt al jaren geroepen maar er verandert niets. Bij de 4090 was exact hetzelfde sentiment er betreffende de exorbitante prijzen, en toch hebben ze er keihard winst op gemaakt omdat men de dure producten alsnog bleef kopen.
Inderdaad maar dat is specifiek één markt en dan kun je nog over op bijv. consoles maar wat er nu aan de hand is dat een andere markt zoals AI de rest beïnvloed zoals videokaarten, werkgeheugen, opslag, consoles etc. de bedrijven zullen wel denken als consoles en PC onbetaalbaar wordt dan zullen spelers wel overgaan op Cloud gaming en dan kun je maandelijks betalen.

Dan heb je geen eigendom meer in zowel hardware als software en dan willen de bedrijven graag keer op keer hetzelfde verkopen of beter gezegd verhuren en ik heb zelf ook plezier van XB Gamepass gehad en heb ook iets van 150 spellen digitaal gekocht op XB maar achteraf was het geld beter besteed aan spellen op disc en cartridge.
Wat nog meer van belang is: al zeggen we massaal mee, dan is dat geen issue voor Nvidia. Het zou dus massaal mee zeggen tegen ML moeten zijn.
Kennelijk zijn er dan genoeg consumenten die het er voor over hebben.
Dat is juist wat hun doel is. Ze geven geen fuck om normale mensen.
Het is geen sociaal gebeuren, het is een commerciële organisatie. Jouw werkgever kiest toch (hoop ik voor jou) toch ook de meest winstgevende klanten uit als er geen capaciteit is om aan iedereen te leveren?
Correct me if im wrong maar de capaciteits problemen is omdat chip fabrikanten tijdens corona veel meer zijn gaan produceren waardoor ze een overschot hadden. daarom was ram eerst zo cheap. Toen hebben de fabrikanten in samenspraak de producite omlaag gehaald. Toen kwam AI en nu zitten ze weer met een tekort. Dat klinkt eerder als mismanagement dan dat ze voor de meest winst gevende tactiek gaan.
Uiteindelijk genieten ze er natuurlijk wel van. maar ik hoop als de hele ai bubbel in elkaar valt veel bedrijven gewoon ten onder gaan. Want de manier waarop dit word gespeeld is gewoon schandalig.
Het is tijd de de overheid de duopoly aanpakt, net zoals ze dat nu een beetje met iOS en Android doen, want dit gaat te ver.
Dat nee zeggen gaat vanzelf hoor. Wie kan er nou 5000 neerleggen voor alleen de graka al?

Die prijs gaat helemaal nergens meer over. De ai bedrijven die deze prijzen neer leggen, moeten al deze investeringen terug verdienen en daarbovenop nog winst maken ook. Klanten gaan niet ineens een veelvoud betalen voor hun ai applicaties dus dat terug verdienen wordt wel erg moeilijk dan. De bubbel gaat barsten op zo’n manier en misschien wel sneller dan we denken met z’n allen.
Het gaat ook niet om di 20 euro per maand die je betaald voor Chat gpt. Het gaat er omdat bedrijven de eerste AGI willen hebben. Waardoor ze dus alle macht in handen hebben. Maar het probleem is inderdaad dat er nu 0 winst uit te trekken valt. En dat AI zelf ook gewoon maanden lang niet concreet beter is geworden. Sneller misschien ja maar niet beter. En dat gaat het ook niet worden. Dus die bubbel gaat knappen en dan zal nvidia een probleem hebben want bijna al hun waarde is gebakken lucht. Doordat ze geld lenen aan open ai zodat open ai dat geld weer bij hun kan uitgeven. Het gaat nergens over.
Consumenten zijn daar te dom voor. AMD heeft al meer dan eens betere performance/dollar gehad en dan nog blijven de meeste mensen Nvidia kopen. Ik ben na jaren AMD overgeschakeld naar Nvidia voor de encoder en de drivers van Nvidia zijn ZOVEEL slechter dan die van AMD. En in de omgekeerde richting hoor ik van 9070XT eigenaars hoe tevreden ze zijn van de AMD drivers na hun swap naar AMD. En toch zal de meerderheid liever de 5070ti kopen.

Nvidia heeft gelijk om te vragen wat de zot er voor wil betalen. Ik had al lang de prijs naar 3000 euro verhoogd als gamers er nu al 2000+ voor willen neertellen.
Consumenten moeten simpelweg niet die topkaart willen kopen.
Je koopt iets dat binnen je eigen bereik ligt.
Het is niet dat je 'recht hebt' op iets dat NVIDIA aanbiedt.

Als NVIDIA een kaart kan verkopen voor 5000 Euro, dan zouden ze wel gek zijn om dat niet te doen.

Een (doorsnee) consument behoort geen kaart van 5000 Euro in zijn computert te hebben, dus die kaart is niet voor consumenten.
De luxe dat NVIDIA heeft is dat ze momenteel de consument niet nodig hebben. Als gamers moeten we eigenlijk dankbaar zijn dat ze nog GPU's willen uitbrengen voor z,n kleine markt
Als gamers moeten we eigenlijk dankbaar zijn dat ze nog GPU's willen uitbrengen voor z,n kleine markt
Dat is volgens mij precies hoe nVidia denkt, waardoor ik het ondertussen steeds meer een verschrikkelijk bedrijf ga vinden
Geef ze eens ongelijk? Toch nooit voldoende, toch altijd iets, altijd te duur, altijd te weinig vernieuwing, volgens de consument.

Dus beter richten op de markt waar het wel goed gaat.
Ik zag vandaag een reddit post van iemand die een 4090-systeem op 2-jaar durende maandelijkse afbetaling had gekocht. Zodra de volledig schuld was afbetaald na 2 jaar tijd kocht hij een 5090, weeral met een klarna-achtige dienst. Tuurlijk is dat een kleine minderheid, maar misschien merkt Nvidia dat die 1% het toch wel blijft kopen.
Overigens zijn de consumenten van Nvidia/AMD grotendeels datacenters, AI-miljardairs. Die betalen dergelijke prijzen toch al, met deze stap worden de prijzen meer gelijk getrokken richting wat professionals betalen. Deze consumenten zeggen niet snel nee.

Fryslán Boppe en yndied folle lok en seine!
Misschien wordt het eens tijd dat spelers en de consument nee zegt tegen de gretigheid en opdringerigheid van de bedrijven ? het klinkt misschien veel gedoe wat weinig effect heeft maar bedrijven zullen er wel degelijk last van hebben als niets meer vanzelfsprekend is dat hun maar kunnen doen wat hun willen van informatie verzamelen en beleid opdringen tot prijs verhoging.
Mja het probleem is, ze doen het allebei. We willen toch wel gamen.
Zoals op oudere generatie hardware spelen waar spellen gespeeld kunnen vanaf de informatie drager zonder updates en uitloggen op accounts als dezen niet actief gebruikt wordt zoals Google, Gmail, Facebook, Instagram, Sony, MS, Nvidia enz. misschien een idee om in plaats van het zoveelste bericht of mail persoonlijk contact op te nemen voor koffie of een biertje en een potje Klaverjassen ^^
Leuk maar ik zie ook mensen in persoon. Wanneer ik wil gamen dan wil ik wat recents doen.
Dan ga je voorbij aan de oorzaak. De markt voor AI datacenters is veel luctratiever. Dat geldt zowel voor GPU’s als RAM, waardoor grafische kaarten dubbel worden gepakt.
Daar gaat het helemaal niet om. Ze hebben werkelijk geen andere keus. Ze kunnen niet meer maken dan de vraag. En ze hebben vrijwel alleen maar vraag van grote businessen die hier flink voor willen lappen. Dan ga je niet teveel aan de consument geven. Zolang de productie niet hoger kan en er ook nog problemen zijn met geheugen of chiptekorten etc... Met tegelijk een steeds hogere vraag door AI is het logische dat dit gebeurd. Er moet voor de consumenten kant wellicht even 2 jaar een cooldown moment komen. Wees eventjes happy met de videokaart die je al hebt en koop pas weer iets als het financieel haalbaar is op de markt. Dit gaat even tijd nodig hebben voor de markt weer stabiel gaat liggen.

Laat de AI bedrijven alles maar eventjes opslokken. Er komt een periode waarin zij weer gaan upgraden en de oude videokaarten refurbished of 2e hands doorverkocht worden. (of misschien ook niet) maar we zitten echt in een periode waarin AI monsterloads aan chips en GPU's nodig heeft. De AI race is net begonnen.
Het maakt niet uit wat de prijs is, er is altijd iemand bereid het te betalen.
De comments staan regelmatig bol van de figuren die lopen te klagen dat ze niets kunnen spelen dat niet voldoet aan bizarre specificatie, x,y,z . Minimaal zoveel honderd Hertz refresh rate, minimaal raytracing, minimaal resolutie..... Pas of het spel leuk is maakt ze niet uit. Hetzelfde als figuren die hun auto van allerlei "upgrades" voorzien en uiteindelijk met al die shit het er "leuk" laten uitzien, maar er in rijen is klote.

Dat soort figuren gaat geen nee zeggen. Die betalen alles voor hun hobby/verslaving.

Ze moeten een zullen iets hebben. Of ze nou leeggezogen worden met loot boxes of een dure videokaart. Niets gaat ze stoppen.

Was het maar dat die figuren en keer gingen nadenken, maar het gaat niet gebeuren.
De consument is maar 1% van de omzet, dat missen ze als kiespijn.
Ondertussen kunnen ze bij bedrijven veel meer geld vragen voor hetzelfde product, dat hebben ze van Covid geleerd.

Daarnaast heb je toch ook voor een minimale PC een videokaart nodig, daar betaal je ook al minstens €300 voor en met de verhoging van de geheugen prijzen gaat dat ook de komende tijd omhoog.
ze kunnen het vragen en de consument heeft het maar te betalen als ze een computer nodig hebben.
nVidia en AMD schrappen gewoon de driver ondersteuning van oudere producten waardoor je als consument opeens met lege handen staat.
Hetzelfde truukje wat Apple doet met de minimum required OS version in de App store.
Geen enkele consument zal deze kaart kopen, (behalve een paar ultra gekken). Bedrijven kopen deze kaarten en die hebben geld genoeg. N kan gewoon vragen wat ze willen. Het verkoopt toch wel. Of anders koopt OpenAI wel een boel op.
Begrijp ik het goed: Van 2090 euro/dollar naar 5000. Dat is meer dan het dubbele voor de 5090. Dat is het toch nooit waard. Ook al gaat het dan geleidelijk maar om dan meer dan het dubbele te vragen is absurd.
berichten geneoeg maar als er mensen zijn die hier mee akkoord gaan vind ik het niet normaal.

Zo word dus de hardware weer voor de elite, en wie zecht dat die uitspraken kloppen?
Gaat niet werken. Dan draait je Cyberpunk niet op 4k met ray tracing ultra.

Je kan wel principieel zijn maar het gaat tegen je eigen gamersgenot.

Niemand anders kan een RTX5099 bouwen en zonder GDDR kan het al helemaal niet.
Zou er echt 1 consument zijn die 5000+ gaat betalen voor een videokaart? Denk dat de meesten gewoon hun huidige setup blijven gebruiken tot de prijzen weer normaal zijn.
Er zou eens een alternatief voor een game-GPU/3d-accellerator moeten komen. Dit is alleen maar telkens FPS, polygonen en wat nieuwe licht-effectjes. Volgens mij moeten we daar al lang dik voorbij kunnen gaan met ouderwetse 2d video + software-rendering naar 3d met een kwantiteit aan rekenkernen.

[Reactie gewijzigd door blorf op 1 januari 2026 11:21]

Er zou eens een alternatief voor een game-GPU/3d-accellerator moeten komen. Dit is alleen maar telkens FPS, polygonen en wat nieuwe licht-effectjes. Volgens mij moeten we daar al lang dik voorbij kunnen gaan met ouderwetse 2d video + software-rendering naar 3d met een kwantiteit aan rekenkernen.
Nee. Zelfs met de beste CPU's ( >2500$) zal je niet ver komen en blijf je op NVIDIA 1030 niveau steken. Daarnaast ga je ook een enorme hoeveelheid energie verspillen.

GPU's werken echt heel anders en hoewel je dat kan emuleren is dat op geen enkele wijze een valide pad.
Er zitten transistoren in. Het hele proces is ook in enkel software uitvoerbaar. Dat vereist voor hetzelfde resultaat alleen maar meer oerformance van de hardware
Er zitten transistoren in. Het hele proces is ook in enkel software uitvoerbaar. Dat vereist voor hetzelfde resultaat alleen maar meer oerformance van de hardware
Dat is een veel te extreme vereenvoudiging. De manier waarop die transistoren met elkaar praten is fundamenteel anders.
Ja, het is op te lossen met een FPGA maar een FPGA met net zoveel rekenkracht als een gemiddelde GPU kost je meer dan die GPU. En dat kan dan rustig een factor 10 meer zijn.

Dit is een proces wat al tientallen jaren geoptimaliseerd is. Ja, het is anders te doen maar dan kost het vele malen meer en heb je 30 jaar ontwikkeling in te halen.
Ik betwijfel het. Welke onderdelen van een Nvidia GPU doen iets speciaals wat niet-3d GPU's niet kunnen? Je kan je beroepen op de toegespitse architectur die het superieur zou makem. Maar die is eveneens tientallen jaren niet openbaar.

Ik denk dat de lengte van de bedrading het meest significante verschil maakt. Dat is vast wel te overwinnen met een andere opzet voor 3d-graphics.
Bedoel je daar dan mee te zeggen dat mensen geen idee hebben of de toegespitste architectuur dan daadwerkelijk beter is? Het fundamentele verschil is namelijk vrij simpel, een CPU moet beslissingen maken en mogelijk elk moment een ander pad in slaan wat alle berekeningen veranderd, een gpu is domweg 10.000 keer in parallel een berekening aan het uitvoeren waar geen afhankelijkheden bestaan. Er is dus simpelweg veel meer rekenkracht omdat de architectuur geen rekening hoeft te houden met uitkomsten van zijn berekening
Een GPU heeft een totaal andere architectuur: superveel kleine parallelle processen. Daarom zijn ze ook zo goed inzetbaar voor crypto en AI, waar een CPU totaal niet rendabel is.
Ik betwijfel het.
Dat kan enkel omdat je niet weet waar je over praat.
Jouw reacties verbeteren daar ook niks aan. :+
Nou, gezien wat je hier zoal schrijft kan ik enkel concluderen dat je zelf niet echt je best hebt gedaan om het te begrijpen..,.,
Alleen de CUDA cores op zichzelf doen al het werk voor raytracing, dat ga je niet met een CPU afvangen.
Er zitten transistoren in. Het hele proces is ook in enkel software uitvoerbaar.
Dat is alsof je zegt: een vrachtwagen heeft wielen, en een motor ook. We kunnen supermarkten dus prima bevoorraden met motoren, je hebt er alleen meer nodig.

Technisch gezien waar, in de praktijk compleet onuitvoerbaar.
De praktijk bewijst het nadeel van motoren. Alleen, bewijs mij dat eens voor weergave van 3d-graphics met of zonder GPU. Dan kom je uit bij beperkt relevante details bij gaming die het verschil arbitrair zouden moeten maken.

[Reactie gewijzigd door blorf op 1 januari 2026 14:25]

Het grappige is dat Intel ooit een vergelijkbaar idee had met Knight’s Corner, dat was een CPU met GPU-achtige trekjes, en de bedoeling was dat je daar ook graphics mee kon doen. Compleet geflopt omdat de resulterende architectuur veel te inefficiënt was en er geen compiler was te schrijven die de potentie eruit kon halen.

IBM had ooit de Cell processor die in de PS3 zat, en Sony heeft destijds overwogen om er daar twee van te gebruiken in plaats van 1 Cell plus een traditionele GPU. Dat bleek ook totaal onhaalbaar wat performance en programmeerbaarheid betreft, dus kwam er alsnog een ‘normale’ en ook nog vrij slappe Nvidia GPU voor in de plaats.

Lang verhaal kort: best een leuk gedachten experiment maar de praktijk is dat GPU’s zoals we ze nu kennen niet voor niks op deze manier in elkaar zitten, en daardoor compleet andere eigenschappen hebben dan CPU’s etc, en er is vooralsnog niemand die een betere technologie heeft kunnen verzinnen die anders werkt voor graphics.
die cell processor zat in de playstation 3 die ik zelf heb en idd ze waren niet zo goed programmeerbaar, en niet te veel fratsen met een game kon uithalen.
Alleen, bewijs mij dat eens voor weergave van 3d-graphics met of zonder GPU. Dan kom je uit bij beperkt relevante details bij gaming die het verschil arbitrair zouden moeten maken.
Mijn desktop heeft een i5-13500 en een AMD RX 6600. Dat is een relatief tamme GPU vergeleken met de CPU (logisch, gamen was niet het hoofddoel). De CPU doet een krappe 800GFLOPS (single-precision). De GPU doet er 10600, meer dan 13 keer zoveel.

En dan negeren we nog het feit dat de GPU beter geoptimaliseerd zijn voor 3D-renderen CPUs (de instructieset sluit erg goed aan op wat nodig is voor rendering; pipeline stalls zijn relatief goedkoper op veel trage cores dan enkele snelle cores, etc). Je zit zo op een factor 20 verschil.

Dus ik zou het willen omdraaien; bewijs jij maar eens dat het wèl kan.
Heb je misschien voorbeelden van bedrijven die andere paden bewandelen om hetzelfde te realiseren?
Als jij ergens een 1000 core CPU vandaan tovert, dan zul je ontdekken dat je het ver aflegt tegen zo'n 5090 met 20 keer zoveel shaders die bovendien nog eens geoptimaliseerd zijn voor de taak.
Er zitten transistoren in. Het hele proces is ook in enkel software uitvoerbaar.
Ja, alleen zit je dan 5 minuuten op 1 frame te wachten...
Dat vereist voor hetzelfde resultaat alleen maar meer oerformance van de hardware
Nee, er is meer voor nodig. Er is een specifieke hardwarearchitectuur voor nodig. Die architectuur is heel inefficient voor algemene multitasked taken, maar is supergoed in graphics berekenen. Omgekeerd is een CPU met omliggende hardware veel beter in algemene taken (zoals het runnen van je OS), maar enorm traag in het uitrekenen van typische 3D graphics. Je zou je er eens in moeten verdiepen.,,.
En Lada en een Ferrari hebben allebei een verbrandingsmotor. Volgens jou moeten ze dus van de fabriek uit even snel zijn....

Laat jezelf onderzoeken zeg. Wat een vergelijking. GPU's worden ontworpen voor herhaalde bewegingen in parallel uit te voeren. Dezelfde handelingen op elke pixel. De CPU word geoptimaliseerd voor sequentiële taken, branching. Er is een klein beetje overlap natuurlijk, maar daar houd het wel op. En moderne CPU kan niet wat een GPU kan en andersom. Het zijn andere architecturen.
Misschien kun je uitleggen hoe dit dan werkt. Wat ik zie is dat GPU's juist geoptimaliseerd zijn voor de berekeningen die je in spelletjes gebruikt, en spelletjes zijn geoptimaliseerd om gebruik te maken van dit soort hardwareversnelling. Tot nu toe is het gebruik van specifieke hardware voor een probleem het meest efficiënt. Dus een CPU voor de logica van je spel en een GPU voor het grafische deel. Een CPU kan wel het grafische deel doen, maar doet dit veel langzamer. En dat patroon zul je herkennen in al dit soort hardware; ze doen een specifieke taak snel en efficiënt.

Mocht je alles met één chip willen doen, dan zou deze dus meerdere taken snel moeten kunnen uitvoeren. Een FPGA kan dit, maar hiervoor lever je snelheid, ruimte en vermogen in. Een ASIC is juist super specifiek, maar daarvoor lever je die flexibiliteit weer in. En mocht je een CPU maken met duizend kleine maar super snelle cores, dan moet je spelletjes ook herschrijven om hier optimaal gebruik van te maken.

Ik heb het vermoeden dat aan de software kant nog ruimte is om te verbeteren maar aan de hardware kant is toch al veel gedaan over de jaren. Vandaar dat een CPU+GPU tot nu toe de beste combinatie is.
Ik denk dat het verschil door optimalisatie bij een GPU alleen maar een opsomming kan zijn van alles wat niet kan zonder fysieke 3d-GPU. Dat lijkt me niet zo veel. Alleen maar de hogere detail-level en render-snelheid van 3d-weergave?

[Reactie gewijzigd door blorf op 1 januari 2026 14:11]

Het ding is dat spellen dat 'extra' stuk op dit moment gebruiken. Zodra een CPU dit werk moet overnemen, zal dit dus veel minder efficiënt zijn, waardoor je CPU meer energie verbruikt als de CPU het überhaupt trekt. Hardwareversnelling bestaat niet alleen 'omdat het kan', maar ook omdat het de meest efficiënte manier is. Een GPU is nu eenmaal geoptimaliseerd voor grootschalige parallelle berekeningen die veel bandbreedte nodig hebben.

Wat er nu gebeurt, is dat CPU-leveranciers (AMD/Intel/Apple) de CPU, GPU, TPU en RAM op één chip plaatsen. Daardoor kan alles effectiever en efficiënter met elkaar samenwerken. Je kunt ook de balans van rekencapaciteit van je hardware hierdoor aanpassen aan de vraag van de consument. Iemand die zware games wil draaien, krijgt dat meer GPU-capaciteit op zijn chip in vergelijking met een kantoorwerker. Dat is nog steeds puur hardware, je hebt geen optie om missende capaciteit via software op je CPU te draaien. Dat gebeurt niet, omdat een GPU nu eenmaal veel sneller is voor dit soort rekenwerk dan een CPU.

Ik heb vroeger op mijn EEEPC gewerkt, waar ik met een speciale driver shaders kon draaien in software. Maar dat was supertraag en dat was bovenop de traagheid die een EEEPC sowieso al heeft. Maar het werkte wel. Dat zul je in alle hardware blijven zien. Het is niet dat iets helemaal niet kan, maar dat bepaalde hardware iets super efficiënt kan doen. Met de introductie van de 3D-videokaart (GPU) liepen spellen ineens veel en vele malen sneller dan via de CPU. Met TPU's lopen AI-berekeningen vele malen sneller dan op je GPU. En iedere keer als zo'n product op de markt komt, krijg je een nieuw marktsegment. Van moderne hardware verwacht je dus dat ze komen met een CPU (inclusief FPU, level 1+2 cache), GPU+VRAM, NPU. Niet omdat een CPU zonder al deze dingen niet werkt, maar omdat het veel efficiënter (en veel sneller) is.

Mocht je alleen de klassieke Doom willen draaien, dan is alle hardware daar tegenwoordig geschikt voor, want die draait lekker op alleen een CPU. Maar mocht je Battlefield 6 met alle grafische pracht op 4K met 120Hz willen draaien, dan heb je daar op dit moment een GPU voor nodig.
In een gpu zitten letterlijk tienduizenden reken-eenheden. Ik weet niet hoe je een pc met 20000 cpu kernen gaat draaien, maar iig veel success...

[Reactie gewijzigd door koelpasta op 1 januari 2026 19:54]

Kijk computers zijn eenmaal zo gemaakt met die hardware in die videokaart.

Het is alktijd al zo geweest dat die processor met die grafische kaart beter presteren, de computers zijn eenmaal zo gemaakt en men kan door de jaren heen geen tweede hardware uit de hoge hoed toveren en zal het met deze hardware moeten doen, computers zijn eenmaal zo ontwikkelt zodat men een cpu en een gpu nodig heeft om een bepaalt spel of game te kunnen draaien.Het is eenmaal zo ontwikkelt als men een andere weg had ingeslaan dan zouden we andere hardware hebben.En dan zouden de spellen anders geprogrammert zijn.Cpu en gpu zijn zo onlosmakelijk met elkaar verbonden.Met deze hardware settings.
Het overgrote deel van de rendering-pipeline is programmeerbaar en dus software. Maar die software kan je alleen maar efficiënt uitvoeren door het massaal in parallel uit te voeren (via SIMD processoren) en door gangbare operaties zoals matrix en vectorberekeningen te optimaliseren. Door de grote hoeveelheid taken heb je ook veel geheugenbandbreedte nodig. Laat dit nu allemaal net zaken zijn die ook nodig zijn voor ML toepassingen.

Ga je een alternatief bedenken voor een GPU, dan ga je zien dat die ook voor ML (en andere) toepassingen gebruikt gaat worden. Of het alternatief moet weer gaan werken met een fixed pipeline, waardoor je weer bij graphics uit de jaren 90 terecht komt. Zodra er delen van de pipeline programmeerbaar werden werden GPU's ingezet voor andere taken dan 3D rendering, hetgeen uiteindelijk ervoor gezorgd heeft dat CUDA ontstond.

Ik vermoed dat je met software-rendering puur op de CPU bedoelt? Dat gaat perfect, maar aan een fractie van de framerate t.o.v. een moderne GPU. Je kan kijken naar LavaPipe en SwiftShader: beiden zijn CPU implementaties van Vulkan. Hier vind je een korte benchmark van beiden op wat basic demos: https://airlied.blogspot....arks-lavapipe-vs.html?m=1
Gears is vermoedelijk glxgears, hetgeen opent in een redelijk klein venster (iets van een 250x250pixels) en 3 roterende tandwielen afbeeldt. Met GPU's van 2005 haalde je daar al met gemak een FPS van 2500. Gears is echter een slechte benchmark: huidige GPU's hebben er geen werk aan, dus je bent trgenwoordig eerder communicatie aan het meten dan echt GPU performance.

Als je het over kwantiteit wilt hebben: Phoronix heeft ooit de llvmpipe en openSWR softwareimplementaties van OpenGL getest, op een CPU met 40 cores en 80 threads (dit was reeds in 2016, dus ook verouderd wel.) Maar hier haalde de softwareimplementatie
https://www.phoronix.com/review/llvmpipe-swr-xeon/2
Op OpenArena haalde openSWR slechts 30FPS voor een resolutie van 1280x1024. OpenArena is een Quake III fork en niet bepaald een grafisch hoogstandje: niet in 2026, maar zeker ook niet in 2016.

Meer CPU-cores betekent eveneens een hogere financiële kost. Daar ga je ook geen voordeel uit halen.
Welk deel van een GPU is niet na te doen in alleen software? Volgens mij is die markt "elitair" gemaakt. Alleen belanghebbenden krijgen kennis van de werking in detail, onder strikte voorwaarden.

Een oude laptop van me heeft een ATI Radeon Wrestler. Ik geloof er niks van dat computers zonder 3d-GPU 15 jaar later nog steeds niet in staat zijn om deze zwaar verouderde chip overodig te maken voor toepassingen van toen omdat de computer zelf innmiddels verder is.
Zoals je in mijn bericht kan lezen is elk deel perfect na te doen in software (ofja op CPU) maar het is simpelweg niet efficient. Je kan het zelf uitproberen als je wilt. Ik heb implementaties vermeld in mijn vorig bericht.

Alleen belanghebbenden? De specificaties van de APIs zijn bekend. De algoritmes achter rendering zijn gekend en veelal ontstaan uit een open community in de onderzoekswereld: daar zit niks geheim in.
Er is een reden waarom OpenGL en nu Vulkan bestaan.

Waar wel geheimen in zitten zijn de GPU hardware en de drivers, maar die heb je niet nodig voor een CPU implementatie.

Dit heeft helemaal niks met elitair te maken, maar simpelweg met de verschillen in taken tussen CPU en GPU. Waarom zou Intel anders zelfs maar moeite doen om een GPU bij hun CPU's te stoppen? Als dit allemaal zo goed in software ging zoals volgens jou mogelijk moet zijn, dan stond Intel gewoon te roepen dat hun CPU's even krachtig zijn als NVidia hun GPU's. Maar zelfs met een GPU module komt Intel niet in de buurt.

Ik kan bewerkingen op afbeeldingen perfect en eenvoudig parallel uitvoeren, zelfs aan 100% CPU gebruik. Maar qua snelheid haalt dat het zelfs niet van een GPU. En dit zijn basistaken, maar wel zwaar parallelle basistaken.
Allemaal gericht op een real-time proces dat een framerate moet halen? Ik denk dat als er buiten gaming significante vraag was naar de bewerkingen die GPU's doen, deze architectuur gewoon standaard-onderdeel van een CPU was geweest. Combi's zijn er overigens al lang. Eigenlijk trekt dat al het voordeel van een afzonderlijke graphics-chip in twijfel. Dat GPU's nu goed voor AI blijken te zijn wijst op structureel bedrog. Chips gaan vast niet beter presteren als je er een heleboel bij elkaar .n een datacenter van een bedrijf stopt...
In die combi's heb je dus ook een afzonderlijk GPU gedeelte, hetgeen gewoon aantoont dat het nodig is.

General Purpose Computing op een GPU (GPGPU) gaat al meer dan 2 decennia mee. Dus al lang voor de huidige AI trend. Die dingen worden net gedaan op een GPU omdat die taken daarop efficiënter zijn. Tuurlijk kan het allemaal op CPU, maar aan een fractie van de snelheid.

Kijk eens naar GPGPU voor meer info over toepassingen van een GPU: Wikipedia: General-purpose computing on graphics processing units

Dat jij er nu pas (24 jaar na de feiten) achter komt dat je met een GPU meer kan dan enkel rendering kan doen wijst totaal niet op bedrog, het wijst op een gebrek aan kennis.

De Vlaamse Supercomputer heeft overigens al minstens sinds 2014 (de eerste keer dat ik ermee in aanraking kwam) nodes met GPU's voor GPU specifieke zaken. En dat betreft geen rendering.

[Reactie gewijzigd door jerisson op 3 januari 2026 10:53]

Volgens mij bewijst het matige succes van die combi-chips al dat een GPU als afzonderlijk produkt onnodig is en alleen maar een entertainment-niche als verlengde van computertechniek. Als een bepaald binair circuit de prestatie van een computer blijkt te verbeteren gaan we dat toepassen. Maar als dat alleen voor games en een aantal specifieke parallele bewerkingen op data het geval is, is een GPU niet interessant genoeg om de circuits ervan aan een CPU toe te voegen. Het visualiseren van een ruimte is maar een klein dingetje naast de rest wat met een computer kan...
Wat AI betreft, ik denk dat het alleen maar om centrale big data gaat en er helemaal niet zo veel waardevols uit hoeft te komen. Een paar bedrijven zetten zich in om alle openbare informatie op de wereld te bezitten. Die LLM's is een lokkertje om mensen meer data aan te laten slepen, in het lelijkste geval tegen betaling.

[Reactie gewijzigd door blorf op 3 januari 2026 17:55]

Vijf jaar geleden vonden mensen het ook absurd wat er voor videokaarten werd betaald tijdens Covid.

Ik zie op marktplaats advertenties van tieners (!) die hun gaming rig verkopen met een originele waarde van 1500 tot 2000 euro.

M.a.w. ik kijk echt nergens meer van op. Overigens zijn er in de VS ook zat lui die op jaarbasis 200k of meer verdienen in o.a. de tech sector. Die draaien hun hand er niet voor om.

[Reactie gewijzigd door peeceej op 1 januari 2026 10:18]

Een als die lui en keertje naar de dokter moeten gaan ze bankroet. Laat je niet verblinden door een good salaris. Er moet dat nog van alles vanaf dat er hier al lang afgehaald is.
Mijn collega's in de VS verdienen meer dan dat maar ik hoor ze toch klagen over hoe onbetaalbaar alles is.
Een huur van 8000 euro per maand, dure supermarkten en zoals bzuidgeest hier al vermeldde, je mag hopen dat je kids niet ziek worden.
Het salaris is laag in vergelijking met de hoogte van alle andere kosten.
Spoiler: er zijn mensen die geld teveel hebben en niet kijken op een paar duizend euro meer of minder. Bij NVIDIA weten ze dat ook en zullen ze wel een of andere analyst er op hebben gezet om te zien hoe ver ze kunnen gaan om hun winst te maximaliseren. Als na een paar maanden blijkt dat dit onder de verwachtingen blijft, dan zakken ze gewoon terug een beetje.

In Nederland hebben ze met ASML ook zo'n leuk bedrijf zitten dat honderden miljoenen voor een machine vraagt en krijgt, gewoon omdat ze geen concurrentie hebben.
Hoeveel mensen zijn dit dan wel? Ik geloof best dat er een paar fanatiekelingen zijn die bereid zijn om even 2 a 3 maandsalarissen meer te leggen maar dat zijn er toch wel heel weinig.

Ik denk eerder dat dit niets meer dan een indicatie is dat er weinig next gen voor consumers uitkomt zolang AI de hype blijft. Van mij mag Nvidia, ondanks dat ik het geld heb die ik hier niet aan mee. Laat game ontwikkelaars maar hun best doen met een beetje minder in plaats van halfbakken zooi aan de dijk te zetten waar zelfs een 5090 geen raad mee weet.
Kijk het ding is dus ze hebben gekeken naar wie koopt er nou een 5090 en ze hebben gekeken hoeveel procent van deze kopers een X bedrag zouden neertellen. Stel 40 procent van deze groep is uiteindelijk bereid 5000 neer te lappen hebben ze dezelfde omzet met minder inventaris waardoor uiteindelijk veel meer winst want ze kunnen dan a) de overgebleven capaciteit gebruiken voor andere producten/productie. b) En maken door dit gegeven ook weer nog meer winst.
voor ons gewone mensen reken je inderdaad in maandsalarissen, maar de rijkste 5 tot 10% van de bevolking heeft een andere manier van rekenen, woont in een huis van een miljoen of meer en rijdt met auto's van boven de 100k rond. Als je ziet hoeveel marktaandeel dit soort videokaarten heeft is dat misschien wel de beste vergelijking waarom ze zulke prijzen durven vragen. Ze bedienen immers niet meer de gewone consumenten, maar de happy few. Frustrerend als je de geschiedenis bekijkt, maar ergens ook logisch in een kapitalistisch systeem.
Een gemiddelde consument zal sowieso niet snel voor een 5090 kiezen, ook niet met de huidige prijzen. Dit is ook een kaart die niet op de gemiddelde consument gericht is, maar meer op het extreme high-end.

Een gemiddelde consument zal eerder op het niveau 5060/5070 oid zitten. Het is dan ook voor die consument veel interessanter wat er met de prijzen van die modellen zal gaan gebeuren.
Eens. Dat ook AMD de prijs gaat verhogen, en wel als eerste, maakt dat we dat snel gaan weten.
De 90XX van AMD is al "mid range". Als die prijzen significant omhoog gaan, zouden de spel-ontwikkelaars wel eens uitgedaagd kunnen worden om voor het bestaande "park" aan hardware verder te optimaliseren lijkt me, in plaats van steeds maar hogere min specs neer te leggen.
Zou ik eigenlijk niet per sé een drama vinden - gameplay >> beeldjes imho.

Wel "blij" dat ik net een 9060 XT kocht voor m'n zwaar gamende zoon, die op de grens van z'n 1660 Ti botste :-) Hiero doen ze aan 1080p en dat gaat heerlijk lang mee.
Dit is ook een kaart die niet op de gemiddelde consument gericht is, maar meer op het extreme high-end.
Dat heeft alles met de prijs te maken. Vroeger waren er zat enthousiastelingen die de highest-end kaarten kochten puur voor gaming, gewoon omdat het toen nog behapbaar was.

Als je op de prijs wil afgaan om te besluiten op welke markt een product gericht is, zou je een ordinaire wasmachine van Miele ofzo € 12.000 kunnen maken, waarop jij zegt "oh deze is duidelijk voor hotels bedoeld". Maar dat is niet helemaal zoals het werkt, vrees ik.
Er zijn er ook zat die een uitvoering: ASUS ROG Astral GeForce RTX 5090 32GB GDDR7 OC Edition hebben, terwijl die +-700 euro duurder is dan een goedkoper alternatief. 5000 is wel heel duur, maar er is ook geen concurrentie. Ik denk dat nVidia verkoopcijfers van de professionele kaarten wil boosten. Ik kan me voorstellen dat gemodde zwarte markt kaarten en het gebruik van de RTX 5090 voor professionele doeleinden best aantrekkelijk is.
Ik heb een Astral 5090 gekocht in oktober voor 2100. Die wou ik niet laten liggen.

Ik overclock graag en de meting van de amps per wire vond ik boeiende features maar an sich is er geen enkele reden om een duurdere 5090 boven een goedkopere 5090 te kopen. Of gelijk welke kaart for that matter. Je betaalt doorgaans vooral marketing.
ik heb ook de Astral 5090 lc gekoch mijne was wel een pack duurder 3400 uero via crypto wel geklocht maar 5000 uero is te veel vind ik zo geen kaard meer voor mij
En waar was dat dan en was het incl btw?

Want €2100 is waar je hier op het forum (kort) de goedkoopste 5090's voor zag, genre Ventus
Coolblue Belgie :)

Tweedekansje welliswaar waar de doos beschadigd was. Heb me wel vergist in prijs. Was 2362.
Ok bedankt voor de verduidelijking :-) Da's nog ietsje pietsie anders natuurlijk maar nog steeds een puike deal!

In elk geval neemt het niet weg dat de standaard premium op de top-5090's wel extreem is en erop duidt dat de kopers geld te veel genoeg hebben om ook richting die 5k te gaan
Ja, 100%. Er zijn genoeg consumenten die een dergelijke prijs rendabel houden voor NVIDIA.
Ik ken iemand die een setup draait met 2x een 5090. Het komt dus wel voor.
Maar die heeft ze al en heeft dus geen 10k voor z'n videokaarten betaald. Ik twijfel er niet aan dat er genoeg vraag is naar een 5090 hoor, ik twijfel aan of die vraag nog blijft bij zulke bedragen ;)
Ik vind zelfs een RTX5090 van 3000 euro teveel en mensen kopen het nog alsof een normale prijs is. Er zijn zelfs mensen die geupgrade hebben van RTX4090 naar RTX5090. Dat zal ik nooit begrijpen.

Ik gebruik nog altijd mijn RTX3080 maar hoop later een deftige prijs voor RTX6080 die mogelijk in 2027 uitkomt. Nog nooit heb ik mijn videokaart zolang gebruikt sinds vroeger. Toch blijf ik zeggen dat de RTX30 series de beste prijzen ooit waren voor mining begon.
Ik ben iemand die dat heeft gedaan. De garantie van mijn 4090 was nog 6 maanden oid.

Ik heb destijds een 4090 gekocht voor 1889 euro omdat de prijs van de 4080 toen boven de 1400 zat. Er zijn toen ook mensen die een 4090 FE gekocht hebben voor 1500 euro met scripts/notifiers. Mijn maandelijkse lasten waren toen laag en had ook mazzel met de 3000 serie die rechtstreeks beschikbaar was en een pre order die later nog voor msrp geleverd werd en voor de hoofdprijs weg kon.

Na de release van de 5090 heb ik toen zelf tijdens het thuiswerken een notify website laten draaien op de FE, toen ik eindelijk een hit had was de kaart 5 minuten gereserveerd. Tweedehands prijzen voor 4090 gecheckt en de die gingen nog voor rond de 1800 euro. Bestelling afgerond en mijn 4090 was binnen 48 uur opgehaald voor 1750. Ik heb het met name gedaan omdat ik nog 6 maanden garantie had op de 4090 en ik met deze prijzen graag een actieve garantie geniet.

Inclusief mijzelf zijn er denk ik best wat mensen die slechts kleine ongemakken hebben ervaren de afgelopen 5 jaar, door mazzel met pre orders of door scripts/flippen surft er een groep kopers sinds 3000 serie/covid op een golf van van weinig tot geen verlies of winst op oude kaarten wanneer ze upgraden.

Mocht dit gerucht kloppen en knalt de 5090 volgend jaar naar 5000 dan zal ik deze ook weer verkopen en downgraden naar een mid range kaart, als die prijzen niet meer dan 2 keer over de kop gaan.
Het zal me niets verbazen. Tijdens de prijsinflatie bij de launch zat de 5090 al bijna op dat prijsniveau en probeerden hele volksstammer er alsnog eentje te bemachtigen. De 5090 heeft altijd minstens €2500 gekost maar als je in de pricewatch kijkt zie je die gewoon op #1 staan als populairst gezochte product, dus kennelijk zijn er massa's tweakers die dat een uitstekende bang-for-buck vinden.
Punt is wel dat de 5090 niet nieuw is dus iedereen die er echt eentje wilde heeft hem vast al gekocht.
Niemand heeft een 5090 nodig sinds Indie de nieuwe AAA is, en die games kun je op een broodrooster draaien.
AAA games werken ook op een game console van nog geen €400. uitvoering: Sony PlayStation 5 Slim 825GB Digital Edition Wit, Zwart

Dus nodig? Niet voor mainstream gebruik.
Ze werken wel, maar euh die interne resoluties zijn ook om bij te huilen.
Heb je een moderne pc port gespeelt?

Op een 4090 zit je ook met dlss te spelen om 4k 60+ te halen en dan hebben we het over hardware wat vandaag 6x zoveel kost als een console
Ik heb een 5070Ti en ik heb nog nooit DLSS nodig gehad voor 1440p60.
Af en toe, ja. Maar de norm is boven de 1080p.
En die gaan (verwacht ik) als het zo doorgaat voor de nieuwe generatie rond €1.000,- kosten. Wie heeft daar nog zoveel voor over? Met deze ai race krijgen we straks allemaal een "domme" PC en ligt de kracht bij de datacenters. Daarmee leggen we alles in handen van de Big Tech bedrijven. Ik ben voor Ai maar we moeten als consument/bedrijf ook zelfstandig kunnen werken.
Dat gebeurt zo snel niet. Cloud PC's bestaan, maar een populair concept is het niet. Het is duur, want je huurt gewoon de hele machine. Het geheugentekort zal opgelost zijn voordat je mensen aan zoiets gewend hebt.
Bwah daar kies je dan toch helemaal zelf voor als je ervoor gaat dokken.

Pas op: ik heb ook graag zelf mijn eigen rig, maar voor iemand die graag casual wat pc games met hoge graphics speelt zou ik gisteren toch ook wel aanraden eens naar cloud gaming @ €20/maand (?) te kijken... ipv een systeem van 2+k ben je dan 100 maandjes zoet
veel succes om games zoals E33 op een low-end systeem te spelen, die game geeft nog steeds framedrops op een 5070 lol.
E33 is ook geen Indie game :)
toch raar hoe die meerdere indie nominations en prijzen gekregen heeft :)
Jah, want ze hebben een uitgever dus is het geen Indie meer.

Eigenlijk is het een AA studio.
Gewoon die game links laten liggen dan. Probleem opgelost. Binnen een paar jaar koop je de game met een strakke korting en tegen die tijd draait je nieuwe broodrooster de game met gemak.
Veel ervan zullen in AI datacenters ingezet worden. Levert veel meer op dan games.
Veel ervan zullen in AI datacenters ingezet worden. Levert veel meer op dan games.
5090's in datacentra? Dat komt niet veel voor omdat ze daarvoor niet gemaakt zijn. 5090's zijn gemaakt voor de mensen die het snelste willen gamen en professionele gebruikers voor wie tijd kostbaar is. Wij hebben er 10 gekocht en die betaalden zich binnen een paar maanden terug. Met deze kaarten kunnen we drie generaties ontwikkeling per dag (plus een 's nachts) doen, een verdubbeling van de situatie daarvoor. Zelfs op een $5000 prijs niveau zijn ze een 'must-have' voor de doelgroep.
Veel ervan zullen in AI datacenters ingezet worden. Levert veel meer op dan games.
Klopt helemaal.
AI datacenters leveren de fantastisch samenwerkende machthebbers/miljardairs(VSregime+BigTech+Nvidia+Palantir, Anduril en Shield AI) nog veel meer macht en geld op en wij mogen daardoor eindelijk weer echte oorlogen meemaken, in plaats van dat trieste fake oorlogje spelen op een schermpje, iedereen blij! Toch? :+
Microsoft Flightsimulator 2024 in VR met een Pimax Crystal Super. In TAA en Ultra settings zit je met een 5090 op 30 FPS. DLSS levert in cockpits veel ghosting op. Met een 5080 of 4090 moet je je settings een flink stuk terugschroeven...
Veel settings geven op max een hele grote FPS drop terwijl ze visueel niks doen. Het is dan ook verstandig om alles zo in te stellen dat het soepel draait en er nog steeds gelikt uitziet.

YouTube: MSFS 2024 Graphics Settings - Optimising For FPS and Visuals
Ja het blijft een balanceeract. Het 'vervelende' is dat er nog regelmatig updates komen waardoor je blijft draaien aan de knoppen. De laatste update (SU4) maakt veel beter gebruik van de verschillende cores, waardoor bijvoorbeeld 'Clouds setting' veel minder invloed heeft dan eerder, etc.

Maar goed dat is het lot van de 'virtuele piloot' :)
Raar voorbeeld... MSFS 2024 heeft een grote CPU-bottleneck. Je kan er (bij wijze van) een videokaart met tien keer de rekenkracht van een 5090 tegenaan gooien, maar dat zal niet veel baten wat betreft framerate. Overigens zou ik sowieso nooit DLSS gebruiken bij 30 fps, want hoe lager je framerate, hoe meer temporal artifacts zoals ghosting.

Laatst is ditzelfde spel verschenen op PS5 Pro. Ondanks de betere videokaart van die console, is het spel nog altijd 30 fps i.v.m. die CPU-bottleneck.

Wil je de prestaties van een videokaart in kaart brengen, dan moet dat ook je bottleneck zijn. Een spel zoals Cyberpunk 2077 met path-tracing aan.

[Reactie gewijzigd door Daraxo op 1 januari 2026 18:30]

Uiteraard heeft MSFS een zware CPU nodig (denk 9800X3D of vergelijkbaar). Waarbij het natuurlijk gaat om het vinden van de juiste balans. Je hebt natuurlijk altijd een bottleneck (CPU of GPU), maar in VR is er wel degelijk een GPU bottleneck.

De Pimax Crystal Super heeft een resolutie van 3840 × 3840 per oog. In totaal 29,5 mln pixels. Bovendien wordt om vervormingen tegen te gaan het beeld ongeveer 1,3 tot 1,5 keer groter gendered. Dat is echt niet te vergelijken met spelen op een 4K monitor (met ongeveer 8,3 mln pixels). DLSS in VR is (helaas) zo'n beetje noodzaak. Met preset F i.p.v. J of K kun je het wel iets verbeteren. Wel is MSFS een relatief 'langzame game' waardoor je echt niet hele hoge FPS nodig hebt. Een stabiele frametime is belangrijker.

Het uitbrengen van MSFS op de PS5 heeft er wel voor gezorgd dat ze de code verder geoptimaliseerd hebben en bovendien ook eens aan VR wat aandacht hebben besteed. Het is natuurlijk fijn dat Microsoft door het uitbrengen van MSFS op consoles 'flight simulation' nieuw leven heeft ingeblazen en naar een breder publiek brengt. Maar voor een serieuze simulatie is spelen op een Xbox of PS5 echt geen optie.
Goh, toen vroeger de guldens nog van hout waren was ik al harstikke blij met spelletjes op mijn C64 ... zoals Giana Sisters en Commando of the Last Ninja. Het wordt tijd om dat soort spelletjes maar weer eens in ere te herstellen want dan heb je niet een beeldkaart nodig die een godsvermogen kost
Ook de laatste generatie spellen heeft geen 5090 nodig. Mensen met te veel geld zouden dit kunnen kopen om de laatste spellen op 8K te spelen in plaats van 4K.
Of gewoon moderne spellen met alle eyecandy aan op 4K?

pak een Cyberpunk, 4K, alles hoogste settings en RT aan dan heb je al DLSS nodig om een goede FPS te halen zelfs op een 5090.
Dus... doe dat niet?

Vroeger, ok niet zo vroeger als de C64 waar hierboven over gesproken werd, hadden we Crysis die ook niemand voluit kon spelen. Maar om een of andere reden zijn er veel mensen die tegenwoordig denken dat als ze niet alle mogelijke grafische toeters en bellen aan hebben staan dat ze dan geen goede game ervaring krijgen of zo. Cyberpunk is al speelbaar op een Steam Deck.

Ik heb zelf een 9070XT, omdat ik dat leuk vind, maar dat is wat mij betreft een prima kaart om heel mooi beeld op mijn 4K 42" oled die op een arm voor mijn neus hangt te toveren. Ja, soms gebruik ik upscaling, maar het ziet er top uit dus who cares? Voor mijn gevoel zit ik echt nog steeds heel erg op de highend hoor en is een systeem als het mijne absoluut niet nodig om van games te kunnen genieten... laat staan een 5090, dat is echt de extreem overtreffende trap.
Met een VR set en sim games loop je al vrij snel tegen beperkingen aan waardoor je toch kijkt naar waanzinnig geprijsde alternatieven als de RTX5090.
En hoeveel mensen spelen sims en ook nog in VR?
Ik gok niet zoveel, waardoor de echte markt voor een 5090 snel gaat opdrogen.

[Reactie gewijzigd door William_H op 1 januari 2026 13:10]

VR Is nog steeds heel actueel voor race en flysims. Dit kan dan wel een game niche zijn tov al Fortnite, Battlefield en weet ik AAA games, maar feit dat er sinds corona behoorlijk veel nieuwe fabrikanten specifiek op de race/flysim hardware controller markt zijn gekomen of overnames zijn, geeft aan dat het in deze niche na jaren van stilte toch wel een behoorlijk interessante markt is geworden. Ik denk zelf, gezien wat ik lees op de forums, dat dit komt omdat de gebruikers over het algemeen veel langer trouw zijn aan dezelfde sim genre, maar ook omdat deze veel meer geld ervoor willen uitgeven.

Verder heeft @Leader98 wel gelijk dat over het algemeen de VR ondersteuning in race/fly sims niet optimaal is geprogrammeerd, zodat je wel genoodzaakt bent om een high performance Vkaart te kopen. Ik zelf vind het bv niet prettig om met een sterk fluctuerende frametimes en/of met zichtbare aliasing defects te gamen.
Herkenbaar, ik heb ook een wat oversized PC vanwege VR games en het breken van de immersie wanneer de framerate even dipt (en met zoveel mogelijk eyecandy aan).
Zelfs met een 5090 is gamen op 8k zelden echt goed mogelijk...
Uit nieuwsgierig, hoe duur was die C64 en de spellen als je dat corrigeert voor inflatie?
Een C64 was destijds 1000 gulden en een cassettespeler kostte ook al meer dan 100. Dus inflatiegecorrigeerd kun je beter die rtx5090 kopen.
Ik heb niks uitgezocht of berekend, een snelle search op google gaf een AI antwoord dat 1000 gulden nu pakweg richting de 750-900 euro zou moeten zijn, lang niet genoeg voor een 5090.
Volgens het CBS zou fl. 1000 in 1982 nu (2024) zo'n €1145 zijn. Iets meer dan AI verzint maar inderdaad nog steeds lang niet genoeg voor een 5090.
Ik heb "nieuws" voor je.
Download een emulator en je kan al die C64 spellen spelen om je huidige PC.
En als je een ZX Spectrum fan bent, dan komt de (helaas iets verlaatte) volgende generatie van de ZX Spectrum next uit met een C64 on-board. En er is natuurlijk sinds kort ook de nieuw C64 van het herrezen Commodore zelf natuurlijk. Beide oplossingen een héél stuk goedkoper dan dat spul van Nvidea en AMD. En weet je wat, spellen uit die tijd hebben iets dan veel moderne spellen niet hebben. Maar dat zijn waarschijnlijk de roze wolken van de nostalgie, in de trend van vroeger was alles beter. Nou in ieder geval goedkoper. Zelfs mijn eerste computer gekocht in de tijd dat computers thuis echt nog geen zelfsprekendheid waren kostte nog geen 5000 euro's. Zelfs niet in guldens.
De bundel van Giana Sisters Twisted Dreams kost momenteel maar 3 euro.
https://store.steampowered.com/sub/31710/
5000 dollar zou wel 5000 euro worden. Echt krankzinnig bedragen. Ik zie echt dat gamen steeds minder leuk wordt, de hardware is onbetaalbaar en de games zitten vol met pay to win of eindeloze betaalde dlc. Ik ben onlangs weer begonnen op mijn oude vertrouwde gameboy met pokemon. Echt wat een verademing gewoon een game die leuk is om te spelen en dat zonder een tweede hypotheek te moeten nemen voor je gamepc.
Niet helemaal mee eens. Ja de 5090 is zeer duur, maar voor de stijgingen in RAM en SSD prijzen had je voor onder de 1000 euro een zeer capabel 1080p game systeem die alle nieuwste games aankan.

Als je ook tevreden bent met Indie/lichtere games als Pokemon, hollow knight, Ori, etc etc dan volstaat een tweedehands PC van 150 euro met Ryzen 3400G ook.

[Reactie gewijzigd door Dekar op 1 januari 2026 10:44]

Pokemon is alles behalve een indie titel... :+
Als de 5090 omhoog gaat,kan je er zeker van zijn dat de rest van de lineup dat ook doet en daarmee ook de used market. Ja je kunt met oude hardwarespelen, dat doe ik nu ook maar daarmee komen we nooit verder. Als je een game van 10 jaar terug pakt en je speelt een moderne game dan is er amper vooruitgang. Dat komt omdat ze al voor de grote massa games maken en die zitten en blijven zitten op steeds oudere hardware.
Er is dan altijd nog de uitvoering: Intel Arc B580 Limited Edition en je hebt een nieuwe gen GPU die alles aankan. Er is echt wel wat creatiefs te bouwen als je op PC wil gamen voor een schappelijke budget.

Dat er in de afgelopen 10 jaar amper vooruitgang is, ben ik het ook niet mee eens. Kijk eens naar de laatste Indiana Jones en Clair Obscur. 2015 was The Witcher 3, Bloodborne en Batman, Arkham Knight. Ook erg mooi, zeker. Maar wel degelijk objectief 'ouder' in uiterlijk.
Er zijn genoeg leuke games te vinden voor PC waar geen RTX 5090 voor nodig is.
Het lijkt wel alsof mensen verplicht zouden zijn om de nieuwste AAA game van EA, MS, Ubisoft,... te spelen.
Nieuwsflash: vroeger was er ook veel rotzooi.
De kunst is om enkel de leuke games te spelen :D
Er zijn genoeg leuke games te vinden voor PC waar geen RTX 5090 voor nodig is.
Het lijkt wel alsof mensen verplicht zouden zijn om de nieuwste AAA game van EA, MS, Ubisoft,... te spelen.
En voor die nieuwste AAA titles heb je ook geen 5090 nodig om een zeer goede ervaring te hebben. Gameplay is nog altijd vele malen belangrijker dan een perfecte schaduw.
Ik vraag mij af of Nvidia bedenkt wat dit met de markt gaat doen. Niet alleen worden dure kaarten onbetaalbaar, maar voor spelmakers heeft het ook geen zin om de graphics uitgebreid te maken, want er is straks vrijwel niemand die dat kan tonen. En dit heeft dus effect op wat voor effort gamedevs gaan inzetten op het bouwen van mooie games. Wat er ook weer voor zorgt dat het publiek eraan gewend raakt en daardoor blijven we in de huidige limbo fase waarbij hardware niet snel genoeg is om alles goed op 4k te renderen (alleen met fake frames en upscaling). Met de alsmaar stijgende prijzen, gaan ze zichzelf serieus de markt uit prijzen. Waarom zou je dan nog een 50xx serie kaart kopen als je voor hetzelfde geld een console kunt halen (waar dus ook geen Nvidia chip in zit). Je zag al een verschuiving toen de 1080 uit was gekomen, die vonden veel mensen te duur en sindsdien is het acceptabel geworden om niet een top-model meer te pakken voor de meeste gamers.

En omdat RAM ook al zo duur is, zorgen ze er meteen voor dat minder mensen met AI aan de slag gaan, omdat het simpelweg niet te betalen is om dit als hobby te verantwoorden. Want reken maar van yes dat ze de hobbyisten nodig hebben om met dingen te komen die de grote techbedrijven niet kunnen bedenken. Hierdoor wordt AI minder capabel en daardoor levert ook hun andere divisie minder geld op. Alles staat en valt met de gaming industrie en ze falen nog steeds om dat te begrijpen. Betaalbare hardware brengt het hele systeem vooruit en draagt de vraag naar nieuwe sterkere hardware. Als niemand sterkere hardware meer nodig heeft omdat ze het te duur vinden, dan sterft hun hele aandeel uit.
door inflatie stagneert innovatie (naar betere performance)

gelukkig hebben we indiegames, wat trouwens de toekomst is. De goede tijden van Ubisoft, EA, Activision is voorbij.
De goede tijden van Ubisoft, EA, Activision is voorbij.
Dat horen we nu al 5 jaar. En ze blijven maar groeien en meer winst maken. Lees eens een jaarverslag zou ik zeggen, kan je een hoop leren.
https://www.google.com/finance/quote/UBI:EPA?window=5Y

Ubisoft is anders 91% gedaald de afgelopen 5 jaar. Dat doen ze niet door alsmaar te groeien en hun targets te halen. Zou mij niks verbazen als ze kopje onder gaan.

EA en Activision hebben wat melkkoeien als FIFA en Madden NFL, CoD, WoW en Candy Crush. Wat financieel met ingame purchases echt belachelijk veel geld oplevert. Die games zijn in mijn ogen kwalitatief niet objectief goed te noemen.

[Reactie gewijzigd door Dekar op 1 januari 2026 13:47]

Welkom Geforce Now. Waarom zou Nvidia hardware verkopen aan consumenten als ze ook een abbonement af kunnen sluiten. De huidge abbonementen hebben ook een max speeltijd per maand die je kan uitbreiden met extra uitgaven.
Omdat ze dat nu ook steeds meer aan banden gaan leggen voor ai...


https://uk.pcmag.com/game...fter-100-hours-each-month
Klopt, dat geef ik ook aan. Extra speeltijd kan je kopen.
Sorry ik reageerde op de verkeerde persoon. De reactie hieronder bedoelde ik
Het grote plan is dat je thuis geen deftige GPU meer hebt en via subscription je gaming streamed.
Ik meen eens gelezen te hebben dat het merendeel van de (gigantische) omzet van de gamemarkt vandaag al in mobile games zit

'Steeds betere graphics' is geen vereiste
Waar zitten we binnen 2 a 3 jaar?
  • ofwel burst de AI bubble en gaan de kaarten weer betaalbaar worden
  • ofwel kopen we binnen 2/3 jaar een Chinese kaart
  • ofwel is AI rendabel geworden voor the mega-hosters en worden kaarten onbetaalbaar.
Ik gok op scenario 2.

Ook voor het geheugenprobleem is het wachten tot de Chinezen het gat in de markt opvullen. Dan is hun productieschaal zo groot geworden dat ze de huidige bedrijven uit de markt gaan duwen. Kijk maar naar legio voorbeelden : zonnepanelen, windmolens, tv,s, gsm's, ...

De Westerse wereld gaat dan reageren met tarieven, maar is dit op de lange termijn de oplossing? De US is sterk, de EU is zwak. En onze Europese leiders doen alsof ze sterk zijn maar je ziet dat hoe zwakker de positie in eigen land is hoe meer ze staan te roepen op het internationaal vlak (Macron, Starmer, en nu ook al Merz). Daarmee vullen onze media dan het nieuws, maar nergens anders worden ze gehoord. Hilarisch maar dieptriest voor Europa.
De Westerse wereld gaat dan reageren met tarieven, maar is dit op de lange termijn de oplossing? De US is sterk, de EU is zwak. En onze Europese leiders doen alsof ze sterk zijn maar je ziet dat hoe zwakker de positie in eigen land is hoe meer ze staan te roepen op het internationaal vlak (Macron, Starmer, en nu ook al Merz).
Wat een onzin. Wie zegt dat de Westerse wereld gaat reageren met tarieven? De VS vast ja, maar dat vind ik geen Westerse wereld meer. De VS is ook helemaal niet sterk, de wereld proberen naar je hand te zetten door als Sinterklaas met tariffs te strooien heeft ook niets met kracht te maken. Vooral met stupiditeit en onkunde.
neen waarheid. Blijkblaar ben jij ook iemand die alles gelooft wat de media zegt. Onze media verkettert alles wat "ons" niet goed uitkomt en verheerlijkt de rest. En veel mensen "slikken" alles.

Ik heb het eens opgezocht qua economische sterkte : BRON: econofact.org

According to the World Bank, in the period 2008-2023, EU GDP grew by 13.5% (from $16.37 trillion to $18.59 trillion) while U.S. GDP rose by 87% (from $14.77 to $27.72 trillion). The UK’s GDP increased by 15.4%. In 2023, EU GDP was 67% of U.S. GDP — down from 110% in 2008.

 Accounting for population, EU GDP per capita as a percentage of U.S. GDP per capita fell from 76.5% in 2008 to 50% in 2023. 

Op economisch vlak is de US VEEL sterker dan Europa. ( en ook financieel) Dit is zeer jammer maar een feit.

Uiteraard is de gap in Amerika tussen arm en rijk erg groot. En dit is zeker niet OK. Maar jammer genoeg kan je met zagen en jammeren je rekeningen niet betalen. Geld en economie is belangrijk, hoe je het ook draait of keert. En dan is de US sterk, de EU zwak.

PS; een van mijn bedrijfjes exporteerde 80% van de omzet naar de US voor de tarifs. Dus moet ik je niet zeggen wat ik ervan vind.

[Reactie gewijzigd door jdiv op 1 januari 2026 13:55]

Hoeveel van die GDP verhoging in de VS kwam ook daadwerkelijk van consumenten en hoeveel ervan is gewoon AI bedrijven die met z'n allen een bubbel aan het oppompen zijn. GDP is een absoluut nietszeggende metric als je het niet onderbouwt met meer cijfers.
Dit. En als we dan toch bezig zijn: laten we ook even naar de torenhoge staatsschuld van de VS kijken, of de impact van die gestoorde tariffs. Nee, de VS is echt een sterke en gezonde economie... /s
het gaat over de periode 2008 - 2023. En totale groei over die periode is 87%. De Ai bubble is maar gestart vorig jaar. Dus neem maximaal 1% groei door die bubble. Dus nog steeds 86% groei voor de US. de EU nog geen 14%.

Je kan dit moeilijk "nietszeggend" noemen. Of vergelijk ook eens de beurskoersen. Of waar denk je dat alle hyperscalers zitten? Gebruik je google, microsoft ? Je moet blind zijn om te niet zien dat de US economisch veel sterker is en groeit dan Europa. Ik heb het hier NIET over de politiek of het sociaal systeem.
je cijfers zijn raar.,,. als de EU in die periode 13.5% was gegroeid en de VS 87% dan lijkt het me vreemd dat de EU van 76.5% van VS GDP naar 50% VS GDP zijn gegaan... Dan zouden de VS of enorm arm moeten zijn voor 2008 of ze hebben ergens verborgen GDP dat niet bestaat in de EU. En zo'n verborgen GDP kun je niet beoordelen op sterkte en stabiliteit.
De VS is ook helemaal niet sterk, de wereld proberen naar je hand te zetten door als Sinterklaas met tariffs te strooien heeft ook niets met kracht te maken. Vooral met stupiditeit en onkunde.
Die importbelasting is niet zozeer de VS alswel de regering trump. En weinig kans dat dit lang gaat standhouden omdat het ook voor de VS nadelig is op langer termijn.
Is dit het begin van het einde voor pc gamers? Zelf bij toeval afgelopen zomer een dikke machine samengesteld. Die 64gb ddr die ik destijds kocht is nu goud waard. Beste investering ooit.
Het is al jaren terug begonnen, wellicht met de woekerprijzen van de 3080. Op zich vind ik het prima als er geen nieuwe kaarten of consoles uitkomen en we het hier wat extra jaartjes mee blijven doen. Het is alleen erg vervelend voor de mensen die nog geen systeem hebben of iets moeten vervangen.
Pc gaming helemaal hip gemaakt weer en slopen ze het weer. Lekker bezig...... Met een 4080 Super kan ik nog even mee maar speel op 4k dus keer een upgrade in de toekomst maar voor deze prijzen weet ik niet of ik PC gamer ga blijven. Dan maar weer een console denk ik..... Alleen Destiny op een controller weer moeten spelen is voor mij wel een ding 😂
Je kunt toch ook muis en toetsenbord aansluiten.
Niet elke game ondersteund dat Destiny 2 niet of ik moet wat gemist hebben?
Dat weet ik niet. Maar je had toch een manier dat je dat kon faken. Dat de ps5 denkt dat je een controller gebruikt, maar dat je dan gewoon muis en toetsenbord gebruikt..
Volgens mij ondersteunt geen enkele Bungie game Muits en Toetsenbord.
  1. Dan maar niet de aller nieuwste games spelen .
  2. Gewoon lekker de baglog wrg zien te werken!
Koop je toch een AMD kaart? Mijn 7900XT doet het meer dan verdienstelijk (op Linux weliswaar)
Nog eentje die alleen maar de kop heeft gelezen.
Koop je toch een AMD kaart? Mijn 7900XT doet het meer dan verdienstelijk (op Linux weliswaar)
eerste regel van t artikel ook gelezen?
Noop Was nog niet helemaal wakker. Sorry.
Maarja dan nog zal wel amd eronder zitten kwa prijs.

Om te kunnen reageren moet je ingelogd zijn