Door Reinoud Dik

Redacteur

De geheugencrisis duurt nog wel even, dus worden fabrikanten creatief

27-04-2026 • 06:00

88

Artikel

Als de geruchten kloppen, gaan zowel Intel als AMD een oude processor opnieuw uitbrengen. Deze zet geeft aan dat beide fabrikanten op de korte termijn geen verbeteringen verwachten rond de huidige geheugentekorten. Ook andere fabrikanten komen met oplossingen om de beperkingen en uitdagingen van de huidige geheugencrisis enigszins te omzeilen.

Consument levert minder op dan enterprise, maar er valt wel aan te verdienen

AMD en Intel verkopen het liefst zoveel mogelijk van hun nieuwe cpu's die van de band rollen. Die verkopen zijn voor de consumentenmarkt de afgelopen maanden flink ingezakt, want met duur werkgeheugen wordt een nieuwe pc bouwen ineens ook een stuk duurder. Niet alleen de processorfabrikanten hebben last van een afgenomen vraag. Ook de makers van moederborden, koelers, voedingen en behuizingen zullen de marktbewegingen terugzien in hun cijfers.

Om het marktaandeel en het momentum op gang te houden gaan AMD en Intel oude cpu's mogelijk opnieuw uitbrengen. Die keus is niet zomaar gemaakt, maar de voordelen wegen inmiddels waarschijnlijk zwaarder dan de nadelen.

Prijsontwikkeling DDR5
De prijsontwikkeling van een populaire 64GB-DDR5-geheugenkit

Ga maar na: voor het opnieuw uitbrengen van bestaande processors moet er een productielijn opgezet worden, inclusief distributie, logistiek, verpakking, marketing, ondersteuning en garantieafhandeling. Maar als de enterprisesector (lees: AI) de productiecapaciteit voor consumentenproducten uit de markt prijst op de nieuwste productieprocedés, kan het door de prijsstijgingen alsnog financieel interessant worden om oudere productielijnen opnieuw te starten. Tenminste, als een fabrikant dit extra aanbod kan afstemmen op de vraag en er voldoende schaalgrootte is.

De kosten zitten hem niet in het ontwerp van de oudere processors; dat is immers jaren terug al gedaan. Wel zal het naar verhouding relatief duur zijn om 'oude' processors uit te brengen. Het alternatief voor Intel en AMD is om te blijven vasthouden aan producten die de consumentenmarkt steeds minder goed kan betalen.

Op de nieuwere productieprocedés is het achteraan in de rij aansluiten, nu de kapitaalkrachtige AI-enterprise zich daar voor de komende tijd heeft ingekocht. Op iets oudere procedés is het iets minder dringen en voor die nodes hebben Intel en AMD nog wel een paar ontwerpen op de plank liggen.

Intels Raptor Lake krijgt mogelijk een refresh

Volgens een gerucht van Club386 is Intel van plan om een Raptor Lake-processor opnieuw uit te brengen. Bij deze refresh zou het niet gaan om een vernieuwde Core i9-14900K, maar om een lager gepositioneerde cpu voor de bovenkant van het middensegment. Voor de naamgeving wordt gespeculeerd over een Core 5- of Core 7-model, waarbij de 'Ultra' is weggevallen doordat een npu ontbreekt op deze generatie chips. Wel zou het gaan om een K-uitvoering, een chip gericht op overklokkers.

Intel heeft met zijn Raptor Lake-processors wat betreft flexibiliteit betere papieren in handen dan AMD. Alle Core-processors uit de 12e, 13e en 14e generatie hebben geheugencontrollers aan boord die zowel DDR4 als DDR5 ondersteunen. De socket LGA1700-moederborden waarop deze cpu's passen, bevatten geheugensloten van een van deze generaties werkgeheugen. Volgens de geruchten zou Intel moederbordfabrikanten aansporen om een nieuwe reeks LGA1700-borden uit te brengen.

Voor de productie van een eventuele Core 5- of Core 7-Raptor Lake Refresh-processor kan Intel zijn eigen 10nm-procedé blijven gebruiken, gaandeweg omgedoopt tot Intel 7. Daarmee heeft de fabrikant het voordeel om niet in de wachtrijen bij bijvoorbeeld TSMC te hoeven staan voor productiecapaciteit. In plaats daarvan kan het zijn eigen allocatie afstemmen op deze eventuele extra line-up. Helemaal in de steek gelaten was socket 1700 overigens niet. Onlangs bracht Intel een aanvullende reeks Bartlett Lake-cpu's uit, maar deze zijn gericht op de zakelijke markt.

Raptor Lake fpa

De herrezen Ryzen 7 5800X3D betekent een terugkeer van de 'goat'

Volgens een ander gerucht zal AMD halverwege 2026 zijn uiterst populaire Ryzen 7 5800X3D opnieuw uitbrengen. Deze snelste gamingprocessor voor het AM4-platform is door online gemeenschappen omgedoopt tot 'greatest of all time' vanwege zijn prestaties en wat de cpu heeft betekend voor de levensduur van de AM4-socket. De wens vanuit gamers om de productie te hervatten was er al langer, maar pas begin dit jaar heeft AMD aangegeven producten in het AM4-ecosysteem te willen herintroduceren.

Bij het gerucht valt op dat AMD lijkt te kiezen voor een eenvoudige herintroductie in de markt. Zo zou er op hardwareniveau en in de specificaties niets gewijzigd zijn voor de compatibiliteit. Daardoor zijn er ook geen nieuwe biosupdates nodig om de cpu te ondersteunen. Dat biedt moederbordfabrikanten tegelijkertijd ook geen reden om nieuwe AM4-moederborden uit te brengen, zoals Intel volgens een gerucht zou willen. Dit hoeft niet te betekenen dat AMD erop tegen is dat er verse AM4-borden in de schappen komen te liggen.

Voor de productie van de Ryzen 7 5800X3D maakt AMD gebruik van TSMC's 7nm-proces. Het aantal klanten voor deze productielijn is vermoedelijk al een stuk lager dan een paar jaar geleden en concurrent Nvidia heeft deze voor zijn GeForce-gpu's nooit gebruikt. AMD's apu's voor de PlayStation 5 en Xbox Series X en S worden er wél geproduceerd.

Omdat dit procedé inmiddels volwassen en uitontwikkeld is, zullen er weinig chips van de band rollen die niet voldoen aan de specificaties van een 5800X3D. Maar met onvermijdelijke imperfecties bij productie is het niet ondenkbaar dat op termijn ook de 5700X3D of 5600X3D geherintroduceerd worden, zodra de productie van de 5800X3D weer tot leven is gewekt. Ook hier is het onduidelijk hoe de prijzen en beschikbaarheid zullen zijn.

AMD Ryzen 7 5800X3D

Maar DDR4 ging toch uit productie?

Halverwege 2025 kondigde Micron aan te gaan stoppen met productie van DDR4. Samsung was eigenlijk hetzelfde van plan, maar heeft volgens geruchten de uitfasering vertraagd vanwege de steeds grotere vraag vanuit de markt. Ook hier geldt dat de prijsstijgingen kunnen zorgen dat het langer financieel interessant blijft om DDR4 te produceren als de markt daarom vraagt.

Door het opnieuw uitbrengen van processors en moederborden met DDR4-ondersteuning creëren de fabrikanten gezamenlijk het aanbod waar de markt in deze ongewone omstandigheden om vraagt. Het succes van deze afzonderlijke producten zal sterk samenhangen met de verkrijgbaarheid van de rest. Een processor die alleen in bijvoorbeeld China of Zuid-Amerika uitkomt, zal weinig tot niets doen voor de vraag naar aanvullende componenten in de rest van de wereld.

Hudimm: een halve DIMM betekent iets goedkoper geheugen, maar ook minder prestaties

ASRock introduceerde in verband met de geheugenschaarste eerder dit jaar al een moederbord met zowel DDR4- als DDR5-geheugenslots. Recenter kondigde de fabrikant Hudimm aan, een nieuwe geheugenstandaard die ASRock samen met Intel heeft ontwikkeld. Kort gezegd is Hudimm een halve DDR5-module in de aansturing en bandbreedte. Slechts een van de twee 32bit-subkanalen van een normale DDR5-Udimm is hierbij actief. Ondersteuning voor Hudimm is op bestaande hardware toe te voegen met een firmware- of biosupdate. Omdat DDR4 in tegenstelling tot DDR5 geen subkanalen gebruikt, kan Hudimm niet voor DDR4-modules gemaakt worden.

Het voordeel van deze oplossing is dat er minder geheugenchips vereist zijn om een functionerende DDR5-module te kunnen maken. Het moet een modern platform met DDR5 toegankelijk maken door de instapkosten omlaag te brengen. Daarom is Hudimm gericht op budget-pc-bouwers. Volgens ASRock zijn Hudimms en Udimms te combineren in hetzelfde systeem, waarbij de beschikbare subkanalen allemaal benut worden. Die flexibiliteit zal niet voor iedereen nuttig of relevant zijn, doordat een lagere geheugenbandbreedte de maximale prestaties van een processor beperkt.

Overige componenten op de geheugenmodule zijn ook op een Hudimm vereist, zoals de pmic. De kostenbesparing zit hem dus vooral in het weglaten van de helft van de geheugenchips ten opzichte van een normale DDR5-Udimm. Ook is het gebruik van een groter aantal minder hoogwaardige geheugenchips op een Hudimm niet waarschijnlijk. Dat komt doordat de subkanalen bij DDR5 van elkaar gescheiden zijn en dus niet alle chips op een DIMM aan één subkanaal kunnen worden verbonden.

Asrock Hudimm

Nvidia's RTX 3060 met 12GB in plaats van een RTX 5050 met 9GB?

Nadat er enige tijd geruchten rondgingen over een 9GB-versie van de RTX 5050, zou Nvidia nu de RTX 3060 nieuw leven inblazen. Vrijwel de gehele RTX 50-serie gebruikt GDDR7-geheugen, met uitzondering van de RTX 5050, die GDDR6 heeft. Omdat GDDR6 minder slecht beschikbaar is dan GDDR7, zou Nvidia die kaart makkelijker in opgefriste vorm kunnen uitbrengen.

Mocht het gerucht kloppen dat de fabrikant een vernieuwde RTX 3060 verkiest boven een RTX 5050, dan kan dit duiden op een verschuiving van allocatie bij TSMC. Nvidia laat daar al zijn RTX 50-serie videokaarten op het 4N-proces maken, samen met andere gpu's en rekenclusters voor AI-bedrijven. Ongetwijfeld zal Nvidia de productiecapaciteit voor chips met een hogere marge voorrang willen geven. Daarom kan het logischer zijn om terug te grijpen op de RTX 3060, een kaart met een gpu die op Samsungs oudere 8LPP-proces wordt gebakken.

Of deze kaart opnieuw met 12GB vram uitkomt, blijft uiteraard afwachten. Verder ligt het gezien het prestatiesegment in 2026 meer voor de hand dat de kaart niet wereldwijd beschikbaar komt, maar alleen in bepaalde markten waar de vraag naar instapvideokaarten het grootst is.

Tot slot

Bestaande producten opnieuw uitbrengen als rebrand of refresh is niets nieuws. In het verleden zijn er vaak genoeg processors en videokaarten onder een nieuwe naam uitgebracht terwijl het om bestaande technologie ging. Maar de significante periode nu tussen de uitgefaseerde producten en de mogelijk herrezen versies ervan is een opvallend verschil.

Als de geruchten kloppen en in ieder geval Intel en AMD doorzetten met het uitbrengen van respectievelijk een nieuwe Raptor Lake- en Ryzen 7 5800X3D-processor, brengt dit implicaties met zich mee. Allereerst onderstrepen de processorfabrikanten dat ze op de korte termijn geen duidelijke verbetering verwachten in de geheugenmarkt. Ook kan het betekenen dat diversificatie op verschillende productielijnen op de langere termijn een grotere rol kan spelen. De productieprocedés van consumentenchips zouden bijvoorbeeld nog verder kunnen gaan achterlopen op de zakelijke klanten, die bereid zijn meer te betalen.

Daarnaast zullen deze 'nieuwe' processors niet waanzinnig scherp geprijsd zijn, althans aanvankelijk niet. Er zijn vaste kosten verbonden aan het heruitbrengen, die Intel en AMD moeten terugverdienen. Ze zullen goed kijken hoe de markt reageert en wat consumenten bereid zijn te betalen voor hardware van enkele jaren geleden. De grote vraagtekens zijn momenteel dus of de processors wereldwijd beschikbaar komen en wat de adviesprijzen zullen worden.

De mogelijke producten achter deze geruchten hebben gemeen dat ze relatief weinig investering en geen r&d vereisen. Het gaat om hergebruik en nieuwe varianten van bestaande en bijna uitgefaseerde technologie. Door de grote onzekerheid in de componentenwereld en in bredere zin ook de wereldwijde vrije handel en transport, zullen hardwarefabrikanten minder bereid zijn om grote risico's te nemen. Dit geldt vooral voor de consumentenmarkt, waar marges doorgaans stukken lager liggen dan bij enterprise en AI.

Redactie: Reinoud Dik • Eindredactie: Marger Verschuur

Reacties (88)

Sorteer op:

Weergave:

Ik zie hierin ook een hele grote rol voor de software leveranciers. Als je kijkt naar de jaren 70 en 80 en ook in het begin van de jaren 90, was geheugen optimalisatie erg belangrijk. Er werd echt goed over memory management nagedacht, want er was niet zoveel. Vanaf de jaren 90 kwam er een kentering dat geheugen goedkoop werd en daardoor meer gemeengoed werd. Dat leidde ook ertoe dat er minder aandacht kwam voor memory managent en code optimalisatie. Immers, dat kost tijd en is dus duur terwijl geheugen goedkoop was. Dat zag je ook terug bij programmeren en compilers. Als je nu kijkt, wordt er veel geheugen gereserveerd wat uiteindelijk nooit gebruikt wordt door programma's. Natuurlijk is een deel daar voor performance redenen, maar niet alles.

Hopelijk zet dit weer een nieuwe (oude?) trend in, dat er weer meer naar optimalisatie wordt gekeken.
De vraag is wie er leverage heeft. De enige die nu druk zetten zijn Console makers want die gaan next gen consoles willen uitbrengen met minder geheugen en een kleinere SOC omdat alles duurder is geworden. Tegelijk moeten ze next gen graphics tonen. Dat kan enkel door veel te optimaliseren. Sowieso worden game engines onder druk gezet om tools te ontwikkelen die de performance ten goede komen.


Apple spant toch wel de kroon als het over OS en App optimalisatie gaat. De Macbook NEO werkt echt heel goed, ik kon daar ook 4K edits op doen en de timeline voelde zelfs vlotten aan dan mijn video edit PC met 64gb ram. Natuurlijk is mijn systeem in renderen krachtiger maar je voelt toch dat Final Cut pro zeer vlot draait op een laptop die op papier zou moet stotteren in de viewport.
Hopelijk zet dit weer een nieuwe (oude?) trend in, dat er weer meer naar optimalisatie wordt gekeken.
Ik zou er niet op rekenen. Men gebruikt nu volop AI bij coderen. Waren we net een beetje van de LoC metric af, wordt die nu volop gebruikt bij het aangeven wat de AI doet. En optimalisatie staat veel lager op de prio lijst.

Een AI bedenkt niet automatisch dat hij betere algoritmes moet gebruiken. Dat moet je expliciet opgeven. En veelal denkt de coder in features, dan in optimalisatie. In een recente testje die ik deed, genereerde de AI code die een volledig bestand in geheugen laad en van die bytes een checksum berekent. Meeste devs zouden dat een prima stukje code vinden. Alleen dat bestand is wel enkele GB groot, dus volledig in RAM laden is niet slim.
Maar ja,
wil dat zeggen dat software producenten ook op de rem trappen en de systemen niet "zwaarder" maken zodat computers met deze oude hardware performant zullen blijven...?
Dat is ook mijn gedachte. Gaan de softwaremakers nu tijd besteden aan het optimaliseren van de software. Zou daar een groot voorstander van zijn.

Ik ben wel blij dat ik voor de AI hype een nieuwe desktop heb gebouwd. Voorlopig voldoende rekenkracht voor alle taken inclusief. Video bewerken.
Dat is ook mijn gedachte. Gaan de softwaremakers nu tijd besteden aan het optimaliseren van de software. Zou daar een groot voorstander van zijn.
Als ze daartoe gedwongen worden heeft dit hele gebeuren toch nog een klein koperen randje. Optimalisatie in software maar ook zeker in games is de laatste jaren een stuk minder geworden. Omdat producenten leunen op "trucjes" zoals DLSS en verhoudingsgewijs zware hardware. Windows is ook steeds meer een lomp WebView gefocused systeem geworden. Leuk voor snel ontwikkelen, niet zo best voor performance en resource gebruik.

Heb met dit hele geheugen gebeuren wel heel sterk het gevoel dat we weer in een NAND kartel constructie zitten zoals jaren terug. De giga order van wafers door OpenAI, waar men van claimt dat dit hét primaire aandeel is/was van de prijsstijgingen. Is voor het grootste deel niet doorgegaan, dus dat de prijzen nu nog zo extreem hoog zijn is op z'n minst verdacht.
DLSS is imo juist grotendeels een optimalisatie om met minder krachtige hardware meer te kunnen. Maar dat soort optimalisaties worden door een hoop mensen dus ook als ongewenst gezien.

En waarschijnlijk naiief, maar als AI zoveel kan qua coding, dan zou ik denken dat het prima moet kunnen hem een belabberde Electron applicatie te geven, en daar wat efficients van te maken. En als nu nog niet, misschien over een paar jaar.
DLSS is een cheatcode/workaround/pleister en geen optimalisatie. Als studios de performance target niet natively kunnen halen doordat ze niet optimaliseren, gebruiken ze de real life cheats zoals DLSS om het voor elkaar te krijgen.
Het is een efficientere manier om hogere framerates te halen zonder bruteforce meer raster performance, wat gewoon een doodlopende weg is. Maar zo kan je ook bijvoorbeeld assets comprimeren om minder VRAM nodig te hebben een cheatcode / workaround / pleister noemen voor te weinig VRAM. Dat kan, maar dan moet je dus meer geheugen op GPUs gaan zetten. Ik noem efficient omgaan met hardware optimalisaties zelf.
Nou hangt af hoeveel de RT en Tensor cores Die space innemen wat cuda cores hadden kunnen zijn. Als je RT en DLLS niet gebruikt is deel van je Diespace balast. Wat cuda cores hadden kunnen zijn. Daarmee zou ik naast x0x0 rtx vergelijken met tier hoger kwa raster. Nv wil RT en DLLS door de strot duwen zodat al hun gpu voor de pro AI markt geschikt zijn. En hebben ze dus toepassingen verzonnen voor Tensor core en dat zwaar pushen zodat game afhankelijk zijn van tensor cores.

AMD Radeon heeft minder RT en AI compute kracht. Maar dan zou real estate ook flink minder zijn.En omdat AMD geen high-end bied valt dat minder op. Al helemaal op mindere node.

Pushen van nV heeft gewerkt. Dev leunen erop. En iNtel en AMD zelfs apple silicon volgt. Meer AI compute.
DLSS gebruikte echter wel meer geheugen, van wat ik begrijp.
DLSS is imo juist grotendeels een optimalisatie om met minder krachtige hardware meer te kunnen.
Dat zou een goeie insteek kunnen zijn. Echter wordt het veelvuldig gebruikt/misbruikt om te verbloemen dat de optimalisaties ondermaats zijn of überhaupt niet zijn gedaan. In plaats van om het er puur mooier uit te laten zien. DLSS moet er zijn ter ondersteuning, niet om de kar te trekken.

Unreal 5 is hier een goed voorbeeld van, ziet er goed uit maar draait vanuit de kern gewoon ronduit slecht. Met DLSS kan je het speelbaar krijgen, dat is echter niet de oplossing voor het onderliggende probleem. Zo lang men accepteert dat DLSS een vereiste is/gaat worden om zelfs op middelmatige hardware de game draaiend te krijgen is het einde zoek. Dan kom je uit bij het gezegde: "polishing a turd"

Buiten de vele gameplay bugs bij launches merk je aan alle kanten dat veel games, onder veel te hoge tijdsdruk worden geproduceerd. Waardoor dit soort tijdrovende stappen worden overgeslagen. Zo lang we als consument dit soort games blijven kopen en dus accepteren zal dat niet veranderen. Vote with your wallet.
Maar dat kan je natuurlijk van zo goed als alle optimalisaties zeggen. Hell je kan het ook zeggen van gewoon snellere CPUs en GPUs: Het maakt developers alleen maar luier en ze doen minder optimalisaties als er snellere hardware komt!

En hetzelfde voor compressie van assets in bijvoorbeeld VRAM: Zorgt ervoor dat developers niet kritisch hoeven te zijn over wat er wel en niet geladen moet worden!
En hetzelfde voor compressie van assets in bijvoorbeeld VRAM: Zorgt ervoor dat developers niet kritisch hoeven te zijn over wat er wel en niet geladen moet worden!
Nee. Het zorgt er voor dat developers langer de boot af kunnen houden om kritisch te moeten zijn over wat/waar/wanneer ingeladen moet worden.

VRAM compressie is uitstel na te hoeven denken over fundamentele issues in het asset lifecycle management van je game. En misschien, als je geluk hebt, de mogelijkheid om totaal te vermijden er over na te hoeven denken.

... En anders gewoon de minimum systeemvereisten van 6GB VRAM omhoog naar 12.
Dat is hoe in de realiteit het management naar zulke vraagstukken kijkt.
Kan het goedkoop? Dan doe het maar goedkoop.

[Reactie gewijzigd door R4gnax op 27 april 2026 11:10]

Oftewel precies wat ik zeg: Met die logica kan je ook daartegen zijn, want het zorgt dat developers andere optimalisaties niet doen.
En zo is de cirkel weer rond, AI gebruik vermeerderd, geheugen blijft duur, AI wordt ingezet om memory usage te optimaliseren.
En waarschijnlijk naiief, maar als AI zoveel kan qua coding, dan zou ik denken dat het prima moet kunnen hem een belabberde Electron applicatie te geven, en daar wat efficients van te maken. En als nu nog niet, misschien over een paar jaar.
Probleem is dat Electron extreem slechte performance heeft in vergelijking met native apps. Wil je dat echt sneller krijgen, dan moet je gewoon overstappen naar een andere tech stack. AI zou dat mogelijk ook kunnen, maar dat zal vermoedelijk ook gewoon de uitkomst zijn.

Ik zeg niet dat Electron geen plaats heeft, maar Electron en performance gaan niet hand in hand. Ik snap persoonlijk ook die drang niet om alles webbased te maken en met Electron is dit compleet doorgeslagen. Laten we alles dat native kan draaien omzetten naar webbased (want dat is Electron in de bron gewoon) 8)7 . Maar vervolgens wordt wel dezelfde performance verwacht van een native app. Tja dat werkt gewoon niet.
Dat is ook precies wat ik bedoel, met de Electron app weet AI precies wat de applicatie moet doen, en zat dat maar om naar een andere taal / platform die wel fatsoenlijke performance heeft.

En waarom? Tja omdat het goedkoper is voor degene die het maakt, en de kosten ervan (zwaardere hardware nodig) ligt bij de consument. Dat gezegd hebbende, als ik kijk ook op GoT hoe vaak ik lees van IT'ers die vertellen dat programmeren makkelijk is, iedereen kan het, en dat de echte uitdaging in hun beroep zit de architectuur neerzetten en dat soort zaken, dan vraag ik me wel af als het zo makkelijk is, waarom zo veel in zulke talen / platformen met belabberde performance wordt geschreven.
Programmeren en welke tech stack daar bijhoort is altijd een afweging tussen performance, gebruiksgemak, snelle iteratie en zeker bij bedrijven, time to market. Jammer genoeg delft performance snel het onderspit en is het het eerste aspect dat niet meegenomen wordt in het vraagstuk. Er wordt dan snel voor een tech stack gekozen die gemakkelijker in gebruik is, meer personeel voor te vinden is, sneller te debuggen, gemakkelijker te integreren enzovoort... maar qua performance minder goed is.

Vandaar ook de wildgroei aan Electron apps. Web developers zijn er in overvloed, iedereen kent het in meer of mindere mate. Personeel vinden was en is een probleem. Performance is nooit de number one priority (er zijn uitzonderingen natuurlijk). Want dan zouden we gewoon alles nog in assembly/C/C++/Rust schrijven.

Of programmeren makkelijk is, ga ik me niet over uitspreken :), dat zal van persoon tot persoon afhangen. Ik ben zelf ook developer/architect en vind inderdaad de syntax van een taal op zich niet zo moeilijk. Dat duurt een paar weken tot een paar maand tot je daar mee weg bent. Dan komt het moeilijkste stuk, goeie architectuur opzetten die uitbreidbaar is en rekening houdt op een nette manier met verschillende randgevallen, zonder er spaghetti code van te maken. Ook daar moet je weer rekening houden met performance. Want nette code kan er wel leuk uitzien en eenvoudig te lezen zijn, maar helemaal niet snel werken.

Eenvoudig is dat niet die afweging en daar zal elke ervaren programmeur ook nog dagelijks zijn hoofd over breken. Je wordt er met de tijd beter in, maar elk probleem is anders. AI valt daar nu nog zwaar door de mand. Wat ik er van zie, zijn het samenraapsels van code die werkt, maar verre van optimaal en rekening houdende met uitbreidbaarheid. Maar dan gaan we offtopic :p.

[Reactie gewijzigd door Powerblast op 27 april 2026 12:12]

Daar ben ik het niet helemaal mee eens. DLSS is een trade-off tussen compute en memory die voor bepaalde systemen en configuraties een verbetering in QoS bied. Het optimaliseert in die zin niets, maar het geeft je een paar extra knoppen om op een systeem de workload anders in te delen. Upscaling vereist meestal een zwaardere load op je cpu. Als je gpu het zwaar heeft dan staat je cpu meestal minder hard te draaien. Die ruimte wordt dan gebruikt door DLSS.

Het is een goede tool voor gebruikers om hun ervaring te tunen aan hun hardware. Maar het wordt kwalijk wanneer men in algemene zin lui wordt en denkt: ach ik hoef voor 4k geen geheugen access te optimaliseren of snellere shaders te schrijven, dat lost upscaling wel op. Die insteek is hetzelfde als je game primair voor een lagere resolutie ontwikkelen.
Dan is wellicht goed nieuws te melden, althans aan de Linux kant. Er bestaat gelukkig nog zoiets als de open source community, waar op dit moment toch wel gave dingen gebeuren m.b.t. optimalisatie. Zo heeft Igalia in opdracht van Valve de LAVD cpu scheduler ontwikkeld, welke ervoor moet zorgen dat de cpu beter benut zal worden. Dit moet o.a. resulteren in minder "stuttering" in games. Nathalie Vock (freelance Valve) heeft ondertussen dmemcg-booster gamaakt, wat ervoor moet zorgen dat games soepeler lopen op GPU's met "slechts" 8gb.

Dit zijn slechts twee grepen uit de doos, maar het geeft wel aan dat er flink gesleuteld word aan optimalisatie. Dat samen met de beta van Valve die ontwikkelaars inzage geeft in de performance van hun game (opt-in uiteraard), moet ervoor zorgen dat studio's beter in staat zijn om hun code te optimaliseren.

LAVD link: https://www.phoronix.com/news/LAVD-Scheduler-Linux-Gaming

dmemcg-booster: https://www.phoronix.com/news/Valve-Better-Gaming-Low-vRAM

Steamworks beta
Optimaliseren levert niets op.

Compute offload naar de cloud wel (E14,99 per maand).
Wat jij zegt is toch alleen de load verplaatsen. In de huidige tijd waarin elektrische energie beperkt beschikbaar is, blijft het optimaliseren een voordeel opleveren. Ook wanneer de load verplaatst is naar een centraal punt. De servers op die locatie zijn ook beperkt in hun mogelijkheden. Helemaal nu je leest dat steeds vaker het niet meer mogelijk is om serverruimte uit te breiden of nieuw te bouwen.
Het is misschien een blessing in disguise wanneer software wat resource efficienter wordt geschreven.

Anderen moeten daar maar wat van vinden, mijn indruk is dat efficiency niet atijd vooraan heeft gestaan in de prioriteiten. De focus ligt meer op het toevoegen van niet altijd nuttige features of interfaceveranderingen.

Misschien dat het nu ook meer marketable wordt om te zeggen dat de nieuwe versie 20% resource efficienter is. Ik zou best blij van een dergelijke ontwikkeling kunnen worden.

[Reactie gewijzigd door teacup op 27 april 2026 07:58]

Dat is ook mijn ervaring hoor. Altijd de focus op meer en complexe functionaliteit, terwijl de gebruikers eigenlijk meer gebaat zijn bij een snel en efficiënt systeem.

Maar ja, marketing... Release notes waarbij elke x weken "improved performance" in staat, verkopen slecht.
In de gaming sector Lees je dit al. Heb het artikel even niet meer paraat, maar Lego Batman volgens mij is of was uitgesteld om beter te optimizen zodat ie minder werk geheugen nodig heeft, en dit soort verhalen lees je meer.

De situatie is matig, maar het zou op een rare manier nog wel een enigszins positieve twist kun en krijgen als we door deze crisis beter geoptimaliseerde games gaan zien.
Ja ik heb toen der tijd 96 gb aan ddr5 gedaan voor modded Cities skylines maar was het toen wel waard 300 euros voor 64 gb en 140 voor 32 gb zo iets dat ga je tegenwoordig niet meer vinden.
En wat is je verdere build voor CS? En hoe loopt het?
Ik had een i5 2400k met 16 GB DDR3 op 800 MHz en een GT 710. Wat een GPU… Maar goed, ik zei steeds: “Ooit ga ik upgraden.” In 2023 heb ik dat gedaan, eerst naar een 7900X met 32 GB en een 7900XTX, gewoon bij het AMD-model gebleven, plus een Samsung NVMe-drive erin. Toch was het nog niet genoeg, dus begin 2024 heb ik er 64 GB in gezet en later nog 2× 4 TB NVMe’s van Corsair en een paar HDD’s toegevoegd. Dat laatste kwam er gewoon later bij.


Corsair RM850x (2021) Zwart: beste prijs - Tweakers

ASUS TUF Gaming B650-PLUS: beste prijs - Tweakers

AMD Ryzen 9 7900X Boxed: beste prijs - Tweakers

Kingston Fury Beast KF560C30BBEK2-64: beste prijs - Tweakers Wel C40 timings

Kingston Fury Beast KF560C30BBEK2-32: beste prijs - Tweakers wel c40

en nog een samsung nmve gen 5 maar daar weet ik de link niet zo van

AMD Radeon RX 7900 XTX: beste prijs - Tweakers
Thx! Ik zit op een ryzen 3700x en 5700xt en 32gyg ram. Merk dat het te weinig is 🤣
Het probleem dat ik nu heb, is dat ik te veel werk en daardoor niet vaak meer achter mijn pc zit, maar mijn laptop veel vaker gebruik. Tja, ga je van een i5 2400k en GT 710 naar een 7900x en 7900xtx, heb je er nog steeds niet heel veel aan. Tja, dat is nou eenmaal het probleem.
Ze zullen wel moeten, anders kan niemand het spelen.

Het meeste waar ik voor vrees is als deze crisis nog 1 of 2 jaar langer duurt. Sony heeft al gezegd met een nieuwe generatie Playstation bezig te zijn. Stel de PS6 moet over 1,5-2 jaar op de markt komen, en men moet dan de geheugenpool vastleggen naar iets kleiners dan gewild (bijvoorbeeld maar 24GB ipv 16GB die nu op PS5/Xbox zit). Dat zou die keuze voor de jaren weer vastzetten, met gevolgen voor de titels die op console en PC uitkomen. Opzich goed nieuws dat dan PC hardware specs lager blijven, maar betekent dat ook stagnatie in graphics voor de komende jaren? Of een push voor nog meer AI framegen, upscalers of andere neurale poetsdoekjes?

Niet al die tools hoeven per definitie slecht te zijn. Beetje upscaling is imo prima, en neural texture compression lijkt best wel gaaf (mits waarheidsgetrouw). Maar dit soort algoritmes maken weer hardware gebonden featuresets verschillen die op console niet zo'n probleem zijn, maar op PC wel.
Terugkijkend hadden we tijdens Covid ook een stagnatie in graphics doordat de verkoop, of beter gezegd productie van Xbox SX en PS5 niet snel genoeg ging. Desondanks kwamen er games uit als Cyberpunk die poogden nieuwe technologie te pushen. Nu was dat nog dankzij Nvidia die nog vol inzette op games, maar toch.

Zeker met huidige games lijkt me dat deze gewoon schaalbaar zullen zijn. Tevens moeten we niet vergeten dat we nog altijd mainstream bij lange na niet de volledige resolutie krijgen. Het zal waarschijnlijk een nog langere cross gen tot gevolg hebben met een hoop multiplatform games en een handjevol showcases.

Is dat erg? Ik denk van niet. Zolang games per definitie niks nieuws doen, is het immers alles slechts opsmuk. VR zet niet door. En RT zie ik ook niet zo snel als gameplay element worden gebruikt.
Maar ja,
wil dat zeggen dat software producenten ook op de rem trappen en de systemen niet "zwaarder" maken zodat computers met deze oude hardware performant zullen blijven...?
Ik denk dat ze weinig keus hebben. Het heeft weinig zin om software uit te brengen die (vrijwel) niemand kan uitvoeren. Ze willen uiteindelijk geld verdienen. Ben benieuwd welke creatieve oplossingen we gaan zien.
Dit hebben we in de jaren voor Ryzen toch ook gezien? CPUs werden nauwelijks sneller gedurende een periode van bijna 10 jaar. Voor de Nvidia GTX 10x0 reeks uitkwam was er ook meer evolutie dan revolutie in de GPU markt.

Makers van software maken software die mensen kunnen lopen, ander verkopen ze ook niks. Dus als de hardware stil staat, dan kan de software moeilijk de requirements echt omhoog doen.

Misschien vinden game makers dan eindelijk een reden om hun engines weer te optimaliseren?
Daar hebben de "limitaties" van SSD's ook een rol ingespeeld in mijn ogen.
Sinds de komst van weer snellere opslag (Nvme) is er weer een volgende vertragingsgolf ontstaan.
Waar Windows toch steeds flinke eisen stelt aan hardware denk ik er toch wel wat mensen zullen zijn die linux (wederom) een kans geven, dat draait immers prima op vorige generatie hardware.
Windows zelf als OS valt flink mee v.w.b. de druk op de beschikbare hardware. Het zijn juist de inmiddels hele basale applicaties die onevenredig zwaar zijn, zoals een gewone Office-suite met mail en chat in het bijzonder, en natuurlijk de webbrowser.
Al die webkit onzin; Spotify, WhatsApp desktop en zo is er nog een hele lijst. Die draaien allemaal in een soort browser-omgeving en eten je RAM op.

Sinds ik die apps weg gedaan heb, red ik het weer prima met 16 gig. En ook mijn overgeklokte Ryzen 3600x kan nog wel even mee. Ik wacht wel tot deze gekte voorbij is, of ik sla GTA 6 wel helemaal over :+
Ik wilde dit jaar een nieuwe pc in elkaar zetten. Helaas te laat. Uiteindelijk de 3600 vervangen voor een ryzen 7 5700x. Moet zeggen je merkt het verschil wel. Nu nog alleen de 6700XT vervangen voor een 9070XT en ik kan weer jaren vooruit. Want ik had toevallig wel vorig jaar nog even 32GB erbij geprikt bij de 16GB die ik had.

Een vriend die wel Vorig jaar zijn pc had vervangen die schrok zich dood van wat die nu zou moeten betalen Voor zijn ram en SSD/HDD. Het erge voor mijn gevoel is het allemaal gebakken lucht deze tekorten. Maar dat is een gevoel die ik heb.
Ik heb afgelopen week voor iets minder dan €1000 een nieuwe pc in losse onderdelen besteld en afgelopen vrijdag in elkaar gezet.

Ik schrok zelf ook van de prijzen, vooral die van het werkgeheugen.

Maar het werd tijd, want mijn voorgaande pc begon steeds vaker kuren te krijgen.

Dan moet je wel... Je kunt niet zomaar zonder pc. Tenminste, ik niet...

Ik heb op kosten bespaard door de SSD en de videokaart uit de voorgaande pc te behouden en over te zetten naar de nieuwe.

Mijn nieuwe pc kan trouwens ook zonder dedicated videokaart werken omdat er een DP en HDMI poort op het moederbord zitten. Heb ik al even getest en werkt perfect met twee monitoren.

[Reactie gewijzigd door Uruk-Hai op 27 april 2026 09:14]

Ik ga wachten tot de nieuwe Intels komen, ik ben erg benieuwd of die weer mee kunnen komen, ik denk het wel namelijk. Zal dan ook aan "duur" ddr5 moeten helaas. Maar mijn huidige systeem begind nu wel wat oud te worden (10900x).
Klopt ze zijn allemaal desktop applicaties stiekem in een soort crocky web omgeving aan het bouwen.
anderzijds: als er nu iemand is die kan profiteren van zo'n 5800x38, dan lijkt u het wel
Anderzijds is het de vraag of er anders überhaupt een desktop variant zou zijn voor allerlei apps, zeker op qua gebruikersaantallen minder massale systemen zoals macOS en Linux.
Al die webkit onzin; Spotify, WhatsApp desktop en zo is er nog een hele lijst. Die draaien allemaal in een soort browser-omgeving en eten je RAM op.
Wat overigens voor veel van die applicaties minder te maken heeft met het feit dat het applicaties zijn die om een webbrowser view heen gebouwd zijn, dan met de wijze waarop de applicatielogica geschreven is.

Heel veel van die applicaties zijn in React in elkaar geramd en React maakt het oh-zo makkelijk om enorme hoeveelheden geheugenlekken te creeëren. Heeft alles te maken met de technische opzet van hoe de React lifecycle van een UI component werkt, en hoe in JavaScript het verraderlijk makkelijk is om per ongeluk zaken levend te houden via de closure scope van een functie.
Ik heb geen specifieke programmeer-ervaring met dit soort apps, maar wel wat met Java. Hoe makkelijk het is daar allemaal libraries voor te importeren die je niet echt nodig hebt... Volgens mij is dat ook wat vandaag de dag veel gebeurt. Voor een eenvoudige timer een hele agenda library importeren of zo. Nogmaals; het is speculatie van mijn kant, maar het lijkt er wel op.
Windows 11 draait ook prima op “oudere” hardware. Heb het op een i5 1135 laptop en dat loopt als een malle en minstens zo snel als Linux Mint aanvoelde. Sterker nog: daar duurde het langer voor sommige applicaties, zoals Firefox, opstartte.

Je moet een hoop onzin in Windows uitzetten. Daar zijn gelukkig legio tooltjes voor en dan werkt het naar mijn idee (bijna) net zo goed als vorige Windows versies.

Iedereen die Linux kan installeren kan ook zo’n tooltje gebruiken om Windows wat minder lomp te maken.
Geeft wel nieuwe perspectieven. Misschien is AI geen bubbel zoals in de traditionele gedachte maar trekt het zoveel industrieën omver dat het vanzelf een bubbel wordt. Hoe moet het straks als niemand meer gebruik kan maken van hardware? Ik ga geen halve gimped rommel kopen zoals dat hudimm. Ik kan de komende 6 jaar nog prima vooruit met m’n hardware. En als de games te zwaar worden speel ik wel weer WoW classic voor de 10de keer. Het blijft een leuk spel. Verder draait Office toch overal op dus wat heb je nu eigenlijk nodig?


Vooral de hobbyisten met hun videobewerking, die hebben een probleem. En de spec-opscheppers uiteraard. Ik denk dat er wetten moeten komen die toegang tot het internet en toegang tot data moeten garanderen. Stel dat er vanaf morgen alleen nog maar auto’s voor het zakenleven gemaakt worden, dan staat de hele wereld op z’n achterpoten. En met hardware laten we het zomaar gebeuren? Misschien omdat Jan met de pet toch alleen maar Macs koopt maar die gaan er uiteindelijk ook last van krijgen. Computers zijn bijna een eerste levensbehoefte geworden, zonder computer kan je bijna niks meer.
AI is geen bubbel omdat er reeële vraag naar is, al is het nog wel te bezien wat aanbieders met hun prijsstelling gaan doen. Momenteel zie je dat het prompt-volume explodeert (ie meer bedrijven en consumenten die AI gebruiken) terwijl de capaciteit het niet bij kan benen.

Wat sommige tweakers niet snappen is dat hardware zoals RAM door AI gewoon meer waard is geworden omdat er een nieuwe (of sterkere) enterprise use-case is bijgekomen. Dit gaat waarschijnlijk niet veranderen. Zelfs met het dure RAM zijn PCs nog steeds absurd snel en heel goedkoop in historisch opzicht (ik raad iedereen om eens naar de computerprijzen in de jaren 80 en 90 te kijken en die voor inflatie te corrigeren).
In principe heb je wel een punt, idd. Halverwege de 90s kon je voor iets meer dan fl. 1000,= een basissysteem kopen obv een IBM Cyrix CPU. Wou je meer dan basic officewerk kunnen doen, dan liepen de prijzen HARD op. Ik werkte eind '96 bij DES Computers (paar weken op uitzendbasis) en heb een aantal basisconfigs verkocht incl assemblage, maar ook een top-of-the-line samengesteld voor en verkocht aan iemand die een systeem voor zijn zoon wilde kopen. Hij kwam voor de meest goedkope en ging weg met een factuur/bouwopdracht voor 1 van de dikste systemen die ze dat jaar hadden verkocht de deur uit. Zoonlief had allerlei plannen met het systeem voor zijn studie e.d. en vader tikte zonder blikken of blozen een dikke fl. 5500,= af ("Als jij dat nodig hebt, jongen..." sprak hij met een hete aardappel in zijn keel).
Al dat nieuwe spul destijds was prijzig. In '98 of zo kocht ik mijn 1e CD-brander (SCSI) bij de Blok voor fl. 299,=
Precies. Er wordt heel snel ‘onbetaalbaar’ gezegd maar afgezet tegen het gemiddelde vrij besteedbaar inkomen is zelfs een workstation met 64gb ram nog betaalbaar. Er speelt gewoon in de emotie een heel sterke ‘baalfactor’ omdat RAM eerder goedkoper was. Maar dat betekent niet dat het zelfs voor de beperkter bemiddelden onbetaalbaar is.

Aanvulling: Je ziet dezelfde emoties bij de prijs van games.

[Reactie gewijzigd door PjotterP op 27 april 2026 13:02]

Maar het is ook gewoon waar dat de meeste mensen geen nieuwe pc nodig hebben voor wat ze ermee doen. Mijn eerdergenoemde systeem met 16 gig RAM, Ryzen 3600x en een RTX 3070 draait gewoon alles prima wat ik er in 1080p naartoe gooi. Office en andere desktop apps zijn helemaal geen probleem. En het opstarten ervan... Nou, met een NVMe is vrijwel iedere app geopend voordat je met je ogen kunt knipperen. Dus om 'omdat het kan' dan maar even 2k neer te leggen voor een upgrade, is dan wel een hoge drempel. Zeker als je er vorig jaar de helft voor betaalde. Als dat is wat jij de 'baalfactor' noemt, ben ik het helemaal met je eens.
Ja begrijp me niet verkeerd, 2000 euro is een hoop geld, maar het is echt voor heel veel mensen out of pocket te doen of anders een ‘spaarbaar’ doel. Bovendien heb ik het idee dat tweakers een beetje het functionaliteitsperspectief vergeten.

Een 16gb VRAM gpu daar kan je gewoon enorm veel meer mee doen dan games draaien.

Een computer voor 2000 euro tegenwoordig is nog steeds echt een absurd krachtig multi-functioneel apparaat. Computers zijn niet alleen enorm veel sneller geworden, maar ook qua functionaliteit tikken ze veel meer boxes.
AI is geen bubbel omdat er reeële vraag naar is
Er is ook vraag naar internet en het heeft daadwerkelijk de wereld veranderd. Alsnog was de dotcom bubbel een bubbel.

Wat sommige Tweakers niet snappen is dat "bubbel" niet betekent dat de onderliggende techniek waardeloos is, maar dat iets zwaar opgeblazen is qua waarde, en dat is absoluut het geval voor AI.

Kijk maar naar de cijfers: OpenAI is de meets populaire aanbieder van AI producten, waarbij echt al enorm veel mensen betalen voor de dienst. In de mainstream betalen best veel mensen voor "chat".

Hun jaarlijkse inkomsten zijn nu ongeveer 20 miljard dollar. Best een mooi bedrag.
De komende vijf jaar hebben ze echter geplande investeringen van 800 miljard dollar. Dit is alsof iemand met een jaarinkomen van 80.000 euro een huis van 3.2 miljoen koopt en belooft het over vijf jaar af te betalen, "want ik maak vast promotie". En dat is bovenop hun lopende kosten die sowieso al meer dan hun inkomsten zijn.

Dit is de meeste bubbelige bubbel ooit.

[Reactie gewijzigd door kiang op 27 april 2026 13:44]

Nee de dotcom bubbel was echt anders, er zat veel meer vaagheid in het spel. AI wordt nu al massaal gebruikt voor concrete werkzaamheden en dat gaat alleen maar toenemen. De vraag is vooral hoe de prijsstelling te gaan kiezen die duurzaam is.

Bovendien, bijv Open AI gaat nu failliet: je krijgt dan niet een overschot van hun datacenters, maar een consolidatieslag. Die hardware zal naar een andere partij gaan.
wordt nu al massaal gebruikt voor concrete werkzaamheden en dat gaat alleen maar toenemen. De vraag is vooral hoe de prijsstelling te gaan kieze
Het internet werd ook massaal gebruikt in 2000, het concept was bewezen net zoals bij AI.
De manier waarop AI nu gebruikt wordt levert echter nog amper wat op qua productiviteit (zie de MIT studie) en is een walgelijk verlieslatende bezigheid, voor zowel de klanten, maar vooral de AI aanbieders. Als AI kostendekkend zou worden aangeboden is er geen hond die er nu voor betaalt. Er is niets duurzaams aan hoe het nu gebeurt, en de honderden miljarden die erin gepompt worden zal niemand ooit terugzien. De grote winnaars hier zijn enkele en alleen de hardware fabrikanten.
Die hardware zal naar een andere partij gaan.
Die hardware is over 3-5 jaar afval want totaal voorbijgestreefd. Wat nu aan de gang is is echt een flagrante kapitaalvernietiging en de klap zal dus absoluut komen en zal extreem hard zijn.

[Reactie gewijzigd door kiang op 27 april 2026 15:36]

Uiteindelijk blijft dat lastig af te dwingen.

Als China volgende week Taiwan probeert in te nemen zijn de schaarste en prijzen die we nu zien nog maar het begin.
Er is volgens mij helemaal geen geheugen crisis; alleen een consumentencrisis. Tuurlijk er zijn mensen verdrietig dat hun nog te kopen computer duurder is en ja dat is heel erg inderdaad. Maar tegelijkertijd heeft iedereen al meerdere computers, tablets, telefoons, spelcomputers. Ga maar eens na. Ook de tweedehands markt is genoeg voor praktisch iedereen op aarde. Westerse geboortecijfers zijn nog nooit zo laag geweest als nu, en arme landen kunnen ook nog een jaar extra doen met wat ze hebben. Plus we hebben het over maximaal een paar jaar.

De fabrieken draaien echter ook gewoon volle toeren en ook de geheugenfabrikanten hebben fijne winsten. Volgens mij is dit dus gewoon een probleem dat wij als nerds zelf, elkaar aanpraten en erger maken. Dat een Dell of HP misschien in de problemen komt? Dat zat er sowieso aan te komen
Er zijn flinke investeringen gedaan in nieuwe fabrieken voor snel geheugen en daar willen ze natuurlijk nu ook profijt van hebben. Helaas betekend dat voor de consument dat ze even moeten wachten op goedkoper geheugen. Maar zodra de AI markt verzadigd is geworden komt er zuiniger en snelle geheugen beschikbaar voor consumenten waardoor ook de prijs weer wat zal dalen. Dan kunnen wij 'nerds' ook GPU's hebben met 128GB VRAM om thuis grotere LLM's te draaien.
Je hebt zeker een punt. Als ik zie hoeveel prima hardware er in het bedrijfsleven en overheid normaliter allemaal vervangen wordt, alleen maar omdat het afgeschreven is of zelfs omdat het jaar budget op moet (ja, dat gebeurt nog steeds), dan is hardware niet het probleem.

Ook de software die massaal geïnstalleerd maar niet of nauwelijks gebruikt wordt is onnodig zwaar en belachelijk lomp. Excel kost 4 GB aan schijfruimte op Windows. Dat is al bizar veel voor wat het kan, maar de versie voor Mac is zelfs 10 GB.

Daarnaast gebruikt het volgens de specificaties 4 GB aan ram. Tja, zo krijg je je werkgeheugen wel vol. Vier GB terwijl de doorsnee gebruiker er een veredeld boodschappenlijstje of een factuurtje mee automatiseert.
Bij zakelijke hardware heeft dat ook wel te maken met de kwaliteit van de behuizingen en de formfactor van de hardware. Voor wie nog van lokale werkstations kan genieten, ipv. VDI oplossingen, zal kunnen erkennen dat de kwaliteit van die behuizingen te wensen overlaat. Te krap, te warm en te weinig ventilatoren. Tel daar dan een een-slots grafische kaart bij op (want goed genoeg voor de toepassing) en je hardware gaat met artefacten hemelen (hemelen.... een mooie term die ik vandaag bij een andere poster zag :)).

Die afschrijftermijn van een jaar of drie wordt zo een self fulfilling prophecy. Bij pro-laptops zie ik iets vergelijkbaars. De behuizingen nemen met hun beperkte bouwafmetingen zo een voorschot op de koelere hardware en het omlaag throttlelen van de performance dat zelfs met die ontwikkelingen het nog te warm uitpakt.
ik koester onze 1TB server dan ook, ook al is het een 'oud' beestje van inmiddels 6 jaar. Een 256 GB server uit 2016 stond ook op de nominatie om te gaan hemelen.... nog maar even niet.
En voor werkstations laptops en desktops is er best veel goed spul dat door Windows 11 in de k el komt.

Help je buren met Linux. Voor de buren, voor de pc-markr, voor het milieu en voor ons allemaal.
zeker, je ziet het bij IT. Alles was Win11. Nu zijn ze toch serieus aan het kijken naar een Linux image voor de 'wat oudere' Lenovo's.

1x in de maand is hier in de wijk een repair café waar ik wel eens help. Daar geven ze nu ook overstapdagen, speciaal voor mensen die niet zomaar zeggen 'dat is te moeilijk voor mij'. Opvallend veel ouderen komen daar. Laats nog een vrouw van 72 met de oude laptop van kleinzoon. Een deftige core i7 uit 2018 met 16 GB en 512 GB SSD. Zwaar overkill voor de dame, maar ze vond het stoer om er nu met Mint iets van te maken. Haar letterlijke woorden:"eindelijk weer eens iets om m'n tanden in te zetten"

Haar verhaal: in de jaren 90 was ze actief in de PC Privé wereld. Wat een hoop jongere tweakers vergeten is dat de 'ouderen' opgegroeid zijn met C64,DOS,Win95 en soms True64 of AS/2. Dan is een moderne Linux distro echt een eitje.
Geen paniek, we kunnen altijd nog meer RAM downloaden :+
Mijn pc POST niet met dat ram. Het is wel compatible.

[Reactie gewijzigd door HugoBoss1985 op 27 april 2026 08:42]

Duur werkgeheugen? De kosten hoeven niet eens het probleem te zijn, de verkrijgbaarheid is ook een groot probleem.

Zo wil ik een Threadripper systeem samenstellen maar loop compleet vast omdat ik nergens DDR5 ECC/registered RAM kan kopen, nergens op voorraad. Hier zijn de kosten dus niet eens het probleem maar de verkrijgbaarheid...
De verkrijgbaarheid bepaalt de prijs, beetje kip-ei. Niet verkrijgbaar, dus duur, beiden zijn waar.
De chip- en hardwareboeren hebben laten merken dat ze de consument helemaal niet zo interessant vinden. Ze proberen hiermee vooral de oude productielijnen nog een beetje uit te nutten. Het gaat natuurlijk nooit gebeuren want de consument bukt graag en neemt het zonder vaseline, maar eigenlijk zouden "we" gewoon die rommel die ze proberen te slijten links moeten laten liggen. De meesten kunnen best nog een poosje door met wat ze hebben of wat er nu op de markt is.
De andere partijen hebben veel meer geld en zijn ook nog eens bereid - op dit moment - dat uit te geven om de AI boot niet te missen...
"hardwareboer" serieus?
Persoonlijk kijk ik wel uit naar een re-release van de 5800X3D! Zoveel mensen die de boot hebben gemist en 'vast' zitten met een Zen 2 of Zen 3 chip (zonder 3d-vcache). De prijs is koffiedik kijken...
software en game producenten kunnen nu het verschil maken, heel veel software is jaren lang niet geoptimaliseerd omdat het niet echt nodig was, maar dit is een mooie kans te halen uit het zelfde spul.

Om te kunnen reageren moet je ingelogd zijn