Nvidia upgradet naar verluidt RTX 5050 met 9GB GDDR7-vram

Nvidia brengt naar verluidt rond Computex in juni een vernieuwde versie van de GeForce RTX 5050 uit. De videokaart zou een geüpgradede versie van de huidige variant zijn met 9GB in plaats van 8GB GDDR7-vram.

De vermeende RTX 5050-variant gebruikt drie geheugenchips met 3GB-capaciteit voor een totaal van 9GB GDDR7-geheugen, aldus de doorgaans betrouwbare leaker MEGAsizeGPU. De kaart zou daarbij een 96bit-geheugenbus gebruiken met een geheugenkloksnelheid van 28Gbit/s, wat de totale geheugenbandbreedte 336GB/s zou maken.

De huidige RTX 5050 heeft een 128bit-geheugenbus en een 20Gbit/s-kloksnelheid dankzij de GDDR6-chips, dus een geheugenbandbreedte van 320GB/s.

Het is niet duidelijk of Nvidia de vernieuwde RTX 5050 als upgrade in de markt zet, of uit noodzaak een nieuwe geheugenconfiguratie voor de instapversie van de 50-serie ontwikkelt. Eind 2025 schreef Tweakers eerder dat de RTX 50 Super-serie uitgesteld zou worden vanwege een tekort aan 3GB-GDDR7-chips.

RTX 5050

Door Yannick Spinner

Redacteur

05-03-2026 • 16:57

49

Submitter: HugoBoss1985

Reacties (49)

Sorteer op:

Weergave:

Wat kan je verwachten van een 5050 als je vanaf een 3070 komt?
Een downgrade...

https://www.techpowerup.com/review/gigabyte-geforce-rtx-5050-gaming-oc/33.html

Deze kaart kreeg van een aantal reviewers bij release al de naam "blackwell e-waste edition" mee. Het is een verbetering ten opzichte van de toen die uitkwam ook al vrij matige GPU de 3060, ook met 8GB.

Een goede 30% langzamer kaart dan de 3070. Een efficientere, maar verder verknipte 4060. 1 GB extra VRAM is voor games niet de moeite. Wellicht dat deze kaart zo voor local AI interessanter is ofzo, in een soort van workstation opstelling? Geen idee waarom ze dit zouden doen. Wellicht zijn deze geheugen modules goedkoper?
Ik heb het vermoeden omdat de modules 'per stuk' trager zijn, ze de snellere modules voor AI kaarten willen houden waar de totale prijs voor de kaart niet zoveel uitmaakt.
Wat denk je van de geheugen bus ? Van 128 (4 modules) naar 96 bits gaat. (3 modules) die impact is groter
Om de invloed op de prestaties te bepalen kun je niet alleen naar de breedte van de geheugenbus kijken.

Er is in dit geval geen negatieve impact. De krappere geheugenbus wordt namelijk gecompenseerd door de hogere geheugensnelheid. De geheugenbandbreedte wordt nu 336 GB/s ipv 320 GB/s. Dus een kleine upgrade.
Het kan een interessante kaart zijn (voor een kleine doelgroep, weliswaar) als het genoeg heeft aan de PCIe als stroombron (max 75W), net als de 3050 eerder (72W).
Nee dit is weer een ripoff kaart je gaat van 4 naar 3 modules dus 96 bit bus ipv 128! Modden van de kaart zou dat wel weer intresant zijn want extra module op fe kaart plakken en je zou naar 12 GB kunnen gaan.
Reken minimaal een kwart trager, behalve als MFG een optie is. Maar dan nog zou ik niet te zeker zijn van een vlotte frame rate gezien je voor frame generation een goeie basissnelheid nodig hebt.
Een flinke performance downgrade. Of had je wat anders verwacht?
Van de 3070 kan je grofweg 30% meer prestaties verwachten volgens Techpowerup.
Je gaat van een behoorlijk snelle kaart naar het allergoedkoopste model. Dat wordt zelfs twee generaties later langzamer. Wel veel minder energieverbruik.
Eindelijk: hij is er! Een betaalbare videokaart met meer dan 8 GB voor vloeiende performance tegen een schappelijke prijs! [/s]
Idd! Volgens mij perfect voor fullhd gaming.
Het is inderdaad een prima budgetkaart voor 1080p. Ligt net iets onder de RTX 4060 qua prestaties. Voor de meeste games dus makkelijk boven de aanbevolen systeemeisen.

[Reactie gewijzigd door Wolfos op 6 maart 2026 09:03]

Dat is volgens mij de enige reden om 9GB geheugen te gebruiken: Meer dan 8GB maar toch 'voordelig'. De overige 'meer dan 8 GB' geheugen configuraties hebben met 12 GB ook echt serieus meer.

Anders gezegd: Hoe kan 9GB geheugen nu serieus meer zijn dan 8GB? In de regel gebruiken computers en dus ook video kaarten veelvouden en machten van 2...
De 9 GB Meer als 8 was sarcastisch bedoeld, het wat rare getal heeft te maken met geheugenchips die wat meer capaciteit hebben:3 GB i.p.v. 2 GB.
zal waarschijnlijk enkel voor hén goedkoper zijn dan gangbare binaire hoeveelheden chip/capaciteiten, anders zou zo'n marginale en onlogische upgrade nooit gebeuren.
Misschien doen ze het zelfde als wat Sinclair ook deed met de ZX Spectrum: half defecte geheugenchips gebruiken :P
Van elke kaart waar je de vram kunt verhogen is dit de minst interessante
Kun je toch weer een paar extra Skyrim texture mods installeren :+
Als je van 8GB naar 9GB gaat dan is de upgrade toch maar 1GB en niet 9GB?
de powercreep moet stoppen.

een x50 nvidea kaart is bedoeld voor office gebruik, niet gamen.

(een x60 is bedoeld voor budgetgaming, een x70 en x80 voor mid end gaming en een x90 voor high end gaming)

deze x50 kaarten horen dan ook uit te komen zonder powerconnector nodig te hebben (75W) en vaak door derde producenten ook in een passief gekoelde variant.,

130w voor een x50 kaart slaat helemaal nergens op
120W is het stroomverbruik wat een x60 hoort te hebben..

de laatste "echte" x50 kaart was de 1650.. nvidea faalt om een echte te leveren sedert toen.
-> voor gaming zijn 3050, 4050 en 5050 te zwak en zal 9 ipv 8gb ook niks uitmaken.
-> en in office pc's wil je geen extra powerkabels, en liefst passieve koeling en maakt 8 of 9 gb ook niks uit.

ipv dus dit soort streken zou nvidea beter iets aan hun powercreep doen..

toen de 1650 uitkwam, voor 150 euro in 2019 verbruikte hij 75w.

in de rest van de uitlijning had je :

de 1650 voor 150 euro

de 1660 voor 200 euro

de 2060S voor 350 euro

de 2070S voor 500 euro

de 2080S voor 700 euro

de 2080ti voor 1200 euro

de titan RTX voor 2400 euro

het begin van de "prijsopdrijving" was hier al aanwezig voor de 900 en 1000 series en elke serie hiervoor had je nog een courante

x60 voor 200 euro x70 voor 350 een x80 voor 500 een x80ti voor 700 en een titan voor 1100

-> veel mensen klaagden dan ook dat feitelijk iedereen gedwongen werd 1 stap terug te doen)

maar iig was er van powercreep nog geen sprake, die begon pas met de 3000 series.

anyhow je had dus voor 150 euro een volledig passief gekoelde kaart die ongeveer 50% van de prestaties had van een gewone budgetkaart 2060S

en 40% van de prestaties van een midrange 2070S

dat maakte het een kaart prima voor officegebruik "en als je ook wel eens een spelletje wilt doen"

ook had deze kaart 4gb vram, 66% dat van een budget 2060S, en 50% van een midrange 2070S

===

tot 2024 was deze 1650 de enige keuze voor dit doel.. en hij moest het dus ondertussen opnemen tegen 3000 serie kaarten.

-> door het nalaten een goede vervanging in de 3000 serie (powercreep) op te nemen.. ...

de 3050 in zijn originele vormen was een onzinnige kaart, teveel tdp voor een passief gekoelde/geen powerkabel office pc,

te zwak voor enig ander nut, en die was deze vervanging dus NIET.. (niet in zijn originele uitvoering, de 3050 6GB die dat wel is kwam pas in 2024 een jaar

na de release van de 4000 series)

dus most de 1650 het nu opnemen tegen een 3060 van 350 euro en een 3070 van 500 euro

-> hierdoor kreeg je nu dus nog maar 45% van de prestaties van de lowendkaart en 35% van de prestaties van de midendkaart

en nam je hoeveelheid vram af tot 50% van zowel 3060 als 3070.

======

toen kwam de 4000 series uit.. voor een jaar zonder vervanging voor de 1650..

-> dat jaar zou ik eigenlijk ook nog moeten meewegen.. maar ik skip even daaroverheen.

de 3050 6gb kwam uit in 2024 een jaar na de launch van de 4000 series, voor dezelfde 200 euro die de 1660 was geweest.

-> een toename van 50% in vram en een boost van 40% in snelheid... voor hetzelfde wattage...

wat iets herstelde we hem tegenover de kaarten zetten waar hij het mee moest opnemen

4060 en 4070S

-> vergeleken met de 4060 had hij 50% van de prestaties, en weer steeds maar 66% van de vram.. -> een herstel naar hoe de 1650 was at launch.

-> vergeleken met de 4070S had hij echter maar 35% van de prestaties en 50% van het vram -> dus geen volledig herstel

en natuurlijk na die 3050 6gb.. is er wederom niks uitgekomen..

de 5050 net als de originele 3050 en de afwezige 4050 (die werd feitelijk uitgegeven als 3050 6gb).. is een zinloos product.

te groot voor servet, te klein voor tafellaken

een 5050 met 6gb vram zou nog steeds 66% van de 5060 en 50% van de 5070 hebben.
-
maar hij zou dus ook 75W maximaal mogen hebben -> een vergelijkbare sprong opmlaag als de originele 3050 en de 6gb versie 2 jaar later.
-en daarbij ongeveer 80% van de prestaties van een huidige 5050 moeten behouden (+ de gain die de 6060 over de 5060 zal hebben)

dus een 5050 met maar 2 van deze 3 gb chips, (voor 6gb totaal)
en met een tdp van 75W (-45% stroomverbruik) en ondanks dat niet meer dan -20% de prestaties
heeft een stuk meer logica.. dan de huidige uitvoering of dit 9gb model.

[Reactie gewijzigd door DutchGamer1982 op 5 maart 2026 21:28]

Een 5050 is wel overkill voor officewerk hoor. Dan neem je toch een igpu? Een 5050 is nu een prima kaartje voor wat light gaming.
-> bij de aanschaf van office computers wegen allerlei doeleindes mee.
**ik versta onder office niet enkel tekstverwerken, maar alle kantoorbezigheden, inclusief lichte grafische taken.

ook is in een bedrijfsstuctuur een xeon of treadripper cpu een stuk meer gangbaar, die dus vaak geintegreerde grafics missen (of als ze ze hebben, fors zwakker zijn dan de gangbare apu's)

ook koopt men vaak 1 systeem voor alle werknemers, waar dan voor enkelen als optie die gpu word bijgestoken.
-> dergelijke bulk systemen hebben zelfden een voeding met powerkabel.. maar hebben wel een pcie slot waar een kaart ingestoken kan worden.
**
bijvoorbeeld als upgrade voor die gebruikers voor wie de integrated gpu net niet genoeg is.

ik weet dat bvb voor fotoshop integrated gpu's vaak onvoldoende zijn.
maar een courante x50 gpu dan weer voldoende..

een x50 is nooit gaming bedoeld.. en hoort dus ook 75w te zijn..
ja je KUNT er een spelletje op spelen (66% van een 5060.. aka de budgetkaart betekend dat spellen van een jaar of 2 terug op 1080p en 40fps ws nog wel gaan.. -> wat voor elke serieuze gamer onspeelbaar is..
maar voor de officegebruiker die soms ook een potje zuma speelt ofzo.. prima.
***
maar het is dus geen "gaminggpu" maar een "primair officegebruik, met optioneel soms een spelletje"
elke gamer skipt de x50 en spaart door voor wat beters.

waar een x60 in zijn core "budget gaming gpu" is.

750 in 2014 (tijdens de 700 series launch)
950 in 2015 (tijdens de 900 series launch)
1050 in 2016 (tijdens de 1000 series launch)
1650 in 2019 (tijdens de 2000 series launch)
3050 in 2024 (pas een jaar na de 4000 series launch)

dus tot en met de 2000 serie kwam elke serie uit met onderaan een x50 kaart die alleen vanuit het pcie slot stroom kreeg en vaak ook als passief gekoelde versie uitkwam.
en kwa prestaties was hij altijd ongeveer 50% dat van de x60 en 35% van de x70 van dezelfde generatie.
dit mist nu in de huidige productielijn.

de 4000 series kreeg deze pas een jaar te laat..
en de 5000 series mist deze kaart vooralsnog.

waar de huidige 5050 met 70% de prestaties van een 5060 maar 130w.. een vreemd ding zonder bestaansrecht is. te zwak voor gaming, teveel stroom voor officegebruik.
->
dan nu daarnaast een 9gb variant uitbrengen met diezelfde 130w is even onzinnig het blijft een product zonder bestaansrecht.
->
maar hadden ze deze stap naar 3gb chips aangegrepen om hem niet 3 maar 2 van deze chips te geven.. en hem te verlagen naar 75w van 130w.. zonder al teveel in te boeken in prestaties, dan zou het een prima opvolger van de 3050 6gb zijn geweest.
een x50 is nooit gaming bedoeld.. en hoort dus ook 75w te zijn..
Dat is onzin, de hele Geforce-lijn is altijd primair op thuisgebruik en gaming gericht. Voor professioneel gebruik bestaan quadro's. Dat voor kantoorgebruik een geforce prima volstaat doet daar niets aan af.

Het segment van de lichte GPU's is gewoon overgenomen door IGPU's. Ja, daar zit een gat tussen, in de guidige markt kan een losse mini-videokaart tussen IGP's en de gaming-kaarten gewoon niet meer uit. Als je in die niche zit (en dat is het), jammer maar helaas.

Ooit kon je een HD4650 krijgen voor 50 euro. Daar kon je nog leuk op budget-gamen ook, maaf toen kon je op een IGP ook nog nauwelijks 1080p-video afspelen. Dat was toen nieuwe productieprocedé's nog simpel waren en er geen datacenters vol AI-meuk werden gebouwd, die tijden zijn voorbij.

[Reactie gewijzigd door bwerg op 6 maart 2026 08:27]

ook is in een bedrijfsstuctuur een xeon of treadripper cpu een stuk meer gangbaar
In servers, zeker, maar ik ben in het bedrijfsleven nog nooit persoonlijke laptops of desktops tegengekomen met dat soort hardware er in.

Dat zijn juist vaak de apparaten met integrated graphics. Prima voor kantoor werkzaamheden en lichte grafische workloads.
de powercreep moet stoppen.

een x50 nvidea kaart is bedoeld voor office gebruik, niet gamen.

(een x60 is bedoeld voor budgetgaming,

5050 is toch sneller dan de 3060 Dus daar gaat je aanames

4070 super zit op 3090 prestatie tja
Je doet veel aannames 5060TI/16GB is prima kaart voor AI. Als je minder geheugen nodig hebt koop je een Jetson Orin Nano Super Development Kit met 8GB (7W - 25W).
dit artikel gaat over de 5050..
over de 5060ti heb ik niks over gezegd..

ik noemde de 5050 als een vreemde kaart.
de x50 in de nvidea lineup is historisch de "officekaart"
passief gekoeld, en 75w of minder (zodat geen powerkabel nodig is)
met betere prestaties dan de integrated grafics op een cpu, maar uiteraard geen gaming cpu.
vaak gekocht als je een cpu hebt zonder integrated grafics, of als kleine upgrade voor prebuild office pc's waar alleen 75w gpus inpassen om ze voor taken als fotoshop geschikt te maken.

wie budget wil gamen gaat voor een x60 kaart.. (dus een 5060) minimaal. en een x70 kaar is midrange gaming (en het ijkpunt van elke generaties gpu's)

een 3050 en nu 5050 met een tdp die te hoog is om alleen door het pci slot van stroom voorzien te worden, hebben mijnsinziens geen bestaandsrecht en zijn een vreemde eend in de lineup.

het verhogen van de bandbreedte van de 5050 en vergroten van 8 naar 9gb vram maakt hem nog steeds niet sterk genoeg om als budgetkaart voor gaming gezien te worden (dat blijft de 5060)
->
voor ai kies je zoals je zelf aangeeft een kaart met meer vram, en zal 9ipv 8 echt het verschil niet uitmaken.
->
en voor officegebruik waar de x50 voor bedoeld is heb je niks aan die 1gb extra vram en is de tdp het grote gebrek.

als de 5050 dus verlaagd word naar 6gb vram (wat door de overstap naar 3gb chips mogelijk is)
ipv verhoogd naar 9gb... (wat ws ook dat undervolten makkelijker maakt).. en van 130w teruggebracht word naar 70-75w.. terwijl men niet meer dan 20% op prestaties inboekt..
dan zou het veel meer in lijn zijn met waar een x50 voor bedoeld is.
->
een een veel betere aanvulling van het aanbod dan feitelijk "dezelfde 5050 maar dan met +1gb"
een x60 is bedoeld voor budgetgaming
daar reageerde ik op.

In de budget game pc van Tweakers zit een AMD met een upgrade naar de 5060TI/16GB.
De kale 5060 is nooit daarvoor geadviseerd.

Dus ging ik er van uit dat de de 5060TI/16GB bedoelde. De 5060TI/8GB variant werd afgeraden, dus zeker ook de lagere kaarten.

[Reactie gewijzigd door djwice op 5 maart 2026 23:01]

ah dan snap ik je.
nee ik bedoelde niet de 5060ti.. voor budgetgaming is nog steeds de 5060 bedoeld.

natuurlijk ben ik het eens datl de 8gb daarop idd een probleem is en ik die om die reden ook niet zou aanraden..met een prijs van 450 euro voor een 5060ti 16gb kan ik die niet meer "budget" noemen, de 300 euro van een 5060 nog wel.
en er zijn zeker nog spellen waar 8gb nog werkt, ja het is schipperen, maar dat is budgetgaming altijd geweest. en de prestaties van een 5060 liggen nog wel zo dat je 1080p op 60fps kunt spelen, die van de 5050 liggen daar duidelijk ver onder... (aka geen gaming gpu meer)

de 5060ti is natuurlijk samen met de 9060xt de betere keuze, maar beiden zitten kwa prijs (en prestaties) ergens tussen budgetgaming and midendgaming in.
-> en het is normaal dat "x70/midendsysteem" de beste bang voor buck geeft.. dus dat je meer value voor money krijgt met een kaart tussen de x60 en x70 in is ook compleet zinnig.

-> dat de x70 maar 12gb kreeg is dan weer dikke oplichting natuurlijk het was logischer geweest als de 60ti 12gb had gekregen en de 70 die 16gb..
=============
overigens nooit een fan geweest van ti modellen wat geen 90ti/80ti aka het topmodel is. ik hou van een "schonere" productlijn.. ook al die super modellen daarbovenop maken het er niet beter op..
ik kan niet zeggen dat het historisch nooit eerder gebeurde.. maar geef mij maar een gewone heldere opbouw van

x50, x60, x70, x80, x80ti, titan
zonder verschillende (geheugen) uitvoeringen van deze modellen en zonder dat de laptopvariant een compleet andere chip gebruikt.

maargoed daarmee dwaal ik af.. punt was gewoon.. de 5050 in zijn huidige vorm is een vreemde kaart, die niet de rol vervult die een x50 historisch vervult.
Ik denk dat ze met een laag risico willen testen hoe minder chips maar net iets meer geheugen en een lagere prijs het in de markt doet.

Als dit de verkoop niet negatief beïnvloed:
4*2 (8 ) => 3*3 (9)
6*2 (12) => 4*3 (12) of 5*3 (15)
8*2 (16) => 6*3 (18) of 7*3 (21)
12*2 (24) => 8*3 (24) of 9*3 (27) .. of 11*3 (33)
16*2 (32) => 11*3 (33) .. of 15*3 (45)

Dus óf een chip minder óf gelijke hoeveelheid of eerste hoeveelheid net meer dan voorheen.

Het is maar net hoe ze de kaarten willen positioneren.

Initieel zou afgelopen kerst of voor Chinees nieuwjaar de 48GB variant van de 5090 en de 24GB versie van een x70 komen, dat is niet gebeurd i.v.m. prijzen.

Als de Samsung fabriek 3 maanden operationeel is en de productie op gang is en de kwaliteit wel nog fouten kent kunnen de geheugenprijzen normaliseren.
Maar er speelt ook een ander strategisch belang: beperken geheugen tegen standaard prijs voor (nieuwe) concurrenten in data center markt. Als concurrent kun je niet boven nvidia gaan zitten, maar heb je door lagere volumes wel hogere kosten per eenheid. De huidige geheugen prijs kan dan net te lastig zijn.

[Reactie gewijzigd door djwice op 6 maart 2026 06:53]

dat klopt, maar zijn normaliter niet grotere chips duurder in productie dan kleinere per GB.
-het lijkt mij dat een 3gb chip meer dan 150% de prijs van een 2gb chip is.

en idd het ligt eraan hoe ze ze willen positioneren.
en daarover : een 5050 met 70w en iets lagere prestaties en 6gb vram en zonder powerconnector nodig.
lijkt me zinniger dan
dan een 9gb uitvoering van feitelijk dezelfde odd kaart die te groot voor servet te klein voor tafellaken is
Volgens mijn passen ze op het zelfde oppervlak op de wafel, dus per chip waarschijnlijk ongeveer even duur.

Een GB10 met 6192 Blackwell cores, 20 Cortex-78AE cores en 128GB geheugen gebruikt maar 140W dus die 5050 met 2560 Blackwell codes en 9GB geheugen kan vast ook wel minder dan 70W gebruiken.

[Reactie gewijzigd door djwice op 6 maart 2026 16:16]

Je projecteert je eigen mening alsof het feit is. Dat is het niet.

De harde realiteit is dat zo'n 80% van de mensen die spellen speelt op de PC genoeg heeft aan de ##50 series. De 5050 is daar de doorontwikkeling van. Voor 95% van de 1080p spelers is deze kaart meer dan voldoende.

Blijkbaar deelt nVidia je mening niet en uiteindelijk zijn zij degenen die bepalen en niet jij.
Ik ben wel akkoord dat een verplichte power cable nergens op slaat.

Elke kaart zou moeten werken zonder extra power cable ingeplugd en ook indien die gedeeltelijk zijn ingeplugd, bvb 1/2.

De hardware moet dan zelf simpelweg het power budget vastzetten volgens wat beschikbaar is. Natuurlijk krijg je dan mindere prestaties maar de gpu is dan wel flexibel in te zetten over meerdere systemen. Je kan dan bvb ook een oude 1080ti als office kaart inzetten ipv iets nieuw te moeten aanschaffen
gpu's die zelf automatisch de prestatiecurve aanpassen op basis van de aangeboden hoeveelheid stroom en zelfs werken als ze geen/niet alle/verkeerde powerconnectors krijgen?
-> wellicht zelfs vanuit de bios in kunnen stellen hoeveel watt je aan je gpu wilt geven?
->dat zou een heel interresante optie zijn, die idd ewaste zou kunnen voorkomen.

voor nu zou een 5050 met 70w al een aanvulling zijn op de lineup
Los van dat je helemaal gelijk hebt :+ . Userbenchmark is echt troep, en wordt door niemand echt serieus genomen. Als je op een makkelijke manier gpu's wilt vergelijken dan kan je bijvoorbeeld TechPowerUp gebruiken:

https://www.techpowerup.com/gpu-specs/geforce-rtx-5050.c4220
Precies, naast dat Userbenchmark niet accuraat is, is het ook enorm biased naar Intel & Nvidia toe en plaatsen ze complete rants tegen AMD. Zelf kijk ik ook vaak bij TechPowerUp en technical.city voor vergelijkingen.

[Reactie gewijzigd door MineTurtle op 5 maart 2026 17:24]

Een bias op zichzelf hoeft toch geen probleem te zijn als gaat om het vergelijken van 2 GPU's van dezelfde leverancier? De bias is m.i. alleen relevant als je dingen van verschillende leveranciers gaat vergelijken, wat niet de vraag was.
Het verschil is dat TechPowerUp (en andere echte review sites) op een goede en gecontroleerde manier test en dus de test resultaten onderling te vergelijken zijn. Dat hebt je niet bij userbenchmark (de titel zegt het al).

Kijk het kan natuurlijk altijd beter, de gouden standaard van benchmarken is op dit moment GamersNexus voor gpu/cpu.
Dit hoeft geen bias alleen te zijn. Intel en nvidia lobbien. En voor hun is grote invloed op benchtools juist cruciaal om markt te sturen.

Zo gaat het met health wetenschap. Die grotendeels gesponsord worden door belanghebbende industrieën.Waar directe flinke niet relatieve maar absolute correlatie naar explosie van welvaarts ziekten .
Tja, winst is winst denk ik dan maar. Het zet bepaald geen zoden aan de dijk, 1GB RAM erbij, 5% meer geheugen bandbreedte. Tegelijkertijd, mits de prijs hetzelfde is, is dit nog steeds netjes.
Slimme zet: minder chips dus lagere prijs en toch een "upgrade" van de eerdere versie.

Om te kunnen reageren moet je ingelogd zijn