Intel Clearwater Forest-cpu's krijgen tot 288 cores per stuk

Intel heeft meer details over zijn aanstaande Clearwater Forest-cpu's gedeeld. De serverprocessors worden geproduceerd op Intels 18A-procedé en krijgen maximaal 288 cpu-cores. De chips moeten volgend jaar verschijnen.

Intel deelde zijn presentatie over Clearwater Forest tijdens de Hot Chips-conferentie in Californië, schrijft Wccftech. Het betreft een serie Xeon-cpu's die enkel is voorzien van op efficiëntie gerichte E-cores en vooral gericht is op servers en datacenters. De aanstaande processors beschikken over maximaal 288 van die cores, dubbel zoveel als de huidige Sierra Forest-cpu's van het bedrijf.

Die cores worden gebaseerd op een nieuwe architectuur, genaamd Darkmont. Volgens het bedrijf krijgen deze cores een betere front-end, die zich aan het begin van de cpu-pipeline bevindt. Ook de out-of-order-engine, waarmee de cpu instructies kan uitvoeren in een andere volgorde dan door de software gevraagd, is verbeterd en kan meer taken tegelijkertijd uitvoeren.

De cpu-cores krijgen verder een gedeelde pool van 4MB L2-cache per vier cores. Die cache heeft een bandbreedte van 400GB/s, dubbel zoveel als in Sierra Forest. Al met al claimt Intel dat de cpu-cores een ipc-verbetering van 17 procent met zich meebrengen ten opzichte van de voorgaande E-core-architectuur.

Compute-chiplets en Intel 18A

Verder stapt Intel voor de Clearwater Forest-cpu's over op een groot aantal kleine chiplets. De processors kunnen worden voorzien van maximaal twaalf compute-tiles, die ieder tot 24 E-cores bevatten. Deze chiplets worden daarnaast geproduceerd op Intel 18A, een procedé in de '1,8nm'-klasse. Dat zorgt volgens de chipmaker onder andere voor betere prestaties en een hogere efficiëntie.

Intel deelde de afgelopen jaren al meer details over het 18A-procedé, dat later dit jaar in massaproductie moet gaan. De fabrikant stapt daarmee af van de bekende finfets en gaat in plaats daarvan gebruikmaken van gate-all-around-transistors. Die bieden meer contactoppervlak met de gate en voorkomen dat stroom weglekt bij een kleinere transistoromvang. De fabrikant voorziet 18A-chips ook optioneel van backside power delivery, dat moet zorgen voor een betere en efficiëntere stroomvoorziening.

Basedies en meerdere cpu's per moederbord

De cpu-chiplets worden boven op drie base chiplets gestapeld, die op hun beurt worden geproduceerd op Intel 3, een 3nm-procedé. Deze zijn onder andere voorzien van 576MB last-line-cache en de DDR5-8000-geheugencontrollers. Aan de uiteinden van de Clearwater Forest-cpu's zitten twee I/O-chiplets die worden gemaakt op Intel 7 en I/O-standaarden ondersteunen, zoals PCIe.

Iedere cpu ondersteunt twaalf DDR5-8000-kanalen. Er kunnen twee van die processors op een moederbord geplaatst worden, waarmee het platform in theorie tot 3TB aan ram ondersteunt met bandbreedtes van 1,3TB/s. Ieder moederbord kan daarmee ook tot 576 E-cores en 1152MB aan llc bevatten. De cpu's verschijnen in 2026, hoewel de exacte releasedatum nog niet bekend is.

Door Daan van Monsjou

Nieuwsredacteur

25-08-2025 • 20:29

80

Lees meer

Reacties (80)

Sorteer op:

Weergave:

Dus alleen maar e-cores en geen p-cores. Vraag me af of je dan niet beter voor arm kan gaan

[Reactie gewijzigd door Artiblade op 25 augustus 2025 20:50]

In veel servers (bijv webservers of gedeelde servers met virtualisatie) heb je geen P-cores nodig maar wel de mogelijkheid om duizenden processen over de cores te verspreiden in parallel om zoveel mogelijk taken tegelijk uit te voeren zodat je klanten instant kan bedienen.

Het andere extreem is 1 super core die 500x sneller is dan alle 500 e-cores maar dan heb je bij veel processen veel meer latency omdat in de rij komt te staan terwijl de vele e-cores elke request simultaan kunnen afhandelen.

ARM is niet slecht maar je hebt wel een specifieke use case nodig. En veel kleine berekeningen en ARM specifieke code zonder emulatie. Dat bestaat zeker, maar het gebrek een P-cores is geen reden om naar ARM over te schakelen. Er zijn nog wel wat overwegingen.

Als je niet kan schalen over uw cores wil je idd 1 super p-core of toch zo weinig mogelijk cores. Maar in servers is die nood er minder. De grote massa wil gewoon meer tegelijk doen.

[Reactie gewijzigd door Coolstart op 25 augustus 2025 22:28]

Het andere extreem is 1 super core die 500x sneller is dan alle 500 e-cores maar dan heb je bij veel processen veel meer latency omdat in de rij komt te staan terwijl de vele e-cores elke request simultaan kunnen afhandelen.
Theoretisch voorbeeld, maar een fout voorbeeld. De latency met de super core is gemiddeld zelfs maar de helft..
Is idd heel theoretisch en niet mogelijk.

Het klopt wel moest die theoretische een super P-core bestaan van 500Ghz dan heb je een absoluut voordeel maar als 1 proces 1000 mili-seconden duurt op die super core moet iedereen 1 seconden wachten tot zijn request wordt afgehandeld want er is geen andere core beschikbaar.

Voor lage latency van veel kleine cloud-processen is het voordeliger dat 1000 requests instant te bedienen en dat die lange request gewoon wat langer duurt.

Niemand wacht graag lang op een page load , maar een complexe berekening met een laadbalk mag gerust een paar seconden langer duren.

In de praktijk leveren veel cloud services heel veel milliseconden outputs.
maar als 1 proces 1000 mili-seconden duurt op die super core
Duurt het dan 500s op een e-core? ;)
moet iedereen 1 seconden wachten tot zijn request wordt afgehandeld want er is geen andere core beschikbaar.
Pre-emptive multitasking is nog steeds mogelijk op een enkele core.
Als je 500 requests doet bedienen op 500 cores die elk 500x langzamer zijn dan 1 dikke dan gemiddeld genomen zullen requests eerder klaar zijn op de dikke dan op de vele kleine. Allemaal leuk en aardig maar lang durende requests vertragen geen andere requests als alles async en/of multithreaded is en voor de server om te weten of iets lang duurt voordat het de request gaat afhandelen maakt dingen alleen maar lastiger zonder echte voordelen. Tegenwoordig is alles zo async als wat en draait alle code in flarden door elkaar op een enkele thread, bovenstaande situatie (dat andere wachten doordat er een lange request loopt) zal in real life niet voorkomen of het is gemaakt door iemand die geen idee had en dan is de cpu zelden het probleem.
Ik ben geen expert, ,maar volgens mij kunnen alle cores sowieso niet maximaal belast worden voor langere tijd. Thermal design is de bottleneck. Efficiëntere cores betekend dan meer rekenkracht bij taken die de CPU continue belasten.
Ik ben geen expert, ,maar volgens mij kunnen alle cores sowieso niet maximaal belast worden voor langere tijd. Thermal design is de bottleneck. Efficiëntere cores betekend dan meer rekenkracht bij taken die de CPU continue belasten.
Server hardware kan meestal wel op peak lopen zonder dat soort problemen. Als je je hardware maximaal kan inzetten is dat het goedkoopste. Zie coin mining...
Ligt er aan wat je onder max belasten verstaat. Maximale boost clocks inderdaad niet. Maar 100% utilization wel met lagere boost clocks. Dat is nu bij desktop cpu's niets anders 1-2 cores ten Mac boost halen als je er meer belast dalen de clocks iets. Bij server cpu's is dat niet anders. Sommige server cpu's hebben ook veel lagere Max boost clocks om zo efficiënt mogelijk te zijn. Andere juist extra hoge voor maximale prestaties.
Daar voor ecores en architectuur die weinig verspilt aan hoge klok architectuur design. En is dus zuinig en voor server taken waar all core klok belangrijker is en dat voor on bepaalde tijd kan hand haven.
Wat dat betreft zit intel ecores en zen dense dichter bij arm. Het verschil is dat big litle bij arm allebei dense low klok is. Waar x86 wild gaat met klok tot ver voorbij sweetspot in efficiëntie curve.

Om arm tw volgen zouden ze een dense compact core dat 4,5Ghz en extra density gebruiken voor meer transistoren voor IPC te gebruiken.
Heeft er weinig direct mee te maken. E cores zijn beter voor taken die goed schalen over veel cores, P-cores beter bij taken die minder goed schalen met meer cores.
P-Cores doen volgens mij alles sneller. Alleen gebruiken meer energie dus daar loop je tegen warmte issues en extra stroomkosten aan als je ze allemaal tegelijk gebruikt.
Als je evenveel P-cores hebt als E-cores, dan is die eerste altijd sneller ja. Maar binnen een bepaald energie of financieel budget zijn E-cores beter bij multithreaded applicaties (je gaat simpelweg geen CPU kunnen kopen voorlopig met 288 P-cores).
Ik vraag mij wel af of je 288 P cores zou kunnen benutten. Lees: kan de CPU genoeg gekoeld worden als je ze allemaal benut? Waarschijnlijk niet.
Intel geeft aan dat op de plek van een P-core, 4 E-cores passen. Dus kun je vergelijken of je meer hebt aan 288 E-cores dan 72 P-cores per CPU. Beide flinke hoeveelheden trouwens.
Ik verwacht niet dat er server processoren zullen komen die zowel P en E-cores (of de AMD tegenhanger) combineren in een product omdat je workload geen consistente prestaties zal hebben, de ene keer is de workload "snel" omdat het op de P-core draait en andere moment "traag" omdat het op de E-core draait.

Bedrijven zullen kijken naar de workload die ze willen draaien en daarbij een processor selecteren die daarbij het beste aansluit, als je workload dat goed kan schalen over veel cores kan een processor met veel e-cores een betere oplossing zijn dan een snellere, maar minder p-cores processor.

ARM is interessant als je software ook een ARM versie heeft. ARM processoren kunnen x86 emuleren, maar is het dan nog efficient in vergelijking tot een x86 oplossing van AMD of Intel?
ARM is interessant als je software ook een ARM versie heeft. ARM processoren kunnen x86 emuleren, maar is het dan nog efficient in vergelijking tot een x86 oplossing van AMD of Intel?
Server software is vaker platform onafhankelijk. Denk aan de populaire programmeertalen voor server software zoals PHP, Java, .NET of Go: daarvoor zijn prima geoptimaliseerde ARM versies beschikbaar.
Dus alleen maar e-cores en geen p-cores. Vraag me af of je dan niet beter voor arm kan gaan
AMD draait de cores gewoon op lagere clock als die allemaal vol worden belast, dat is functioneel hetzelfde als Intel's e-cores.
ARM niet AMD. de kracht van ARM is namelijkt dat je heel veel efficiente cores kan hebben
OK, foutje bedankt.

Maar hetzelfde principe geldt ook voor ARM; meer cores met hoge utilization = lagere klok per core. En Intel's 288 e-cores is ook veel efficiënte cores.
Ik denk dat de techniek voor arm processors nog niet zo optimaal is dan intel hier laat zien.

Maar ik ben het met je eens arm is ook snel en met wat aanpassingen zou dat met bulk en massa productie ook moeten kunnen.


Misschien zijn ze er in het geheim wel bezig maar nog niks is de revu gepasseert dat intel daarmee bezig is.

Ik hoop van wel want ik wil wel eens graag zien wat intel doet met arm.

Tevens zijn er genoeg laptops met arm uitgerust ik wil wel eens een heus desktop systeem ermee zien.

Dan ook meteen eens de benchmarks erbij tevens wat deze processor hoe die nu gemaakt word komt dan ook met die benchemarks erbij ik ben dan eens benieuwd wat dan sneller is.

Een windows versie voor arm hebben ze nu dus ook al dus daar kan het niet aan liggen.


dus de quote voor intel luid dus arm please en misschien zijn ze er al mee bezig.!
De 1e vraag van iedereen zal zijn: Kunnen ze op tegen AMD's equivalent qua performance, thermal dissipation, en prijs?
Er is geen AMD equivalent (bekendgemaakt)
AMD heeft de Epyc processor met max 192 Zen5c cores, de Zen5c is de AMD variant van de Intel e-core.
Niet helemaal Zen5c heeft multithreading. E-cores niet. (huidige generatie P-cores kennelijk ook niet.)

Dus de 192 core heeft een 384 threads.

De Epyc die Intel moet verslaan met deze 288 core (thread) is de Epyc 9825 met 144 cores - 288 threads.
Zo werkt dat nou ook weer niet... Multithreading betekent niet dat elke core die dat ondersteunt ook altijd twee keer het werk kan doen van een verder gelijke core die dat niet heeft. Het gaat meer om dat het efficiënter werkt. Hoeveel extra performance je er mee haalt is erg afhankelijk van je workload maar het is volgens mij nooit 100%
Volgens mij was het maximaal 30% winst. De 5c cores hebben minder cache geheugen dan hun grotere broer maar SMT kan dat performance gat deels opvangen. Daarnaast zijn ze functioneel hetzelfde als hun grote broer. De Intel e-cores zijn niet functioneel gelijk aan hun p-cores broertjes en ze missen hyper-threading waardoor je ander gedrag gaat zien. Deze nieuwe CPU heeft alleen maar e-cores, dus dan komt dat wel goed. Betekend trouwens niet dat ze ook direct zuiniger zullen zijn dan AMD's processor.
Nee, SMT is niet snel genoeg om bij een cache miss naar de andere virtuele core te switchen. Core switches gebeuren doorgaans op main memory stalls.
Volgens mij doet SMT beide threads in de pipeline houden. Bij een cache miss, wat dus eerder zal gebeuren door het gebrek aan cache, kun je met SMT nog out-of-order execution gebruiken. Dus zul je alsnog een beetje winst hebben, maar natuurlijk niet vergelijkbaar met de winst bij een volledige memory stall. Als je geen SMT zou hebben zou je dus het gebrek aan cache veel meer merken; aangezien je pipeline dan zou blijven wachten op instructies.
Wat bedoel je dan, dat AMD geen Epyc CPU heeft net 288 cores?

AMD heeft nu al een CPU met 192 cores (leverbaar)
en voor 2026 is een 256 core CPU aangekondigd.
Dat komt aardig in de buurt van 288 cores...

Dus dat zou ik de concurrent noemen...
Aangezien deze CPU's gebruikt worden door waarschijnlijk ongelimiteerde parallelle processes, zal er wel degelijk een flagschip van AMD zijn die eventueel wel of niet aan deze CPU kan tippen.
Mijn eerste vraag was of Doom er op draait... :9
288 E cores, daar kan je met VM 36 gamemachines met 8 cores op maken (kan een mooie gameserver zijn voor LAN parties). Ook al zijn het E cores, 8 ervan kunnen prima een GPU goed van data voorzien.

Intel zijn Arrow Lake E cores zaten al op het niveau van een 12900K P core, en we zijn nu weer een jaar verder.
De 'can it run Doom' meme is ontstaan obv de originele Doom, die op mijn rekenmachine uit de jaren 90 nog kon draaien. Inmiddels ook geport naar broodroosters en koelkasten bijvoorbeeld. 1 enkele hedendaagse core kan hoe dan ook best een aardig aantal instances van Doom draaien. 14.400 instances van Doom (al dan niet door meerdere chips te combineren) lijkt me wel leuk om te proberen. Mooi nummer ook voor hen die in die tijd Doom speelden over een dial-up verbinding.
maar zou je er ook 144 VM machines kunnen maken en 144x doom tegelijk laten afspelen? Of terug naar het jaar 1995 en 288x DOOM tegelijk laten afspelen?
Nou nee, mijn eerste vraag was "hoezo hebben CPUs tegenwoordig een cache die groter is dan de harde schijf van onze eerste familie-pc die ik me kan herinneren?". (Met als tweede vraag: ze zeggen "last level", niet "L3"; zou dit ding een L4 toevoegen? Het moet er ooit van gaan komen, toch?)
Ik denk dat je MB / GB / TB door elkaar haalt, ik ga er vanuit dat niemand meer een 1GB harde schijf heeft :D
Nee, maar de "eerste familie-pc" van @robvanwijk dus wel.
En ja, tegenwoordig sturen we mailbijlages die groter zijn dan mijn allereerste harde schijf....
ik ben idd zelf scheel
Mijn eerste PC had een harde schijf van maar liefst 210 MB. Ja, mega, niet giga. En 4 hele MB's aan geheugen. Géén geluidskaart, géén CD-ROM en een voor die tijd best deftige 486DX50.
Kom ik aan met een 8086 die over een duizelingwekkende 20MB hdd beschikte. In die tijd uberhaupt een unicum dat home-pc's een hdd hadden overigens, externe data ging nog over de grote floppy drives zo oud is dat ding.
Daar heb ik ook nog eens mee gewerkt, ja. MS-DOS 4.0 inladen vanaf 5.25 floppy en dan je programma in de tweede floppydrive (ja, sjiek model) in die hele 512 KB RAM die erin zat. Met niet eens een greyscale scherm, maar bruintinten en dan Police Quest spelen.
Gezien AMD hun planning relatief weinig van afgeweken wordt. En bij intel het vaker flinke uitstel en is het dus niet bekend tegen welke gen het uit gaat komen.
ik denk dat intel nog altijd sneller is maar de prijs die amd hanteerd kunnen ze niet tegen op.
Die naam lijkt wel een slechte grap als je bedenkt dat ze zich hiermee op het gebruik voor datacenters richten.
Gaat een leuke worden voor licenties die op basis van cores worden afgerekend :X
Server 2025 DC editie = $6771 per core

288*2 processors * 6771 per core = 3.900.096 euro aan licenties.

Maar je zult vast wat korting krijgen als je 100 van die servers hebt staan.

[Reactie gewijzigd door Scriptkid op 25 augustus 2025 23:29]

Wat een prijzen, als je als bedrijf wil groeien en meerdere server nodig zal hebben, waarom zou je dan ooit voor microsoft kiezen t.o.v. linux.............
dat komt omdat je per core licensed en je dan ook meteen met data center alle vm`s licensed zijn ,

Je kunt hier dus makkelijk 400-1000 windows servers op draaien.
Je gebruikt de 16 core licentie kosten volgens mij, die zijn 6771 euro.
18A, dacht ff dat die CPU 18 ampère zou consumeren. Met 288 cores wellicht haalbaar. Echter qua warmte productie natuurlijk een kronkel gedachte. ;)
18 ångstrøm, ofwel 1.8 nanometer. Vandaar de A, wat eigenlijk een Å zou moeten zijn, maar dat zit niet op het US International toetsenbord, dus ja......
Gewoon alt+w :)

[Reactie gewijzigd door Source90 op 26 augustus 2025 00:26]

Maar alleen de rechtse Alt toets (Alt Gr). En da's de kleine letter dus dan moet je SHIFT-ALTGR-W hebben O-)
Ach, Amerikanen hebben al moeite met het euro symbool dat gewoon boven de 5 staat, dus een alt key combo is wel super lastig
Ampere op zichzelf zegt niks over stroomverbruik of warmte productie.

18 amp op 1volt (DC) kom je uit op 18 watt.
18 amp op 240v (AC) zit je op 4320 watt.
juist wel, 18ampere is 18 ampere, en dus het stroom verbruik, dat iedereen het verkeerd gebruikt maakt het nog niet juist
watt is vermogen
Nee, 18A is de stroomsterkte. Verbruik wordt weergegeven in Wh. Bij verbruik hoort altijd een tijdsfactor
Wh is niet het stroom verbruik, dat is het totale verbruik
Ik zeg ook helemaal niet dat Wh het stroomverbruik is. Stroom verbruik je niet. Stroom vloeit er. De grootheid Ampere is een maatgevend voor de hoeveelheid stroom (electronen per seconde) die er door de leiding vloeit.

Maar dit is geen stroomverbruik, want in een wisselspanning kring gaan die electronen 50 x per seconde heen en weer, en in een gelijkspanning kring gaan die van de negatieve pool naar de positieve pool. Ze worden echter niet verbruikt.

Wat je verbruikt is energie. Of liever gezegd, wat je omzet is energie. In warmte vooral bij een CPU. En dat geeft je weer in Wh.

[Reactie gewijzigd door DaRealRenzel op 28 augustus 2025 00:46]

Met 288 cores wellicht haalbaar.
330 W bij 1,15 V is ongeveer 288 A...
E-cores is dan wellicht ook niet multithreaded, want da’s alleen met de P-cores het geval. Dan is een 96 core van deze generatie equivalent aan een 48 core van de vorige generatie…
Je bedoeld natuurlijk hyperthreading. Multi thread ondersteuning is er natuurlijk sowieso, want als je meer dan 1 core hebt is dat al het geval. Bovendien is multi threading ook meer een software begrip; software die gebruik maakt van meer dan 1 thread (wat veel software is, je hebt vaak iig een thread voor het tekenen van de GUI en nog een thread voor andere logica). Dat kan je overigens ook draaien op een enkele core zonder SMT/Hyperthreading, het OS regelt dan hoe de threads draaien op de daadwerkelijke hardware dmv scheduling.

[Reactie gewijzigd door jozuf op 25 augustus 2025 21:18]

Eh, nee. Hyperthreading is het merk van Intel voor deze techniek (hoewel het in dit geval op zich dus ook gebruikt zou kunnen worden want het is een Intel cpu). Multithreading is de algemene term. SMT staat ook voor Simultaneous MultiThreading, een specifieke implementatie er van.

Maar hoe je het ook noemt, het is geen 100% performance gain dus zeggen dat een 48 core met multithreading gelijk is aan een 96 core zonder is best wel onzin. Het zou alsnog in de buurt kunnen komen als die individuele cores ook nog eens zwakker zijn, maar als ze verder gelijk zijn dan maakt multithreading van 1 core echt geen 2.
ookal ben ik t eens met je 2e punt, gebruikte de vorige gen ook al enkel E-cores. Dus die vlieger gaat in deze helemaal niet op.
SMT is Symmetric Multi Threading...
Ik denk dat je het door elkaar gooit met symmetric multi processing, maar dat slaat op meerdere CPU's.

https://docs.openstack.or...mpute-cpu-topologies.html
Maar hoe je het ook noemt, het is geen 100% performance gain dus zeggen dat een 48 core met multithreading gelijk is aan een 96 core zonder is best wel onzin.
Dat is zacht uitgedrukt. Hyperthreading is een 'truc' van Intel om het switchen tussen taken op een processor te versnellen. Die wordt geholpen door 2 virtuele CPUs aan het OS te tonen (er zijn nl 2 register sets beschikbaar waartussen snel geswitched kan worden).
In de praktijk werkt het alleen als er heel veel tussen taken gewisseld moet worden. Voor pure single-threaded workloads maakt het geen bal uit of is hyperthreading zelfs langzamer...
Voor pure single-threaded workloads is een 288 core CPU geen beste keuze. Dit soort CPUs is niet voor gaming of andere desktop taken; meerdere threads zijn een gegeven.

De tradeoff voor hyperthreading moet je elke keer weer overwegen. Meer simpele cores of minder HT cores? Met tiles is blijkbaar meer simpele cores de betere optie.
Een Core die 2 threads tegelijk kan doen heet;

SMT bij AMD (SymmetricMultiThreading)

HyperThreading bij Intel

Multithreading is het op meerdere threads draaien van een enkel programma dat gemaakt is om parallel dingen te kunnen doen. Soms een paar threads die iets specifieks doen en soms heel veel threads die een opgesplitst probleem tegelijk in delen oplossen.
De aanstaande processors beschikken over maximaal 288 van die cores, dubbel zoveel als de huidige Sierra Forest-cpu's van het bedrijf.
Sierra Forest is the codename for sixth generation Xeon Scalable server processors designed by Intel, launched in June 2024. It is the first generation of Xeon processors to exclusively feature density-optimized E-cores. Sierra Forest processors are targeted towards cloud server customers with up to 288 Crestmont E-cores.
Wikipedia: Sierra Forest
Geen idee wat dit met deze comment te maken heeft ?
Ik wist niet dat ze daar in hun huidige generatie ook al mee gestopt waren.

Punt blijft wel: E-cores doen geen hyperthreading. Met P-cores kon je bij virtualisatie wel zeggen “1 fysieke core = 2 threads = 2vCPU”.

Dan kijk ik specifiek naar zaken als Windows Server licensering waarbij je de fysieke cores moet licenseren, maar dus niet de threads.

Deze hele ontwikkeling in de productlijn van Intel betekent dus dat ik vooral naar AMD kijk voor een volgende generatie servers.
Waar zegt de man boven u dat dit niet exclusive is? Reageert u op de verkeerde ofzo?
Dan is een 96 core van deze generatie equivalent aan een 48 core van de vorige generatie…
Je comment staat stond op 0 omdat veel lezers niet direct zien wat je bedoelt. Als je er 1 zin aan toe had gevoegd, nml de 1e zin uit het bericht waar ik nu op reageer, stond hij ongetwijfeld hoger

[Reactie gewijzigd door P_Tingen op 26 augustus 2025 08:31]

Dat staat r dus ook letterlijk, als je de quote zou lezen .....

Op dit item kan niet meer gereageerd worden.