Gerucht: Intel komt volgend jaar met vier concurrenten voor AMD's X3D-cpu's

Intel komt mogelijk met vier verschillende Nova Lake-cpu's met 'bLLC', zijn antwoord op AMD's 3D V-Cache-techniek. Het topmodel zou beschikken over 52 cpu-cores en tot 288MB aan extra cache. Intel bevestigde eerder al dat de Nova Lake-desktopprocessors eind 2026 verschijnen.

Leaker @Haze2K1 bevestigt dat Intel aan vier Nova Lake-sku's met bLLC werkt. Het gaat vermoedelijk om twee Core Ultra 7- en twee Core Ultra 9-modellen, zo speculeert ook VideoCardz. De twee topmodellen beschikken dan over 42 of 52 cpu-cores en zouden 288MB aan bLLC-cache krijgen, verdeeld over twee chiplets. De Core Ultra 7-varianten krijgen 24 en 28 cores met 144MB bLLC, aldus de techwebsite.

Er gaan al langer geruchten rond over Intels Nova Lake-processors en de introductie van bLLC-varianten. BLLC staat voor 'Big Last Line Cache'. Het betekent dat de processors extra cache geïntegreerd krijgen, wat vooral in games kan zorgen voor fors hogere prestaties. Eerdere geruchten stellen dat Intels bLLC-chiplets ieder goed zijn voor 144MB aan extra cache. Topmodellen zouden er twee krijgen, voor een totaal van 288MB.

Daarmee zou Intel voor het eerst een antwoord hebben op AMD's X3D-processors, die al drie generaties beschikbaar zijn. Deze X3D-cpu's beschikken over 3D V-Cache-chiplets met 64MB extra L3-cache. Dat zorgt voor aanzienlijk betere prestaties in games: AMD's X3D-cpu's zijn al jarenlang de best presterende processors op gaminggebied.

Intel bevestigde eerder al dat zijn Nova Lake-desktopprocessors eind 2026 beschikbaar komen. Ze zullen gebruikmaken van een nieuwe architectuur en krijgen ook een nieuwe socket mee: LGA1954. Volgens uitgelekte documentatie verwacht Intel dat de multithreadedprestaties tot 60 procent hoger liggen dan bij de huidige Arrow Lake-cpu's van het bedrijf.

Vermeende Intel Nova Lake-processors met bLLC
Processorserie Cpu-chiplets Cores bLLC
Core Ultra 9(?) 2x 52 (16P + 32E + 4LPE) 2x 144MB
Core Ultra 9(?) 2x 42 (14P + 24E + 4LPE) 2x 144MB
Core Ultra 7(?) 1x 28 (8P + 16E + 4LPE) 1x 144MB
Core Ultra 7(?) 1x 24 (8P + 12E + 4LPE) 1x 144MB

Door Daan van Monsjou

Nieuwsredacteur

20-12-2025 • 12:06

129

Reacties (129)

Sorteer op:

Weergave:

Ik ben heel erg benieuwd, want hoewel ik nu AMD gebruik is concurrentie op de markt voor ons als consument altijd alleen maar goed.

Ik weet dat Hardware Unboxed in het verleden een video genaamd Would 3D V-Cache Help Intel CPUs? 14th-gen Cores vs. Cache hebben gemaakt waarin ze dit concept een beetje verkenden, en daar was de conclusie dat dit voor Intel waarschijnlijk weinig zou helpen, maar we hebben nu te maken met een totaal andere generatie. Wel denk ik dat mensen niet moeten vergeten dat AMD en Intel volledig andere ontwerpen hebben, dus dat extra cache toevoegen niet direct betekend dat we dezelfde prestatiewinst zullen zien bij Intel. Dat gaat sterk afhangen van het ontwerp van de chip als geheel. Het kan evengoed minder zijn, of zelfs meer. De tijd gaat het zeggen.

Maar ik hoop hoe dan ook dat Intel hiermee een stap weet te zetten en AMD weer een beetje bij weet te benen.
Hardware Unboxed heeft alleen een situatie met 24MB vs 36MB L3 cache kunnen verkennen, maar dat wil niet zeggen dat er een conclusie getrokken kan worden over de effectiviteit van een hele grote L3 cache.
Bij AMD X3D cpu's is de L3 +300% groter dan dat van een gewone CPU (96MB vs 32MB L3).
Dus als Intel eenzelfde sprong maakt en daarbij ook de latencies net zo laag weet te houden, dan is het vrij zeker dat de winst net zo groot zal uitpakken of in ieder geval dat met een gaming scenario er ook veel profijt zal zijn. De vraag is alleen hoeveel L3 per core beschikbaar is.

Hoe dan ook zal het een interessante strijd worden, want AMD gaat met Zen6 ook een grote verandering tegemoet vanwege een herontwerp van de IOD. En dan met name de verbinding tussen de CCD's (chiplets) en de IOD. Dat is tot nu toe serieel uitgevoerd om de lange afstand te kunnen overbruggen en is de achilleshiel van de Zen1 tot Zen5 processoren. Met Zen6 word de verbinding parallel gemaakt wat theoretisch en grotere bandbreedte geeft en mogelijk ook in lagere DRAM latencies resulteert.
Het is op dit moment nog afwachten wat de praktijk gaat brengen.

[Reactie gewijzigd door CMT op 20 december 2025 15:22]

Heel veel cache is nu eenmaal vaak niet echt effectief

De balans tussen teveel data in buffer en het constant moeten leegmaken van de cache en dan weer vullen kost ook voor een cpu tijd dus veel meer cache is voor games totaal niet relevant

Daarom koop je alleen de hele dure variant als je een bedrijf hebt en professionele software draait die gebruik maakt van die veel grote cache in de duurdere modellen.
Heel veel cache is nu eenmaal vaak niet echt effectief
Waar blijkt dat uit?
Voor zover ik weet is meer cache in het verleden bijna altijd beter geweest dan minder cache.
Er is een verschil tussen genoeg cache en overschot. Net zoals je na een bepaalde hoeveelheid RAM eigenlijk geen verschil meer merkt.
Dat hangt af, tegenwoordig word ram niet enkel meer gebruikt voor het systeem, maar ook voor de gpu en npu.

AMD en Apple doen dat met hun unified memmory.

Als je een moderne iGPU wil concurren dan moet je het genoeg vram geven 16 a 20GB

Als je AI acceleratie wil in je NPU : dan moet je ook daar een 15 a 30gb reserveren.

Meet 64Gb ram kom je vanaf 2026 niet meer toe, oftewel zal je iGPU niet goed werken, oftewel je AI cores.

En wat betreft het systeem os, die gaat ook massaal meer ram nodig hebben vanwege de kleine LLM's die ingebouwd gaan worden in software (die moeten allemaal ingeladen worden).


64gb gaat dus standaard gaan worden vanaf 2026 , het probleem is de ram crisis...

[Reactie gewijzigd door sebastienbo op 21 december 2025 01:01]

Het aantal mensen die dat soort workloads genereren heeft al 128 of 256GB steken en/of dedicated hardware, maar dan nog zal je met ongebruikt ram geen snelheidswinst zien, of er nu 2 of 20GB onbenut is.

trouwens AI-boeren willen hun historisch ongeziene investeringen kunnen terugverdienen, dat gaat niet gebeuren als ze iedereen zomaar LLM's gaan aanleveren die ermee kunnen competen, zelfs al zijn het maar relatief kleine.
Wel dat hangt af, de snelheid voor LLM's is er wel, het werkt enkel snel als het volledig in de ram of vram zit. Iets waar je ook rekening mee moet houden is de NPU's en iGPU's, die hebben allebei geen vram, en reserveren daarom een groot deel van je systeem ram... intel iGPU's zeggen tot maar liefst 50% te reserveren van je systeem ram... stel je voor je hebt 32gb ram gekocht en je iGPU gebruikt er 16GB van, dan blijft je os nog met 15,7GB (want 300mb is voor de PCI brug gereserveerd). En als je NPU dan ook nog dingen wil doen (klein ai model) dan gaat daar nog eens 2 a 4 gb van je ram af (laten we 3Gb zeggen), dan blijf van je 32Gb nog 12,7GB. Maar dan moet je OS ook nog draaien en ram gebruiken, voor windows 11 25h2(met een paar opstartapps of services) zit je rond de 10GB. Dus blijf er nog 2,7GB voor je apps te openen. Nu moet je ook eens kijken hoeveel ram een dagdagelijkse app zoals chrome gebruikt als je 10 tabs openstaan hebt... En dan moet je ook nog rekenen dat windows begint te pagen vanaf 80 percent ram verbruik.(en dat is het moment dat je pc echt traag word). Dus ja 32GB is voor nieuwe pc's een absoluut minimum. De gemiddelde gebruiker zal dus echt wel 64gb nodig hebben.

En wat betreft je doelpubliek zou je wel eens fameus kunnen verschieten hoeveel mensen niet eens weten dat er een local AI draait in hun apps of os.
  • Google chrome is een goed voorbeeld: daar draait een Nano LLM in van google. Zelf in al de galaxy telefoons met 12gb ram, draait er standaard een offline LLM van google in (het noemt "AI core" en gebruikt een Nano model). Beidde liggen rond de 2 a 4 gb.
  • Windows machines met NPU is een ander voorbeeld, Microsoft draait ook een offline model gebaseerd op de kleine Phi modellen. Die worden bijvoorbeeld gebruikt voor de recall feature, etc...
Dit zijn dus al twee offline llm's die draaien bij de meeste gebruikers zonder dat ze het beseffen, en die toch wel redelijk wat ram nodig hebben, als die ram er niet is, dan ga je de CPU zien spiken om continue te swappen naar je SSD met traagheid tot gevolg.

Dit soort Local LLM's is uiteraard ook het gevolg van privacy concerns: niet iedereen wil dat hun gegevens naar de cloud gestuurd worden, maar ze willen wel een beetje AI

Hoe meer apps zulke llm's natively in hun app draaien hoe meer ram nodig is, want spijtig genoeg zijn dat dan allemaal aparte instances die ingeladen worden. Ik vermoed dat microsoft dat probleem wel snel gaat inzien en de developers een centrale oplossing zal bieden waar de apps zich op kunnen verbinden (zoals een ollama server werkt) . Dit is een probleem dat zich op dit moment pas ontwikkeld, het kon niet ge-anticipeerd worden één jaar geleden , dat apps local LLM's willen draaien om mee op de AI boot te springen.
Ik zeg niet dat er geen edge-cases zijn, maar de situatie die jij schetst met de helft van je geheugen dedicated aan je iGPU én een NPU is zowat een worst-case scenario waarbij je telkens van het theoretische maximum uit gaat.

Nano LLM wordt slechts geladen als je het expliciet in de dev/canary build manueel hebt opgezet én een site het via de api specifiek aanroept. Idem voor het gebruik van recall: als je het niet zelf hebt aangezet, dan draait het niet.

Al bij al zal je dus al een heel doorwinterde AI-aanhanger zijn die zware workloads verwacht van een systeem waar het eigenlijk niet voor gebouwd is en als resultaat een suboptimaal resultaat zal ervaren van de software die hij probeert te gebruiken, maar technisch gezien zou het kunnen.
Het is meer dat cache veel ruimte inneemt en extra cache de chip onnodig duur maakt. Hoe meer cache je toevoegt, hoe minder efficiënt de extra winst wordt. De eerste 1 MB heeft veel meer effect op de prestaties dan de laatste MB wanneer je bijvoorbeeld al 127 MB hebt, maar het zal hoe dan ook nog iets schelen.

Een overschot aan cache is in de praktijk vrijwel onmogelijk vanuit prestatieoogpunt. Dat gebeurt pas wanneer alle systeemdata uit het geheugen volledig in de cache past. Prestatie technisch heeft het altijd nut om systeemdata met lage latency in L2 en zelfs L3 cache te hebben, of nog beter in L1 cache, omdat die nog dichter bij de core zit. Dat is altijd beter dan systeemgeheugen dat tientallen nanoseconden van de CPU verwijderd is. Een CPU met meer cache is altijd sneller dan dezelfde CPU met minder cache, maar op een gegeven moment wordt de chip te duur in verhouding tot de prestatiewinst die je ervoor terugkrijgt.

De meeste games hebben behoorlijk wat memory reads en writes. Voor elke van die reads en writes zou een CPU met oneindige cache theoretisch aanzienlijk sneller zijn. DDR5 read latency ligt rond de 70 tot 100 ns. Als je dat kunt vervangen door L3 cache met ongeveer 20 tot 30 ns latency, levert dat een duidelijke prestatiewinst op.
Meer cache heeft wel een nadeel (los van de kosten):
Grotere caches hebben namelijk een hogere latency.
Aangezien een groot gedeelte van de functie van de cache het limiteren van latency is kan je caches niet zomaar ongestoord ophogen zonder daar over na te denken.
Vandaar dat een L1 cache super klein is gebleven (64KB bijvoorbeeld) omdat die binnen 1 tot 4 cpu cycles moet kunnen antwoorden.

Fabrikanten maken echter alleen producten met grotere caches als ze weten dat het nut heeft aangezien cache geld kost om toe te voegen.
Vandaar dat in producten die je kunt kopen het over het algemeen wel nut zal hebben dus vandaar meer cache=beter.

MBT deze hele grote L3 cache: Intel zal dus wel weten wat het doet en het zal ongetwijfeld wel nut hebben want anders maken een ze een extra duur product zonder daadwerkelijke winst in performance.
Dat grotere cpu caches trager lijken, komt niet zozeer door de grootte zelf. Die heeft maar minimale invloed. Cache is sram, en sram adreslijnen en interne routing kunnen zo worden ontworpen dat je er vrij grote caches mee kunt maken met zeer lage latency. Of je nu schakelt tussen bank 1 en 5 of tussen bank 1 en 200, de interne latency blijft in principe hetzelfde. Het lijkt alsof grotere cache trager is, maar dat komt vooral doordat die cache fysiek verder van de core geplaatst moet worden, niet omdat de grootte de cache ineens veel trager maakt. Die extra afstand voegt simpelweg wat nanoseconden toe.

Tussen de cores is fysiek nauwelijks ruimte. L1 cache is klein omdat die direct naast de core zit. Als je L1 groter zou maken, komen de cores verder uit elkaar te liggen en neemt de latency toe richting memory controller, bussen, fabrics en andere cores. Daarom wordt L2 cache aan de rand van het coreblok geplaatst, zo dicht mogelijk bij de core maar niet ertussen. Ook daar is de ruimte beperkt, omdat de memory controller, pcie controller en andere blokken eveneens zo dicht mogelijk bij de cores moeten zitten. L3 cache wordt daarom nog verder naar de rand van de chip verplaatst, waar ruimte is voor grotere sram blokken, met als gevolg een hogere latency. De sram cellen zelf zijn in principe gelijk en hebben vergelijkbare eigenschappen en latency. In de praktijk wordt de latency vooral bepaald door de afstand, niet door de grootte van de cache.
Voor multicore snelheid, denk ik dat momenteel de enige mogelijkheid om meer L1 cache te hebben, is schalen -> Meer cores elk met hun L1 cache. Maar dan moet je een oplossing hebben voor een single task die meer L1 nodig heeft te verdelen over meer cores.

Een ander oplossing dat ze tegenwoordig toepassen is "Memory Banking" je L1 cache verdelen over meerdere "banken" .

Nu dat alles super klein word is electriciteit over koper een echt probleem aan het worden(weerstand op moleculair niveau), en we kunnen ook niet overstappen naar licht want onze transistoren (3-5 nanonometer) zijn inmiddels kleiner geworden dan het licht spectrum (400 a 700nm).

Voor het koper probleem probeert intel te werken met kobalt of Ruthenium, maar eigenlijk zou grafeen het beste werken als we echt nog elektrische cpu's willen verbeteren, maar grafeen is momenteel moeilijk te produceren in chips op grote schaal (het heeft zijn eigen onopgeloste productie problemen).

Misschien gaan quantum computers onze oplossing worden, wie weet.

[Reactie gewijzigd door sebastienbo op 22 december 2025 11:39]

Ik vraag mij af waarom men de 4770R niet getest heeft. Die heeft een extra 128MB L4 cache chip.

Het is natuurlijk L4 en de bandbreedte zal lager zijn dan de L3 cache maar zo kan het effect op een oude Intel wel eens bekeken worden.

Ik herinner mij dat in niet Gpu taken de cache door de cpu kon worden gebruikt volgens een artikel. Men zou dan eens een oude game kunnen testen in software rendering op ultra lage resolutie
Wellicht omdat dat een platform van... 12 jaar oud is? Als ze die hadden willen pakken hadden ze overigens ook de nog iets nieuwere en 'slechts' 10 jaar oude 6785R kunnen pakken.
Dat is inderdaad een hele goede toevoeging, want de testen die HUB kon draaien waren natuurlijk wat gelimiteerd in de mogelijkheden, want ze konden wel kijken wat er gebeurde als er minder cache was, maar niet wat er gebeurd als er mee cache is. Daarnaast was dat ook voor 14th gen Intel met een ander ontwerp.

Ik denk hoe dan ook dat Intel hiermee een goede move maakt. Zelfs als gaming geen grote sprong maakt, kan het best zijn dat andere specialistische workloads er misschien juist wel heel veel baat bij hebben. Zoiets soortgelijks was te zien bij de Epycs met 2GB cache voor sommige workloads.
Gaat met Zen 6 het idle-vermogen dan ook eigenlijk eens een keer omlaag? Want dat is momenteel een groot voordeel van Intel boven AMD.
Ik hoop dat Windows in de toekomst dit beter kan sturen, want het probleem is nu al dat windows het moeilijk heeft om te zorgen dat bepaalde programma's niet naar de e-cores bouncen, ipv de p-cores, laat staan met twee cpu complexes.

Ik hoop dat Intel met deze technologie AMD kan evenaren, want hoe goed dat de 9800X3D is voor gaming, ik ben de bugs met usb poorten, bluetooth radio en buggy bios bij AMD wel kotsbeu.
Concurrentie kan goed zijn, maar kan ook negatief zijn. Bijvoorbeeld als er zoveel concurrentie is, dat er aan het begin van een product (bijv bij fabricage of delving grondstoffen) van alles misgaat. Het gaat alleen maar goed, als er geen onevenredige macht bij 1 schakel berust.

Of dat in deze duopolie het geval is, is voor een eindgebruiker lastig te controleren. Net zoals dat voor bijv kleding of zelfs appels in de supermarkt geldt.
Ik denk niet dat dat het geval zal zijn. We moeten juist blij zijn met meer concurrentie, want daar is een groot gebrek aan.
Misschien in dit geval wel, maar de mits is wel dat er een operating system op draait en liefst iets wat compatibel is. Als er meer concurrentie is, is het maar de vraag of dat er komt op x86/x64 vlak. Ivm licenties etc en de facto Windows als standaard, lijkt me dit ongeveer een onmogelijke markt voor een nieuwkomer. De werkelijkheid is vaak veel complexer dan gedacht.

Vroeger was er concurrentie en die is weg.
Die licenties die nodig zijn voor x86 zijn wel een probleem idd.
Wel help het als beide kampen het hebben dat games en engines hier meer rekening mee gaan houden met de grote l3 cache's daar ook meer data naar toe sturen die daar goed gebruik van kan maken.
Soort kip-ei verhaal nu het er is kan er ook meer rekening mee gehouden worden om het te benutten.
Ik ben benieuwd welke consumenten toepassingen goed gebruik maken van meer dan 8 performance cores. De i9 serie lijkt wel een HEPC platform, maar hebben toepassingen daar wel baat bij dit type geheugen?
edit:
Voor de duidelijkheid, het gaat mij specifiek om de combinatie van zoveel performance cores samen met dit speciale type cache. Ik ben oprecht benieuwd of daar nu al toepassingen voor zijn ook breder dan gaming. Het is nog niet zo lang geleden dat het AMD topmodel met X3D cache niet specifiek de beste prestaties gaf. Afgelopen zomer toen ik een pc samenstelde, die vooral voor gaming was, bleek ook x3d niet de beste optie. En daarbij had ik het over MEER dan performance 8 cores, dus de i9 serie. De modellen die de cache over chiplets verdelen wat dus mogelijk performance issues geeft die groter zijn dan de winst van extra cores in games, daarom mijn interesse in of er misschien HEPC toepassingen bekend zijn onder de Tweakers.

[Reactie gewijzigd door svenk91 op 20 december 2025 14:21]

software architecture kan zich ook aanpassen.
Maar een sequentieel probleem blijft sequentieel. Niet elk probleem is goed over cores te verdelen. Dat heeft niks met software architecture te maken.
De meeste mensen draaien van-alles op de achtergrond, en al is een specifieke taak single-core dan zijn er vaak nog wel andere taken in hetzelfde programma welke wel verdeeld kunnen worden over verschillende cores.
Ja sequentieel probleem blijft sequentieel. Maar vaak is er gekozen voor sequentiële oplossing. Waar er non shared mutable algoritmes zijn. Maar ook code paradigma.
Voor sommige problemen is onvermijdelijk. Maar bij games niet.
Daar wordt achteraf critical codepath optimized.
Geavanceerste game solutie is job task threadpool. Dat gaat goed parallel , maar nog steeds trashed icache en data caches
Omdat cpu sterk rusten op prefetch.
Dat is continu volledig relevant data dezelfde routine overheen.
Reduceren van branch heavy code
Vanuit software standpunt valt er vaak wel meer uit te halen. En zou ecore met pcore ook volledig mee kunnen doen. Het sequentiële maximaal reduceren en in batch processing wijd mogelijk gaan zover er data en code is.
Games zijn complexer kwa code mix dependicies en data afhankelijk heden.
Maar kijk naar de render aanpak daar heb je ook data en compute afhankelijk heden maar gaat goed wijd. Ik denk dat men veel laat liggen.
Voor 100fps heb je 10ms om ding te doen. Minus render aandeel. Sequentiële te beperken en wijd gaan
Nu heb je top high-end 16cores 32 threads waar games niet veel mee doen. Dan midrange cpu die soms door hogere sustained klok beter presteren
Bij apple pro apps heb je ook deel aan apps dat de little cores niet meenemen waar bij x86 little er veel zijn voor MT schaling.
Bij Apple silicon meer big en paar little. Ivm batterijduur . Maar er zijn uitzonderingen
En dan heb je bij big:litlle10:2 vs 8:6 sterk app afhankelijke MT prestatie verschil.
Klopt, maar verdelen over meerdere cores is ook niet gratis had ik begrepen, ook dat heeft een stuk overhead. Daarnaast valt niet alles te verdelen omdat de volgende stap meestal de input van de voorgaande nodig heeft.

En zelfs als het qua probleem zeg maar wel, krijg je een hele hoop complexiteit erbij als je multithreaded gaat programmeren. De ene taal is er al beter voor geschikt dan de andere natuurlijk. Tegenwoordig mag je tevreden zijn als een programma 2-3 cores gebruikt, laat staan 24+.

[Reactie gewijzigd door Powerblast op 20 december 2025 13:21]

Wat veel wel lijken te vergeten is dat het programma dat je gebruikt niet het enige programma is dat draait, dus hoe meer cores, hoe meer achtergrond applicaties rustig op zn eigen core kan werken en daardoor minder/geen invloed heeft op je applicatie in de voorgrond. De ouderen onder ons kennen allemaal nog wel hoe extra traag je PC werd door applicaties als Norton antivirus... En kijk eens voor de gein via taskmanager hoeveel services er op elk moment draaien...
Leuk, maar elke service heeft echt niet een aparte core nodig. Sterker nog, de meeste staan op nul qua belasting.
De 1-2-4 core tijd zijn we inderdaad lang voorbij. Maar op een core van 4000-5000mhz kunnen en horen makkelijk 10 achtergrond taken te kunnen.
Dat aan te pakken door core detectie cache toplogie en thread pinning en dus paar overhouden voor OS. En in setting optioneel minder cores te gebruiken voor multitask gebruik tijden gamen. Dus wat cores voor andere apps.
Meeste gamen op PC met full focus op die task. Voor deel dat game vid streaming of hoop neven app gebruikt zou in game setting wat meer vrijgeven. Maar 6core gebruiker valt daar niet onder.
Probleem is dat core cache topology niet gestandaardiseerd. Is tussen mac linux windows. En niet C C++ standaard. Of std libary.
Maar lang niet elk probleem heeft specifiek baat bij meer L3 cache.
Dat is de target van Epyc 3D- vcache
Waar de data grote zo groot als de cache moet zijn omdat er data compute afhankelijkheid onderling is.
Wat heel specifiek toepassing is.
Reguliere probleem is of code memory acces patern optimized is. Naast goed gebruik cache lines . Goed gevuld met hot data. En aligned ivm false sharing. Vaak is dit niet zo. En dan helpt vaak extra veel cache.
Of de data is niet zo groot dat er voldoende cache is. Of slecht cache locality. Dat krijg je als hardware abstract behandeld zonder rekening houden met cpu . Zonde als prefetch niet gebruikt en wild gaat met branching. Waar ook vtabel en validatie check onder vallen en pointer trein volgen.
AI berekeningen als je het niet op je GPU doet?
Die hebben geen baat bij de extra l3 cache. Met uitzonderingen misschien van kleine AI modellen die in de 144MB cache passen, daar kan een i9 er dan beter twee paralel van draaien dan de i7’s mits de software het goed over de chiplets kan verdelen.
Als je een klein model hebt met meerdere experts wellicht als een expert er in past.
Maar ook modellen die bijvoorbeeld bladmuziek foto om zetten in musicxml zijn zo klein, en bepaalde object herkenning zoals yolo, en vertaal modellen in Chrome (50MB).

[Reactie gewijzigd door djwice op 20 december 2025 15:05]

Maar dat zijn niet toepassingen waarvoor je een i9 koopt, die kunnen prima op een normale npu toch?
i9 en i7 zijn cpu 'sniet een npu,'s, er zijn niet veel desktops processoren met npu.

[Reactie gewijzigd door djwice op 20 december 2025 16:28]

Dat hangt nogal af van het AI model. LLM? Waarschijnlijk niet. Geluids AI? Mijn modellen draaiden 100x sneller vanuit cache (1 audio stream/core op ARM embedded, 100 streams/core op Xeon-D's met voldoende L3). Dat was destijds zelfs maar 8 MB L3.
Die zit er alleen ook niet in toch?
Is dat niet dezelfde discussie die we al voeren sinds de eerste PCs op de markt kwamen? En uiteindelijk wordt het allemaal gebruikt. Maar de hardware moet er eerst zijn voordat developers hier iets mee gaan doen.
Dat hebben we gezien met SLI inderdaad.
Je bedoelt de 70% winst die ik had op me ti6800 ultras Ja Dat was idd bijster goed en boven verwachting
Ik bedoel de 30% verlies gezien je toen beter een goede kaart kon kopen i.p.v 2 matige.

[Reactie gewijzigd door mr_evil08 op 20 december 2025 16:18]

Euhmm er waren geen betere dit waren al de top kaarten.

En elke keer dat er nieuwe ge uitkwam gold datzelfde 2x Nieuwe Gen top was 50-70% sneller dan single topkaart.

[Reactie gewijzigd door Scriptkid op 20 december 2025 16:29]

Precies.... Toen de eerste dual core processoren uit kwamen vroeg ook iedereen zich af of dat zinvol was. Toen kwam de software die 2 cores gebruikten en kwamen de quad core processoren uit waarvan iedereen zich af vroeg wat het nut daarvan was..... Enzovoorts enzovoorts totdat we nu zelfs met spellen gerust 8 cores tegelijk aan het belasten zijn en iedereen zich af vraagt waarom je in 's hemelsnaam 16 cores nodig zou hebben.

En ja, 4 LPE cores om het ding in standby te zetten zonder 200W powerdrain, 32 E cores om tijdens je zware taken gewoon je achtergrond processen te kunnen draaien.

Nee, ik heb die 16P/32E/4LPE niet nodig maar ik zou heel blij worden met de genoemde 7s.
Een game kan toch prima meerdere cores tegelijk gebruiken? Pak er 4 voor graphics, 2 voor gameplay, 1 voor physics en 1 voor overig (audio, menu, ui, etc). En je zit er zo aan?
Dat valt in de praktijk zwaar tegen. Meeste games zijn verre van multithreaded. 4 voor graphics zou kunnen als ze Vulkan gebruiken, of DX12. Met oudere backends zit je nog met het probleem dat bijvoorbeeld OpenGL verwacht dat alles op de main thread gebeurt, of je bent de sjaak.

Gameplay en simulation, physics verwacht meestal als input één van de voorgaande stappen en dan heb je eigenlijk weinig aan multithreaded execution. Het kan natuurlijk wel maar het zal per game afhankelijk zijn of het nut of geen nut heeft. Multithreaded execution heeft zover ik begrijp ook een zekere overhead die game developers niet altijd willen gebruiken. Daarnaast is gamedev wel één van de meer conservatieve sectoren als het op nieuwe features aankomt :).

Meeste games zijn dus verre van multithreaded zover ik weet. RTS games denk ik dat ze zich qua gameplay daar iets beter voor lenen dan FPS.

[Reactie gewijzigd door Powerblast op 20 december 2025 13:25]

Je argument wat betreft simulatie klopt niet; dat weten we van games zoals Dyson Sphere en Factorio. Beiden hebben hierover interne details gedeeld, bijvoorbeeld https://www.reddit.com/r/...ew_multithreading_system/. Een simepele truc is dat je niet de hele vorige stap uitrekent voordat je de volgende stap begint. Een andere simpele truc is dat je simpelweg de delen van de huidige stap in parallel uitrekent - in een simulatie die complex genoeg is dat multithreading reelvant is, is elke stap zelf ook complex. Het is niet alsof je 1 scalar een miljard keer per seconde moet updaten; nee, je update miljoenen scalars honderd keer per seconde.
Euhm je kan wel heel veel cores willen gebruiken maar of je er werkelijk iets mee bereikt blijkt in de praktijk meestal het tegendeel te zijn.

Veel cores maakt een CPU niet even sneller of nuttiger dat is een illusie

Vandaar de grote cache cpu's vaak alleen nuttig zijn voor pro programma's die daar gebruik van maken.

Het is allemaal een balanceer act en uit de feiten blijkt dat 8 core cpu met 64/128 MB cache geweldig werkt voor veel spellen, grotere cache heeft vrijwel nooit enig nut in games en dat gaat ook op voor het aantal cores

Als je duizenden cores op een cpu kan proppen gaat deze echt niet sneller werken maar wel veel meer energie vreten zonder enig nut.

Dus de stellen meer cache en meer cores werkt dus ECHT NIET zolang er geen enkel nuttig gebruik word gemaakt van die extra's het is letterlijk een balanceer circus om dit goed te laten werken

Dus tsja als er mensen zijn die een 2000 watt cpu word gemaakt met een 32 TB cache zullen er mogelijk mensen zijn die willen pochen met hun biljoen euro cpu/gpu maar enig nut heeft het niet

Nu maar afwachten wanneer de AI bubbel uit elkaar spat want nuttig is het nauwelijks.

Kom nu maar met alle negatieve reacties ik lees ze toch niet :)
Sommige “grand strategie” games kunnen meer dan 8 cores gebruiken.
Daarnaast vind ik de opmerking weer iets wat op tweakers altijd terug blijven zien.

Als we terug gaan in de tijd kunnen we ook wel terugvinden “welke applicatie er nou gebruik maakt van meer dan 1 core” en dualcores voor consumenten al belachelijk gemaakt werden.

Als straks het gros van de consumenten 16+ cores heeft, zullen de applicaties vanzelf wel volgen.
Vaak wordt het ook teruggehouden door wat het leading platform is qua ontwikkeling. Met het PS3 tijdperk, welke erg lang duurde, bleef men nog altijd erg sterk leunen op een enkele thread, met wat offloaden naar de rest.

Met de PS4 generatie zie je dat men uitging van quad core systemen. Ik ga er dus ook van uit dat tegen de tijd dat de PS6 gemeengoed wordt, 8 cores sowieso het minimum zullen zijn en we de transitie naar eventueel 10/12 cores in zullen gaan. Niet dat een 7800X3D van de een op de andere dag achterhaald is, maar over een jaar of twee hoop ik toch wel op 12 volwaardige cores op een enkele chiplet door te kunnen groeien, vanaf m’n huidige 5800X3D.

Temeer omdat er toch ook wel een hoop software is die ook nu al baat heeft bij meer dan 8 cores.
Ik maak het niet belachelijk. Ik heb oprecht interesse in of er al toepassingen voor zijn. AMD kiest er bijv. bewust voor om niet de cache op elke chiplet/ccd te plaatsen: nieuws: AMD: extra 3D V-Cache zou 9950X3D amper sneller, maar wel duurder maken, en voor gaming kan je dan betere prestaties krijgen als je de cores op die extra ccd helemaal uit zet (al is dat met goede optimalisatie weer niet zo nodig, als de games de juiste taken aan de juiste ccd kunnen toewijzen). Dat heeft wel wat software en driver optimalisaties nodig die voor Intel er nu nog niet zijn, waarmee de kans reëel is dat de i7 CPU’s in ieder geval in gaming gelijk of zelfs iets beter aan de i9’s presteren. Voor games die zwaar op veel cores leunen kan je beter kiezen voor CPU’s met reguliere L3 cache.

Vandaar dat ik mij afvroeg of deze i9’s misschien als HEPC hardware specifieke toepassingen hebben, iets waar ik minder in thuis ben. Voor HEPC toepassingen als AI en beeldvewerking voegt het normaliter niet iets toe, neem dan eventueel een i9 met normale cache en meer cores voor hetzelfde geld mocht je wel wat aan meer cores hebben, maar bijv. voor sommige typen simulaties zou de grotere l3 cache wel nut kunnen hebben schat ik in.
Ik denk dat als ze al een goed concurrerend product voor elkaar krijgen dat de prijs gegarandeerd hoger zal liggen dan AMD. Dan komen er wat marketingtrucjes dat ze beter voor doet komen dan AMD. Dan komen de daadwerkelijke tests en blijkt AMD gewoon prijs/prestatie gewijs beter te zijn.. tijd zal het leren.
Ik hoop ontzettend dat je ongelijk hebt, en ik hoop ontzettend dat Intel geweldige processoren kan maken die ze weer beter maken dan AMD.

Niet omdat ik Intel-fan ben. Van de 6 X86-PC's die ik actief gebruik is er maar 1 Intel. De huidige serie AMD-processoren zijn gewoon beter.

Maar ik wil keiharde competitie. Ik wil meerdere bedrijven die vechten op prijs, op prestaties, op thermals, etc. Ik wil als consument de beste processoren voor mijn geld!

Dus, gezien hoe eenzijdig de markt op dit moment is: GO GO INTEL!

En als Intel het beter doet: GO GO AMD!
In de zakelijke markt is Intel eigenlijk nog alleenheerser, zeker in laptops zie je bijna nergens AMD modellen. Ik de k dat we qua concurrentie ons geen illusies moeten maken dat Intel het slechter doet dan AMD.
De enige reden waarom Intel het zwaar heeft zijn verkeerde interne keuzes en de concurrentie van de ARM markt.
(Ja, amd is populairder onder tweakers en gamers, maar wij zijn echt maar een klein aandeel in deze markt)
Toch vervanderd het langzaam. Mijn werklaptop is net vervangen en tot mijn verbazing is dat een AMD systeem. En op servergebied is het toch ook EPYC wat de klok slaat?
Threadrippers op de workstations is de norm, dus intel zit in heel heel zwaar weer.

De afgelopen berichten over Intel, investeringen door andere bedrijven etc onderschrijven dit ook.
Intel staat het water aan de lippen.
Dat merk je overal en dan weten we nog niet wat de nieuwe release van de aankomende AM6 kan gaan betekenen want AMD zit echt niet stil die zijn al een hele poos verder aan het bedenken en uitvogelen of er nog snellere oplossingen te verzinnen dan AM6 en opvolgers

Dat wij daar niets van horen of zien is normaal in deze wereld want elke nieuwe stap kan een faal zijn en dan gaan ze weer naar de tekentafels en denk tanks om een betere oplossing te zoeken cq verzinnen.
En daar is Intel het schoolvoorbeeld van geworden.
Maar voor nu moet Intel omhoog gehouden worden omdat AMD ze werkelijk op alle fronten voorbij gestoken is.
En niet alleen op CPU gebied. Ook in het grafische segment heeft Intel het laten gebeuren. En dan doel ik op de integrated graphics. Intel heeft veel te lang stilgezeten op met name 3D/gaming performance.
En dat weten ze ook donders best, niet voor niks zijn ze met ARC begonnen, naar mijn idee om dat later weer toe te passen in de integrated graphics.

Maar tot zover zie ik nog geen barsten bij AMD. In tegenstelling tot Intel de afgelopen jaren waar je het toch langzaam zag afbrokkelen.
Dat hoop ik ook opzeker! Beter voor de consument, beter voor de markt.

Het is de marketing dat ik gewoon zo shady vind. Voordeel is dat het heel voorspelbaar is.

Ik ben overigens wel heel benieuwd wat een nieuwe build volgend jaar mag kosten voor de consument. De RAM prijzen, nieuwe AM5 platforms en Intels nieuwe platform met hun nieuwe CPU's.
AMD heeft ook al aankondigingen gedaan over nieuwe processoren. Die zien er ook erg goed uit.
Mijn probleem is meer RAMmageddon. Voor consumenten blijft er zo goed als geen capaciteit over.
En aan een processor zonder RAM, SSD en videokaart heb je niet zoveel.
Niet alleen RAMageddon maar aantal dagen geleden heeft nvidia ook een persbericht naar buiten gedaan om de consument GPU’s te halveren. Ik kan dus ook echt niet meer enthousiast raken over nieuwe hardware. De pc markt heeft zijn ups en downs gehad maar we gaan een langere periode tegemoet waar het niet zo lekker zal gaan met pc (gamen). Althans in relatie tot consoles (en evt steam machine).
Ook de consoles zullen tegen die muur aanlopen. Daar zit immers ook geheugen in.
Xbox en PS kunnen eventueel nog paar jaar doordraaien op de huidige generatie. Maar voor de gabecube komt dit wel op een uitermate beroerd moment. Naar verwachting werd het al geen gesponserde, dus goedkope console. Maar met rammaggeddon eroverheen?
Ben heel erg bang dat dit de wind uit de zeilen haalt en dat zou dood en doodzonde zijn. Het zou pc land waarschijnlijk eens flink opschudden. Helaas word MS en hun spyware verkocht onder de naam Windows nu een flinke duw in de rug gegeven.
Dan komen de daadwerkelijke tests en blijkt AMD gewoon prijs/prestatie gewijs beter te zijn
Tale as old as time. Is in GPU-land niet anders.
Jammer dat ze nog steeds vast houden aan die e-cores. Voor gamers zijn deze dingen net zo nuttig als de 2de ccd bij AMD.

Leuk voor een benchmark maar zonde van de power budgetten.
Het is niet alsof je continue een game aan het spelen bent, en dat er tijdens het spelen van die game geen andere achtergrond services draaien. Ik vind die e cores wel degelijk een goede zaak, want bij mij staat mijn pc 24/7 aan, en ik niet eens zo vaak games speel, maar als ik ze eens speel, dan wil ik ook dat die dikke power kan gebruiken.
Het is of gaming of een load zo laag dat een p core op base clock prima is. De e-cores voegen voor mij en velen echt niets toe.

Je zal echt geen stroom besparen door alleen p cores te hebben. Een laag geclockte p-core is zeker bij intel (iig in het verleden) super zuinig.

Achtergrond services zijn vaak echt minder als 0,1% load en niet continu. E-cores zijn echt alleen interessant als een applicatie geen bepaalde instructie sets nodig heeft en gewoon alleen raw piwer voor een berekening. 99% van de gebruikers heeft dit gewoon niet nodig.
Helaas, je veronderstelling is fout. Intel heeft tegenwoordig zelfs low-power E-cores. Een nog verder geoptimaliseerd design is nog zuiniger.

Een belangrijke reden om je achtergrond threads op een E-core te houden is om cache trashing te voorkomen. Je wil niet de L1 cache van je P-core vullen met de code van een achtergrond thread, om die een milliseconde later weg te kunnen gooien. Dit is geen "0.1% load" verhaal. Dit is een bandbreedte verhaal tussen de verschillende caches. Een E-core heeft z'n eigen L1 cache met een hele sloot extra bandbreedte.
.oisyn Moderator Devschuur® @MSalters20 december 2025 16:44
Een p-core heeft natuurlijk ook gewoon zijn eigen L1 cache. Als je die e-core door een p-core vervangt verandert daar niet zoveel aan. Het enige argument dat je kunt maken (buiten de zuinigheid) is dat het een betere automatische scheiding is tussen de perf load en de achtergrondtaken.
Klopt, maar als het zo simpel was dan waren E-cores nooit een ding geweest. (En ARM BIG.little ook niet). Het andere voordeel van E cores is dat je er meer van kunt hebben. Dan heb je dus ook meer L1 caches met meer bandbreedte.
E-core power draw is irrelevant, mijn intel cpu pre e-cores was letterlijk 5 watt zonder e-cores. Veel zuiniger kan echt bijna niet. Alle multi type core chips die daarna kwamen waren allemaal MINDER zuinige in idle. Net als dat AMD cpu's minder zuinig zijn puur omdat ze een multi chip design gebruiken.
Dit is bij intel helaas niet veel anders. Kortom leuk dat die E-cores nog zuiniger zijn onder load maar de cpu als geheel is minder zuinig geworden in real world usecases.
De power draw van de E-cores interesseert me dan ook geen hol Ik gebruik ze niet en heb er geen enkle baat bij en ze kosten me alleen maar (stroom en aanschafprijs want silicon is niet gratis).

Je hebt ook een totaal power budget en als deze met elkaar gaan concureren dan zijn de p-cores minder snel. En als dit niet het geval is dan nog kosten ze extra verbruik puur omdat ze bestaan tenzij intel een "full park" uitgevonden heeft waardoor ook de interconnect geen stroom meer verbruikt. Dit was bij de 285/265k iig niet het geval.
Voor gamers voegen ze gewoon niets toe en zijn ze wel verantwoordelijk voor een hogere idle power draw (en temps wat p-core boost clock weer kan beïnvloeden).

En ik heb liever een minuscule hoeveelheid threads op de achtergrond draaien dan dat ik een main game thread heb die geen flauw benut heeft wat een E-core is en daardoor bagger prestaties geeft.
Er is een reden dat gamers nog altijd geadviseerd worden om e-cores uit te zetten voor stabielere prestaties.
Ze hebben daar dan wel software voor gemaakt maar dat ondersteund nog geen hand vol games dus vrijwel nutteloos.

Ga maar eens kijken wat 14th gen en 200s series cpu's met en zonder e-cores verbruiken. Zonder zijn ze gewoon veel zuiniger met low loads en dat heeft werkelijk niets met clock speed te maken want die default met dezelfde architectuur naar dezelfde base clocks.

Ik blijf er van overtuigd dat een non e-core variant beter is en beter blijft voor gamers. en het is goedkoper om te maken dus why not !?
Dacht ergens gelezen te hebben dat hun aankomende Arctic.Wolf e-cores op Zen5 niveau zitten, waardoor ik des te meer benieuwd ben naar de prestaties van Coyote.Cove.

Die extra 144MB Bllc dan nog volledig buiten beschouwing gelaten..
Tja maar zolang ze de problemen die e-cores kunnen geven voor gamen niet oplossen wil je ze als puur gamer toch echt uit hebben.

Leuk voor een workstation maar voor een gaming pc zie ik ze liever een chip maken zonder e-cores.
Er zijn kennelijk plannen voor een 12P only Bartlett Lake-S klokt volgens geruchten naar de 6 GHz.
Dat lijkt de natte droom van menig gamer maar dat leek niet voor consumenten bedoeld.
Maar dat is dan op LGA 1700 en dus zwaar verouderd Alder Lake node.

Ik begrijp niet waarom Intel niet inderdad ook een Nova Lake K-variant met enkel 16P uitbrengt!?

Als Intel zoveel meer ervan zouden verkopen, een i9 met 16P+0E+0LPE, iets lager geprijsd dan de veel duurdere vlaggenschip 16P+32E+4LPE, die de meeste mensen tóch niet gaan kopen, waarom zou Intel strategisch deze 16P chip Niet op de markt willen brengen in hun concurrentie vs AMD Zen6?
Tja waarom doen miljarden corporaties wat ze doen. Goede vraag maar vaak zijn ze compleet markt doof en blind.
Games gebruiken toch nooit acht cores voluit. Het is meestal één á twee threads die rond de 100% zitten en wat jobs die verdeeld worden over een flink aantal worker threads.
Monster Hunter Wilds kan dit blijkbaar wel, daar een 9900X3D 15% prestatiewinst boekte tegenover een 9800X3D.
Na lange tijd weer Intel gepakt, maar daar meteen spijt van gehad. Tijdens het gamen crashte mijn CPU telkens. Om crashes te voorkomen moest ik mijn CPU constant underclocken. Uiteindelijk kwam Intel met een microcode BIOS-update en was het probleem verholpen.

Sinds deze zomer is het echter weer terug, en wel 10x erger dan voorheen. Zelfs wanneer ik niet game, crasht de CPU al, bijvoorbeeld terwijl ik Netflix kijk. Ik heb nu continu software op de achtergrond draaien (Intel Extreme Tuning Utility) om mijn CPU stabiel te houden.

Heel mooi dat Intel nu met concurrerende CPU’s komt voor AMD’s X3D-CPU’s, maar mijn volgende CPU wordt toch echt weer een AMD.

Intel heeft aangeraden om mijn CPU terug te sturen. Ik heb 2 jaar extra garantie gekregen, maar ik wil niet weken zonder computer zitten. Ik zie mensen beweren dat ze hun CPU 6 tot 10 weken kwijt waren.

Hoe goed de volgende generatie Intel CPU's ook mogen zijn, de volgende wordt gewoon weer een AMD.

[Reactie gewijzigd door Toonen1988 op 20 december 2025 12:58]

Dan koop je toch gewoon een goedkoper cpu als tijdelijke vervanging?
Nadat je de cpu terug hebt van intel verkoop je die terug verder. Je maakt er wat verlies op, maar als het ding dan goed werkt.
nVidia heeft ook een reeks videokaarten gehad die kapot gingen, maar daar hoor ik niemand meer over klagen... Elke fabrikant heeft wel eens een productiefout.
Er zit natuurlijk een verschil tussen een productiefout die op grote schaal problemen veroorzaakt en een productiefout die op kleine schaal voorkomt. Daarom hoor je misschien meer over de ene en minder over de andere.

En als ik dan een andere tijdelijke CPU moet gaan kopen om mijn CPU op te sturen, kan ik net zo goed meteen overstappen naar AMD. Ik ga toch geen geld weggooien voor iets dat niet mijn fout is?

[Reactie gewijzigd door Toonen1988 op 20 december 2025 14:17]

.oisyn Moderator Devschuur® @Toonen198820 december 2025 16:40
Het punt is natuurlijk dat je je cpu makkelijk kunt vervangen als dat Intel blijft met dezelfde socket. Als je voor amd gaat moet je er ook meteen een nieuw moederbord bij kopen.
Helaas staat mijn vertrouwen in Intel op een laag pitje. Dan lijkt het me logisch dat je dan automatisch aan de concurrent denkt. Dan kan ik mijn moederbord ook weer een upgrade geven.
Ik refereerde bewust naar nVidia omdat dat een GIGANTISCHE productiefout was. Sinds dat geval weigert bv Apple nog met nVidia te werken.

Ik kan mij ook nog een geval herinneren dat mensen een cpu nodig hadden om de bios te flashen voor dat ze hun nieuwe cpu konden gebruiken, maar herinner mij niet meer of dat AMD of intel was (er waren toen cpu's die rondgingen hier op het forum :D )
Je kun voor garantie toch ook gewoon naar de winkel waar je de cpu gekocht heb? klinkt gewoon als dat je een slecht exemplaar heb gekocht, en nu gewoon een reden wil hebben om over op amd te gaan.
Zie reactie boven, wanneer je vetrouwen verliest in een merk, dan denk je automatisch aan de concurrent. Wat met de 13th en 14th generatie is gebeurd, is niet niks.

Ik kan eens contact opnemen met Megekko. Heb vanuit Intel twee jaar extra garantie gekregen als goedmakertje.

[Reactie gewijzigd door Toonen1988 op 20 december 2025 18:58]

Tja, ik had met mijn Ryzen 5950X ook even stabiliteitsproblemen. Als de CPU onder een bepaalde kloksnelheid ging sloot de PC af. Tijdje geregeld met een overclock, later door microcode update gefixt.
Your mileage may vary. ;) Ben er zelf nu net na een maand of 4 achter wat de opstart/bsod/freeze problemen bij mijn 9800x3d veroorzaakte (hoop ik). Na heel wat zoek en test werk(o.a. PBO settings, EXPO, zelfs resizable bar) lijkt het een weer eens onbekende variable; Memory Context Restore. Zo'n irritante setting die het booten(POST)sneller laat verlopen, maar vooral gedoe oplevert. Waarom staat dat aan? Ik heb geen haast, maar vind het wel erg vervelend zoveel tijd aan een probleem kwijt te zijn. Het had niet veel gescheeld of ik was extra componenten gaan kopen om te testen. En dit is niet de eerste keer, mijn vorige AM4(3900x) had CPU of chipset USB-poorten(weet ff niet meer welke van de twee) die op de raarste momenten storingen vertoonde(disconnects). Na het wisselen van alle USB devices naar CPU(of andersom) was het opgelost.

Op de twee Intels die ik ervoor had(i7 920 en i7 4770k) had ik zulke tijdvreters echt niet.

En over het idle verbruik van AMD ben ik ook niet heel erg te spreken als ik eerlijk ben. Daar tegenover staat de snelheid(ook voor wat je ervoor betaalt) die echt prima is, maar het gooit mij iets teveel curveballs en vraag me af of ik niet liever een algemeen bekend duidelijk aanwijsbaar hardware defect zou hebben.

Ik ben er in elk geval nog niet uit of het de volgende keer AMD of Intel wordt, maar dit artikel stelt me in elk geval gerust dat ik gerust voor de andere partij kan kiezen zonder er teveel voor in te boeten.
Interessant, ben benieuwd naar 2x dingen:
  1. Wat is het stroomverbruik van deze "top" modellen...ik ga ervanuit dat AMD efficienter blijft
  2. Gaan ze er uberhaupt van verkopen als DDR5 nog onbetaalbaarder is.....
Die Ultra 9 topmodellen zouden wellicht wel voor multitasken beter presteren met zoveel cores !

We zullen het zien, eerst maar eens de onafhankelijke benchmarks afwachten ;) :)
Vroeger lag AMD voor op Intel, toen Intel zolang vasthield aan die 14 en 10 nm procedés.

Maar tegenwoordig hangen beiden nu rond de 3-5 nm procedé. Arrow Lake is flink zuinig voor de prestaties die ze leveren en ook de hitteontwikkeling is laag, dus efficient. Een 285K blijft koeler dan een 9950X.

Ik ben erg benieuwd ook naar de volgende Intel en AMD vernieuwingen. 1 van beiden wordt mijn volgende PC. Hopen dat de RAM prijzen dan ook weer wat gunstiger zijn.
Mooi dat AMD concurrentie krijgt, maar zijn 52 cores dan niet wat veel? Ik bedoel meer L3 Cache legt de focus op games, en er is er niet een die zoveel cores gebruikt. Natuurlijk heeft L3 Cache ook andere voordelen, 32 E Cores vind ik onzin. Maak het dan bijv. 32 P Cores en 16-E Cores. Want daar kan je veel meer uit halen. Maargoed intel heeft nu moeilijke tijden dus ik hoop voor ze dat ze het wat recht kunnen zetten
Het is de vraag wat veel is en voor wie of wat. Voor de een zijn 8 cores genoeg en voor de ander zijn 256 cores nog niet genoeg. Voor zover ik weet, zijn de nieuwe E-cores ook veel beter dan de oude E-cores en presteren ze meer als de P-cores van de vorige generatie.
De E cores van Arrow Lake konden al op 5000mhz draaien. En was daarmee veruit superieur over Hyperthreading. Er zit wel een factor 2 bijna in als ik het terugreken naar de Hyperthreading van Intel en AMD van huidige en vorige generaties. En komende E cores van Nova Lake zullen niet trager zijn, eerder nog sneller.
Het grootste nadeel van Intel Cpu's vond ik dat je altijd een nieuw moederbord kon kopen bij een nieuwe Cpu.
Nu ik mijn AMD 7800x3d ga upgraden naar een 9950x3d hoef ik verder niets meer te vernieuwen.
Dat hoefde ik bij Intel ook niet, kon prima van een 13700K upgraden naar een 14900K zonder het moederbord en geheugen te moeten veranderen.

Jij hebt voor die 7800 ook een nieuw moederbord moeten kopen, 1 generatie behouden heeft ALTIJD bij Intel ook gekund. En 3 processoren op een moederbord kopen, daar wint AMD het wel theoretisch met AM4 alleen. Maar de praktijk wijst uit dat ZEER weinig mensen dat doen of deden. Dus heeft Intel geen nadeel daar op AMD.

Dit wat je noemt is een soort dooddoener, een probleem wat nauwelijks tot niet bestaat. Je hebt ook features op moederborden en heel lang op je moederbord blijven hangen heeft ook nadelen. Die cycle na 2 generaties processors weer upgraden houdt niet voor niets al decennia staande bij zowel Intel als AMD.
Jij hebt voor die 7800 ook een nieuw moederbord moeten kopen, 1 generatie behouden heeft ALTIJD bij Intel ook gekund.
Alleen als je op het juiste moment inkoopt natuurlijk. Dat is ook een reden dat die kortere upgradecyclus belangrijk is, bij intel zit je 50% op de tijd op de laatste generatie van een socket, bij AMD 33%.

Ook op het gebied van ewaste zou ik veel liever zien dat ze allebei veel meer in de richting van lange termijn stabiele sockets gaan.

[Reactie gewijzigd door Llopigat op 20 december 2025 22:16]

Nu ook nog eens de socket meer dan 2 generaties mee laten gaan en ik ga misschien wel over. Dat vind ik eigenlijk een veel belangrijker punt. Mijn AM4's hebben ook meerdere generaties doorgemaakt <3 En ik zit nog steeds op AM4 zelfs en zal dat voorlopig ook wel blijven nu de prijzen voor DDR5 zo hoog blijven.
AM5 doet ook alleen 7000 en 9000 generatie en dan is het over.

En het aantal mensen dat 3 generaties processors doet op AM4 is/was op één hand te tellen. Veruit de meeste mensen doen 1 generatie op een moederbord, een minder aantal al 2 processors.
Nouja voor mij is het een belangrijk punt, ik heb alle generaties op AM4 gehad.. Ik ga niet over naar intel als ze het zo blijven doen. Ze lopen gewoon expres de moederboard fabrikanten te sponsoren.

Van AM5 is het idd jammer maar hopelijk is AM6 weer wat beter wat dat betreft. Dan sla ik AM5 gewoon helemaal over. Voor mij is het zeker een belangrijk selectiepunt. Zoniet het belangrijkste. Kan best zijn dat weinig mensen het doen maar ik doe het zeker wel. Ik koop ook altijd een heel goed moederboard zodat ik er lang mee vooruit kan.

Ik heb met mijn 4090 een iets van 2% performance verlies door een oudere PCIe versie maar die extreem kleine verbetering is zeker geen prijs van een heel nieuw moederboard waard. En het gedoe van alles uit elkaar schroeven elke keer, vaak ook weer een nieuwe koeler enz.

[Reactie gewijzigd door Llopigat op 20 december 2025 22:13]

Er word verondersteld dat de zen 6/7 cpu’s ook AM5 gaat worden
Allemaal mooi, maar ik denk dat de pipeline bij AMD ook niet leeg is, die hebben al 3 jaar kunnen nadenken.

Om te kunnen reageren moet je ingelogd zijn