Details van 'Core-1800' Alder Lake-cpu met 16 cores en 24 threads verschijnen

Er zijn details verschenen van een engineering sample van een zogenaamde Intel Core-1800-processor. Het gaat om een desktop-cpu van de Alder Lake-generatie, die op 10nm wordt gemaakt. De chip heeft 16 cores en 24 threads en een tdp van 125W.

Volgens de gedetailleerde specificaties die Igors Lab online heeft gezet, haalt de processor een Turbo Boost van 4,6GHz met maximaal twee cores actief. Als alle acht de krachtige cores aan het werk worden gezet, is dat 4GHz. De acht Atom-cores draaien op maximaal 3,4GHz en dat is 3GHz als alle acht de cores aan het werk zijn.

Intel Alder Lake-processors bestaan uit krachtige Golden Cove-cores gecombineerd met zuinige Atom-cores. Eerstgenoemde hebben Hyperthreading, de laatstgenoemde niet. Daardoor is het aantal threads niet het dubbele van het aantal cores.

De processor heeft een tdp van 125W maar ook een PL2-limiet van 228W. Tijdens een korte periode van 2,44ms kan dat vermogen aangehouden worden. De PL1-limiet van 125W is 56 seconden vast te houden. De opgegeven waarden liggen dicht in buurt van die van de huidige 14nm-Rocket Lake-processors. De topmodellen van die serie hebben een PL1 van 125W en PL2 van 251W.

Het is niet duidelijk of Core-1800 de definitieve naam is van de processor. Het gaat om een B0-revisie, ofwel een vroege versie van een engineering sample. De kloksnelheden van dergelijke processors zijn meestal lager dan van uiteindelijke producten. De naam lijkt te verwijzen naar de basiskloksnelheid van 1,8GHz, maar die zou dus hoger kunnen uitvallen.

Intel heeft begin dit jaar al bevestigd dat de Alder Lake-processors op 10nm worden gemaakt en later dit jaar uitkomen. Verdere details heeft de fabrikant niet vrijgegeven, maar er is al veel informatie over uitgelekt. Zo is bekend dat de processors een nieuwe LGA1700-socket gebruiken en ondersteuning voor DDR5 en PCIe 5.0 krijgen. De processors werken niet op huidige moederborden.

Eerder uitgelekte Intel Alder Lake-S-marketingslide

Door Julian Huijbregts

Nieuwsredacteur

05-05-2021 • 13:31

47 Linkedin

Lees meer

Reacties (47)

47
46
25
5
0
19
Wijzig sortering
Het is dus nog maar de vraag hoe de Windows scheduler hier mee om kan gaan (dus big-little design). Ian Cutress heeft hier heeft het hier ook even over in de volgende video over Alder Lake.
https://youtu.be/0T1HBme_F4c?t=780

Edit:
Ben ook benieuwd hoe Intel dit gaat marketen want het is dus uiteindelijk trager dan de Ryzen 9 5900.

Alder Lake is waarschijnlijk interessant gezien dat nieuwe computers een veel lagere idle moeten hebben dan voorheen, ook de reden dat Intel bezig is met hun ATX12VO standaard.

Edit 2:
Reden dat ik vragen stel bij de Windows scheduler is omdat deze met "hacks" redelijk werkend is gekregen met Bulldozer en met Ryzen in het begin moeite had met de CCX/CCD layout zoals Rudie_V terrecht aangeeft.

[Reactie gewijzigd door Sp3ci3s8472 op 5 mei 2021 14:23]

Intel zal vast nauw samenwerken met Microsoft hiervoor. Ik denk dat Microsoft ook wel verwacht dat dit soort CPU-ontwerpen de toekomst zijn. Ook AMD zou deze richting opgaan.
Wellicht interessant:
AMD heeft een patent op een big little implementatie waarbij een kleinere zuinige core met minder functionaliteit naast een grotere core gebruikt wordt en deze voor het OS zichtbaar is als een enkele core.
Hierbij kan er maar 1 van de 2 cores gelijktijdig actief zijn.

Beter samengevat:
https://www.reddit.com/r/...5%88%B6%E7%A8%8B/gw46vsv/

Analyse van dit patent:
https://coreteks.tech/art...heterogeneous-revolution/

[Reactie gewijzigd door Icingdeath op 5 mei 2021 14:14]

Zeker wel een interessant idee. Als ik het goed begrijp, moet de hardware dan automatisch detecteren welke workloads (bvb complexe instructiesets) de grote core nodig hebben; anders zal de kleine core actief blijven. Dat klinkt wel vernuftigd, maar ik vraag mij wel af wat de uiteindelijke winst van zo'n implementatie is. Of is het gewoon een manier om de efficientie van 1 'CPU core' te verhogen? Immers kan het zo zijn dat de little core misschien 5GHz draait bij 10W, terwijl de big core maar 4GHz haalt bij 10W verbruik. Aangezien de big core enkel wordt ingezet om bijvoorbeeld AVX2 te draaien, dan heb je daar een AVX offset te pakken.

Feitelijk draait 1 CPU core dan in verschillende rekenmodussen die indien nodig opgeschaald/afgeschaald kunnen worden, net zoals ook dat frequentie op/afgeschaald wordt afhankelijk van de workloads. Het past eigenlijk compleet in het plaatje hoe CPUs nu werken.

Voor de chip ruimte hoef je het niet te doen, aangezien nog steeds 1 big + 1 little core wordt geimplementeerd per enkele CPU core. Daarin kan de little core ook niets bijdragen aan (sommige) multi-core workloads, wat wel mogelijk is met een M1 of Intel chip. Daarin zie ik het meer een implementatie detail voor efficientie verbetering.

Het maakt de software wel super triviaal: want het is compleet backwards compatible. Dat is niet zo voor big-little waarbij de scheduler rekening moet houden dat de kleinere cores bijvoorbeeld geen AVX2 ondersteunen. De scheduler zou dan of meer informatie van applicaties moeten krijgen (bvb ik heb wel/geen AVX2 nodig, dus schedule mij wel/niet op een big core); of dat de scheduler naar de least common divisor op zoek moet gaan (niets kan AVX2 meer gebruiken).

Persoonlijk denk ik niet dat heterogene CPUs (op OS niveau) in de desktop of enterprise heel veel zal toevoegen. IMO is het alleen maar gedoe: ipv 8+8 cores zou ik liever een 12+0 core chip zien. Dan weet je tenminste dat alle workloads die je hebt opschalen van 1C naar 12C. Hoe dat onderhuids efficient wordt gedaan, is zoals gezegd, dan een implementatie detail geworden.
Voor mobile/laptops kan heterogeniteit interessant zijn vanwege energie verbruik.
Dat ben ik met je eens. Ik denk eerlijk gezegd dat Microsoft sowieso die richting op moet gaan als ze ARM serieus willen adopteren.
MS wil ARM best Amarmen maar probleem met windows en arm blijft vele x86 software die via trage emulatie moet draaien. Wat dat betreft heeft MS een nadeel ten opzichte van apple die gewoon naar arm omgaat en software bouwers moeten maar volgen. Apple op de desktop kan dat maken gezien relatief kleine marktaandeel.
MS op de desktop is vele malen groter. Lees je dan nog hoeveel mensen er nog met windows 7 en zelf nog dos software draaien dan zal veel software nooit naar arm omgezet worden (helaas)
Wat ook jammer is, is dat het lijkt alsof MS exclusief met Qualcom bezig is voor de snellere emulatie.
Apple heeft met Rosetta 2 juist kunnen bewijzen dat x86 software best te "emuleren" is. Er is geen reden dat dat niet zou lukken in Windows.
Apple heeft natuurlijk wel een track record op dat gebied. Apple gebruikers weten dat Apple dit goed beheerst. Qua technologie moet het met Windows natuurlijk ook prima kunnen maar dan moeten Windows gebruikers er wel vertrouwen in krijgen.
MS kan op arm ook x86 emuleren. Probleem is alleen dat de snelheid voor veel software dan brak is. Een high end arm geeft bij emulatie een low hooguit medium snelheid x86. Let wel dit is onder windows.

Apple heeft natuurlijk haar eigen hard en software en zou beste kunnen dat de x86 apple emulatie naar apple software en os sneller is.
Toch zie ik hier wel toekomst in, ik draaide Windows 10 ARM op mijn MacBook Pro M1(16gb) en heb voor de grap een aantal games geinstalleerd. Ik haalde bijvoorbeeld in GTA IV rond de 40FPS (stabiel) op 2560 x 1600 met de alle instellingen op max (excl. Night shawdow). GTA 5 loopt op 1920 x 1200 op medium instellingen rond de 30fps (stabiel). Ik gebruik hiervoor 4 cores & 8GB RAM.

Na de laatste Parallels & Windows updates heb ik ongeveer 30% meer performance ten opzichte van enkele maanden geleden, ik denk dat hier nog veel meer uit te halen valt. Uiteindelijk over een aantal jaar zullen de meeste mensen (thuis & office) overstappen op ARM omdat X86 niet meer rendabel zal zijn in de zin van prestaties, warmte, accuduur & mobiliteit.
Windows heeft al ondersteuning voor het BIG.little concept. Dat hebben ze een paar W10 versies geleden toegevoegd. https://www.techpowerup.c...id-topologies-benchmarked

Bulldozer was anders, 2 ints per 1 float core moest apart ondersteund worden. Heel ander concept en iets dat we sinds de *86 generatie niet meer gezien hebben. (Toen je float co-processors toe kon voegen aan je PC).
Het is aan te nemen dat Intel hier al mee bezig is met Microsoft en we geen AMD-achtige toestanden gaan krijgen met de schedular en CCX/CCD-en.
Microsoft heeft Windows al geschikt gemaakt voor ARM. Het zou me verbazen als ze daar niet al serieus werk hebben verzet om de scheduler geschikt te maken voor big.LITTLE CPU’s/SOC’s
Als ik de 'hidden' power options van Windows eens bekijk (iig sinds 1809 aangezien ik laatste LTSC gebruik) zitten er allemaal opties in voor heterogenous processors dus ze zullen daar in ieder geval al behoorlijk lang aan hebben gewerkt.

Volgens mij gaat het vooral om application support die fatsoenlijk aangeeft op welke cores bepaalde taken het liefst uitgevoerd moeten worden. Als de windows cpu scheduler een beetje moet gaat gissen... dan weet je het wel en zal het toch minder werken misschien.

[Reactie gewijzigd door Marctraider op 5 mei 2021 18:55]

8 cores zijn meest waarschijnlijk Atom cores dus eigenlijk maar 8 big cores...
Ik weet niet als ik me hier goed over moet voelen...
Daar heb je gelijk in. Je krijgt dus eigenlijk een 8c/16t normale chip met daarnaast nog 8c trage atoms. Intel moet ook niet proberen dit gelijk te stellen aan de 5900x; of ze hopen dat mensen hierin trappen.

Ik sluit mij aan bij de rest van de mensen, je kan het eigenlijk dus geen 16c cpu noemen want dat is het niet.
Al gaat het hier om een test sample, Wauw! dat is hoog 228W DTP voor een 16-cores. Bij de Ryzen 9 5950X 16-cores is dit slechts 105W op 7nm+. Dit is zelfs al op 10nm. Eens zien hoe dit is bij officiële processor.
Er is helemaal geen sprake van een 228W TDP, er is sprake van een 228W PL2 waarde. Dat is niet het TDP.

Bij Intel heb je standaard 2 PL waardes:

PL1 = gelijk aan het TDP, in dit geval 125W. Het TDP van deze sample is dus 125W.
PL2 = het maximum verbruik tijdens het boosten. In dit geval 228W (voorbeeld, bij de 11900K en 10900K is deze PL2 waarde 250W wanneer je de Intel stock specificaties volgt).

Verder zou ik me niet direct blindstaren op TDP's, een TDP zegt wat over de benodigde koeling bij gebruik binnen de specificaties van de fabrikant.
Ergens klopt er iets niet. De screenshot spreekt eerst van Number of Processor Cores: 16 en Number of Logical Cores: 24. Dit is nogal vreemd. Dit zou betekenen dat, van de 16 cores, er blijkbaar 8 niet meedoen met hyperthreading. 8 van de 16 cores mét HT, de resterende 8 zonder HT: 8+8+8 = 24.

Maar even verderop in het screenshot staat:
Number of CPU cores: 8 (8 Core, 8 Atom)
Number of logical CPUs: 16 (16 Core, 8 Atom)


Het spreekt zichzelf tegen dus.

[Reactie gewijzigd door JumpStart op 5 mei 2021 13:47]

Tegelijk - de cpu heeft 8+8 cores (Big.little) - als die 8 "Big" cores dual-threaded zijn kom je aan (16+8) = 24 logical cores, op zich dus niet zo'n vreemd aantal in dat geval. En op het schema staan ook 8 kleine en 8 grote cores.
Intel Details Intel Alder LakeAlder Lake-processors bestaan uit krachtige Golden Cove-cores gecombineerd met zuinige Atom-cores. Eerstgenoemde hebben Hyperthreading, de laatstgenoemde niet. Daardoor is het aantal threads niet het dubbele van het aantal cores.
Het staat daarnaast op de foto. Daar staat dat er 8 Golden Cove-cores zijn, en 8 Atom-cores. Daaronder staat dat er 16 Golden Cove-threads zijn, en 8 Atom-Threads, omdat de Atom-cores geen hyperthreading hebben. ;)
Maar, als je dan dus met een hybride-soort processor uit komt met grote en kleinere energie-zuinigere cores erop..

Waarom is dat TDP dan zo achterlijk hoog? Om dan nog niet te beginnen over de 228W peak.
Omdat de systeemkoeling nog wel ontworpen moet worden op hoge prestaties met een hoog verbruik. Bovendien is de TDP bij moderne CPU's lager dan het maximale verbruik. De PL2 waarde ligt hoger dan de TDP. De TDP zegt alleen hoeveel warmte de koeling moet kunnen afvoeren om de CPU binnen de normale grenzen te houden. Als er meer ruimte is in het energie- en warmtebudget dan kunnen de cores harder en langer boosten door een hogere kloksnelheid en spanning te gebruiken en dus ook meer energie te verbruiken.

Het idee van de zuinige cores is dat er relatief goedkoop en energiezuinig cores toegevoegd kunnen worden die kunnen werken aan taken met een lagere prioriteit of met een lagere belasting op de CPU.

Zo zou een CPU bij dagelijks gebruik minder aanspraak moeten doen op de minder efficiënte cores maar heeft hij toch genoeg power om bij zwaardere belasting goed mee te kunnen.

Ik vraag mij wel af hoe het besturingssysteem gaat weten welke taken aan welke (virtuele) core moeten toegewezen worden. Of zou de CPU dit zelf kunnen bepalen op basis van de belasting en het type van taak dat uitgevoerd moet worden?

[Reactie gewijzigd door Admiral Freebee op 5 mei 2021 15:47]

De PL1 en PL2 waarden liggen hoger dan de TDP.
Dat klopt niet, PL1 is bij Intel gelijk aan het geadverteerde TDP binnen de Intel specificaties.
Oeps, je hebt gelijk. Ik pas het aan :)
Omdat hij het kan. Maar in idle/omstandigheden waar het niet nodig is gewoon zeer zuinig kan draaien. Gemiddeld gesproken moet je zuiniger uit zijn.
Alle CPU's verbruiken in full load wel meer dan het opgegeven standaard TDP.

En die TDP van 228W is slechts voor korte duur.
De processor heeft een tdp van 125W maar ook een PL2-limiet van 228W. Tijdens een korte periode van 2,44ms kan dat vermogen aangehouden worden. De PL1-limiet van 125W is 56 seconden vast te houden.
Hmmm, mooi is dat; daar moet je dus goed rekening mee houden bij het plaatsen van een voeding.

Als je processor max 228W kan trekken, je videokaart bijvoorbeeld max 350W (RTX 3080), je overige componenten (hdd, ssd, bord, geheugen, usb devices, ventilators, waterpomp, etc.) bij elkaar max 150W, dan heb je dus een voeding nodig die als snel richting de 750W kan leveren terwijl de processor dat hoge verbruik maar een fractie van een seconde per keer kan en de videokaart waarschijnlijk ook.
De rest van de tijd draait die voeding dan buiten z'n optimale zuinige bereik en is een Gold/Silver/Bronze certificering ineens een stuk minder waard en wordt er al snel in idle richting 50W verspeeld door de voeding wat in mijn geval bijna net zoveel is als het verbruik van ALLE verlichting in huis bij elkaar.
Kijk maar eens op https://en.wikipedia.org/...nit_(computer)#Efficiency
Plus nog dat moederbordfabrikanten in hun bios andere waardes kunnen hanteren voor de PL1 en PL2 waardes.

https://www.hardwaretimes...xplained-pl1-pl2-and-tau/
However, for better or for worse, Intel doesn’t enforce the PL2 and Tau values, and motherboard vendors are free to set them as they choose in the firmware. As such, most high-end Z series motherboards have a PL2 and Tau values much higher than the ones prescribed by Intel. For example, the Core i9-9900K has a PL2 value of 119W, but most OEMs set it as high as 160 or 180W while making Tau infinite.
Even vanuitgaande dat dit ook bij Alder Lake mogelijk is.

Edit:
Het klopt dat voedingen hun efficiëntie niet op elke belasting halen, maar het is misschien minder erg dan je denkt. Zie:
13 SFX-voedingen tot 750 watt review: klein krachtvoer
https://nl.hardware.info/...in-krachtvoer-efficientie

[Reactie gewijzigd door Rudie_V op 5 mei 2021 14:42]

Het is al jaren zo dat de power-load van de CPU en videokaart gigantisch flexibel is. Een leuke RTX3080 kan 'idle' in 2D misschien eens 15-20W vragen en onder full-game load wel 350W. Dat is echt niets nieuws.

Een beetje nette voeding heeft eigenlijk altijd wel 80% efficiency, zelfs bij 40-50W load (PC idle met dikke videokaart en CPU en onzuinig moederbord) waardoor die tov. zijn Gold-efficiency (90%) misschien eens 5-6 meer W verbruikt. Dus die 50W extra verknapt door de voeding is echt zwaar overdreven.
20% verlies op 750W is 150W en 20% verlies op 450W is 50W, dus flink wat verlies extra in Watts.
In het gebied van lager verbruik, zo tot ongeveer 50W, zijn veel zware 750W voedingen nog een stuk minder efficiënt dan die 80% en zal op een verbruik van 150W de efficiëntie eerder richting de 70% gaan en dan zit je op een verlies van bijna 50W.
Dat vind ik persoonlijk erg jammer en dat is waar ik op wijs. Ik rond daarbij wel een beetje af; iets dat de producenten van voedingen en moederborden blijkbaar ook doen.
20% verlies op 450 watt is 90 watt.

Als je een goede voeding koopt zit je boven de 90% (bij 450w 45w verlies) en met high end (platinum) haal je 95%... (bij 450w 22-23w verlies) 80 plus voedingen zitten vaak al op 83 tot 85% efficiency

Dat scheelt. Dus 80+, bronze, silver, gold, platinum zijn op zich wel relevant... Veel van de verloren energie is inefficiëntie en daardoor veroorzaakte warmteontwikkeling, en de fan in de voeding....
Meestal kan een voeding ook wel iets over het effectief wattage heen dus 750x0,85 =637,5 die haalt wel 650 misschien zelfs wel 675 of 700, maar je loopt wel kans op onstabiele voltages, en daardoor instabiliteit met verlies of corruptie van data en overmatige warmteproductie van de voeding tot gevolg, ook kan de voeding zichzelf uitschakelen dmv overbelastingsschakelingen...

Ik gebruik altijd wat marge, scheelt ook een nieuwe voeding kopen als je een iets zwaardere Gpu koopt.
TDP en Piek zijn niet hetzelfde.

Ik ben altijd wel een undervolter geweest en stel veel prijs op een stabiele voeding, aangezien voltage dipjes vaak leiden tot crashes bij systemen waarbij het voltage geminimaliseerd is. Bij overklokken zonder undervolting, was en is extra ruimte heel belangrijk.... Mijn oude i7 3930k (3,2ghz, boost 3,8ghz) was130w basis en op piek oc-ed naar 4,5Ghz met extra voltage van boven de 275watt, de Gpus toen 2x gtx780 waren 250w/stuk als die beiden aan het boosten waren trok het systeem met oc processor net geen 1000 watt continu.

Voeding was bronze 80+ (85%+)iirc 1400- 210(efficiency) 1190W effectief... Ik had een initieel 1200 aangesmeerd gekregen en uiteindelijk toch gestaan op 1400, winkel bood me aan systeem te testen op de 1200 80+ en kreeg hem niet geboot @4,5Ghz. Reken ook maar uit 1200-240= 960, en de piek belasting bij het opstarten zette elke keer de voeding stop.

Het systeem heeft uiteindelijk 7 jaar probleemloos gedraaid, uiteindelijk undervolted op 4,2 hetgeen 1200 watt wel mogelijk had kunnen maken waarschijnlijk. Uiteindelijk niet geupgrade bij 980(ti) en zelfs de 1080(ti) gepasseerd. Het ongebruikte geld uiteindelijk gestoken in mijn huidige pc.

Nu R9 5950x uv @4,3Ghz @1.07v all core stabiel met 32 threads en Gpu 100% (cloud computing) op 800 watt platinum voeding. Als het goed is kan daar nog een 3080 of 3080ti in zonder dat ik de PSU hoef te vervangen, maar de 2070S moet er dan wel uit. Dan moet ik terug naar de 1400 watt voeding...

Duidelijk geen laptop :)
De PC staat in de kast...
Ik denk dat je een beetje overdrijft.

Als je geïnteresseerd bent in efficiency dan kies je een 80+ voeding. Een beetje voeding in de 80+ range heeft misschien tussen de 80 en 90% eff. over zijn output-bereik. zie bv. https://en.wikipedia.org/wiki/80_Plus

Die 3-5% efficiency die je dan 'wegpist' is toch maar een paar Watt extra tov. de maximale efficiency van die voeding.
Alle CPU's verbruiken in full load wel meer dan het opgegeven standaard TDP.
Alle is te breed. Er zijn zeker (ook moderne) CPU's die niet meer verbruiken dan de TDP.
En die TDP van 228W is slechts voor korte duur.
Incorrect. Dat is een instelling van je moederbord.
Voorbeeld op Anandtech: POV-Ray op een Core i7-11700K. TDP is 125 Watt, maar verbruik tijdens de test (~10 minuten) is ~225 Watt.
https://tweakers.net/ext/i/2004340974.jpeg
In het plaatje staat dat de PL2 TDP slechts 2,44 ms geldt, daarom zei ik dat die TDP van 228 watt slechts voor korte duur is.

Maar ik vond het al erg vreemd dat het zo kort is, 2,44 ms is niet lang natuurlijk. Ook al omdat het in mijn link anders werd verteld.
TDP zegt enkel iets over de koelingsnoodzaak. Puur hypothetisch zou het best zo kunnen zijn dat deze CPU met zijn stevige TDP in de praktijk (97 - 99% idle) zuiniger is dan een CPU met een TDP van 35W. Zie het als een range van performance; je moet je koeling op basis van enigszins worst case scenario ontwerpen, dus vandaar de hoge TDP.
Ik vind het overigens een mooie ontwikkeling, om verschillende types cores te hebben. Bij telefoons is dat ook al enkele jaren succesvol.
Het lijkt erop dat alles wat mis kan gaan, ook daadwerkelijk is misgegaan bij het ontwerpen van deze processor. Het is goed dat Intel nieuwe dingen probeert, maar ik zie niet in hoe dit product beter is dan een 8/12/16-core AMD of ARM processor, waarbij de laatste wel erg zuinig lijkt te worden.

Ik zie meer in een processor met 4 Core en 4 Atom cores om het stroomverbruik laag te houden, maar dat zou dan eerder een midrange product zijn.
De CPU heeft 16 cores:
8 Core en 8 Atom -> 8 Big en 8 Little

De "Core" cores hebben HT dus:
Logical CPU 16 Core en 8 Atom

16 CPU Cores, 24 logical CPUs
Het lijkt mij dan beter om te spreken van 16C/24T zoals eigenlijk gangbaar is.
Zelfs dat vind ik lastig, ik zou eigenlijk zeggen 8+8C/16T, 16C/24T doet voorkomen alsof het 16 dezelfde cores zijn.
dit gaat toch niet sneller zijn dan een 5800x waarbij alle 8 "big" cores op 4.6+ ghz kunnen draaien?
Dit is een engineering sample en het kan dus zijn dat de 'echte' processoren hoger boosten. Daarnaast kan het zijn dat de IPC-verbeteringen dusdanig zijn dat het alsnog genoeg is om de 5800x te kunnen bijbenen. Ook heeft deze CPU natuurlijk de 8 Atom cores die iets meehelpen bij multithreaded applicaties.
En misschien is dit een niet-K model en komt er een 1800K met een hogere TDP en boost.
Hybride CPU: ik weet het zo net nog niet. Alder Lake wordt dus een soort processor tussen het (aankomende) Arm geweld en Ryzen in.

Alder lake zou dus best of both worlds moeten zijn, maar ik denk dat mensen een processor kopen voor Office taken of voor highend bewerkings-taken of voor games.

Voor de eerste 2 zou Arm wel eens de kampioen kunnen worden en voor het laatste nog steeds een vette x86 processor.

Echter hybride auto's werden ook eerst meer verkocht dan EVs dus misschien wordt Alder Lake wel de eerste van het winnende concept voor de komende paar jaren.

Als Intel zou ik weer meer inzetten op productie en daarnaast hun GPU tak een keer top gaan ontwikkelen.
Mensen die een processor kopen voor games of andere CPU intensieve taken zullen ook af en toe wat lichter werk doen. Als ik overdag aan het programmeren of browsen ben zullen 2-4 atom cores prima zijn. Ga ik vervolgens de boel compileren of start ik een game op dan is het fijn dat ik een boel snelle cores heb.

Bij ARM heb je natuurlijk hetzelfde big.LITTLE verhaal omdat snelle cores nou eenmaal meer verbruiken dan zuinige (en daardoor langzamere). Ik vind het dus wel een logische stap, al snap ik niet waarom er gekozen is voor zoveel zuinige cores. 2 tot 4 lijkt me meer dan genoeg en is nog weer een stuk zuiniger.

[Reactie gewijzigd door Moortn op 5 mei 2021 15:41]

Het "probleem" is eigenlijk niet, hoeveel cores er actief zijn maar op welk snelheid qua TDP/verbruik.
Voorbeeld; Ik heb een half defecte i7 liggen. Als ik aantal cores van 4 naar 2 breng, dan werkt deze prima en voluit. TDP is daardoor niet naar beneden gegaan met minder cores, maar hetzelfde.
Ik denk dat je even uit je bubbel moet komen. Omzet Intel: 78 miljard, omzet AMD: 9 miljard. Ze zitten nog heel ver van die troon af.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee