Cookies op Tweakers

Tweakers is onderdeel van DPG Media en maakt gebruik van cookies, JavaScript en vergelijkbare technologie om je onder andere een optimale gebruikerservaring te bieden. Ook kan Tweakers hierdoor het gedrag van bezoekers vastleggen en analyseren. Door gebruik te maken van deze website, of door op 'Cookies accepteren' te klikken, geef je toestemming voor het gebruik van cookies. Wil je meer informatie over cookies en hoe ze worden gebruikt? Bekijk dan ons cookiebeleid.

Meer informatie

Gerucht: Intel komt in 2021 alleen met Alder Lake K- en KF-cpu's en Z690-chipset

Intel brengt dit jaar mogelijk alleen K- en KF-modellen van zijn komende Alder Lake-processors uit, samen met een Z690-chipset voor moederborden. Lager gepositioneerde Alder Lake-cpu's en moederbordchipsets zouden worden aangekondigd tijdens CES 2022.

Volgens bronnen van het doorgaans goed ingelichte Igor's LAB is Intel zich momenteel aan het haasten om zijn eerste Alder Lake-S-desktopchips tussen 25 oktober en 19 november uit te brengen. Dat is rond het Intel Innovation-evenement, dat in de planning staat voor 27 oktober. Intel-CEO Pat Gelsinger meldde al dat het bedrijf tijdens dat evenement nieuwe producten aankondigt.

Intel zou zich daarbij focussen op overklokbare cpu's in de K-serie, en overklokbare KF-chips zonder geïntegreerde gpu. De chipmaker zou dit jaar ook alleen zijn Z690-moederbordchipset introduceren, die is bedoeld voor enthusiasts. De rest van Intels Alder Lake-line-up zou tijdens de CES-beurs in januari 2022 aangekondigd worden, stelt Igor'sLAB. Tijdens de CES worden ook moederborden met lager gepositioneerde H670-, B660- en B610-chipsets verwacht.

De Alder Lake-line-up van Intel wordt geproduceerd op de Intel 7-node. Dat is het voormalige 10nm Enhanced Superfin-procedé van het bedrijf; Intel voorzag zijn nodes recentelijk van nieuwe namen, die een 'duidelijker beeld' moeten geven in vergelijking met concurrerende chipproducten. De Alder Lake-cpu's maken gebruik van een big.Little-configuratie, die verschillende 'krachtige' cores met hyperthreading combineert met enkele meer zuinige cores voor achtergrondtaken.

Alder Lake wordt gemaakt op het Intel 7-procedé

Wat vind je van dit artikel?

Geef je mening in het Geachte Redactie-forum.

Door Daan van Monsjou

Nieuwsposter

28-07-2021 • 16:34

40 Linkedin

Lees meer

Reacties (40)

Wijzig sortering
Ben benieuwd wat big.Little ons gaat brengen.
TDP's zijn aardig de pan aan het uitrijzen.
Voor power users, gamers weinig tot niks.

Voor regulier/office gebruik; hooguit wat energie besparing dat nergens over gaat.

Moderne CPU's (mits niet uitgeschakeld en C-states/speedshift e.d. werkt naar behoren) zijn voor desktops al zeer zuinig en schalen prima met de workload vs power consumption.

[Reactie gewijzigd door Marctraider op 28 juli 2021 16:53]

Vergeet wel niet dat je verhaal alleen opgaat voor desktops of kantooromgevingen waar altijd op stroom gewerkt wordt. Een ding met een batterij - een … laptop - gaat heel veel baat hebben bij zo’n ontwerp.
Een laptop met een high nits 13-15 inch scherm en een snelle SSD gaat nooit superzuinig wezen.

Het is geen mobieltje dat met een uitgeschakeld scherm op een whatsapp bericht zit te wachten.
In vergelijking met een HDD verbruikt een SSD amper stroom. Geen ronddraaiende onderdelen.

En wat betreft het scherm, je kunt altijd de helderheid terugschroeven.

Laptops gaan echt wel een steeds zuinigere kant op, dat zie je al als je de gemiddelde accuduur van nu vergelijkt met 2011.
Een snelle SSD gebruikt bijna evenveel stroom als een laptop HDD. Verschil is wel dat die HDD moet blijven draaien en de SSD alleen een paar watt pakt bij lees/schrijf acties.
Het verschil is alleen geen orde grootte wat je zou verwachten.
Vergeet niet de hele chipset die er nog bij komt kijken. PCIe-poorten, USB-controllers, het is allemaal niet veel maar op het idle-verbruik is het toch weer een aantal Watt. Bij een A300 of X300 (barebone zonder chipset, en met weinig aansluitingen) zie je het idle-verbruik flink teruglopen.

Maar zelfs op lage helderheid zorgt ook het beeldscherm voor een groot deel van het vebruik. Dus misschien doet big.little wel iets maar het zal echt geen wereld van verschil zijn.

[Reactie gewijzigd door bwerg op 28 juli 2021 22:42]

Een ssd gebruikt op piek 1-3 watt, ook de hele snelle.
Zeg dat verbruik slechts 2 watt minder verbruikt door kleine extra cores. In een kantoor omgeving hebben we het zomaar 10k per jaar
Voor power users, gamers weinig tot niks.
Desktop CPUs zijn tegenwoordig eigenlijk altijd TDP limited. Als je taken met simpelere, zuinigere, cores kan doen, kan je dus in hetzelfde energiebudget meer taken doen. En voor de taken waar de simpelere cores niet efficient zijn, heb je alsnog de grote cores.
Voor desktopgebruik is big.LITTLE ook gewoon geschikt mits er een redelijke scheduler is die niet-dringende (achtergrond)taken naar de Atom-cores verwijst. Dat betekent dat je performance-cores minder klokcycli hoeven te delen met achtergrondtaken. Ook zullen er vast wel manieren komen om programma’s te schrijven die alle cores maximaal benutten.
Als ik naar de releases van Intel over de afgelopen jaren kijk, denk ik dat dit vooral het enige antwoord is wat ze kúnnen geven, omdat meer cores (Big) op 1 die simpelweg niet haalbaar is. Dat zijn kolencentrales op zichzelf. Dus knikkeren ze er 8 Atoms in, die vrijwel niets gebruiken en ergens in de achtergrond nog wat werk kunnen verzetten. Zo behouden ze hun 8 Big cores, stoppen ze er 8 kabouterjes bij en gaat het totale stroomverbruik toch niet omhoog (wegens schaalverkleining: van "10FS" naar "Intel 7").
Zoals ik al eerder heb beargumenteerd heeft big little weinig zin, behalve op mobiel. Echt heterogeen kan wel zin hebben, maar puur little cores zijn gewoon een verspilling van mm2.

Alles wat je op een slome little core kan doen, kan je in een laptop net zo goed op big core doen met lage clock/volt. In alletwee de gevallen is her vermogen irrelevant (ten op zichte van het scherm en standby vermogen van het systeem). Een irrelevant vermogen kleiner maken schiet je niets mee op.
Als jouw programma getallen moet optellen en matrixen moet vermenigvuldigen. Waarom zou je dan je zware core willen gebruiken voor iets triviaals als wat getallen optellen? Dat gooi je dan op een kleine core, die goedkoper en zuiniger is, waardoor je er meer van in je CPU kan stoppen. En je grote core kan mooi de complexere taken doen.
Helaas is het niet zo simpel, die grote core kan waarschijnlijk de berekeningen sneller uitvoeren dan de kleine cores, en daarna terugklokken naar een zuinige stand. De hoeveelheid energie die een kleine core nodig heeft zou wel eens groter kunnen zijn dan een grote core.
Uiteraard is het allemaal niet zo simpel, maar je hebt gewoon ook bij cores dat als jij twee keer zoveel transistoren in een core gooit, je echt niet twee keer de performance eruit krijgt. Dat is de hele reden dat we naar multicore CPUs zijn gegaan. Als we één core hadden kunnen maken die 8x transistoren had van een normale core, en dan 8x de rekenkracht, dan hadden we die gebruikt ipv 8x CPUs.

Maar zo werkt het dus niet. Gooi er 2x zoveel transistoren in, en je krijgt misschien 40% van de rekenkracht. Dus wat dat betreft krijg je het meeste rekenkracht als je heel veel hele simpele cores op een die gooit. Echter nu is het probleem dat er limieten zijn in hoe goed programma's multithreaded zijn. En het zijn gemiddeldes, voor sommige taken kan een klein beetje extra hardware ineens de handel heel veel sneller maken.

Onder de streep is dan ook de conclusie dat er niet één optimale core-complexiteit is. Soms zou het handiger zijn om meer simpelere cores te hebben, en soms zou het handiger zijn om minder maar betere cores te hebben. En met een big-little concept heb je dus beide.
Een heterogene architectuur die de kleine cores zou willen gebruiken voor zeg code met veel pointerchasing, zal een een veel groter aantal kleine cores hebben om ook echt significante winst te halen voor die toepassing. Niet een hoekje op de die met een paar nog steeds niet zo heel simpele cores, de winst die je daar uit kan halen is te klein. Kan je beter een extra grote core hebben waar je altijd wat aan hebt.

BigLittle is voornamelijk bedoelt voor extreem lage vermogensstanden, die gewoon niet relevant zijn voor laptops.
Als dat het enige doel is dan kan je net zo goed 1 little core op een big.little concept doen. Waarom zouden ze er een hele zooi little cores op doen als hij alleen bedoeld is voor gebruik in idle mode? Je hebt dan niet 4-8 cores nodig in je telefoon.
Als we één core hadden kunnen maken die 8x transistoren had van een normale core, en dan 8x de rekenkracht, dan hadden we die gebruikt ipv 8x CPUs.
In de tijd van een enkele core waren er problemen om taken efficiënt te verdelen. Hier een klein voorbeeld in het klassieke Basic dat een enkele core volledig wil belasten als het de kans krijgt.
10 print "CPU maximaal belasten"
20 goto 10
Zoals je ziet in dit eenvoudige voorbeeld is er niets wat deze code tegenhoudt om een enkele core volledig te belasten.

Dat geeft problemen als je wilt multitasken. Daarom dat hoe snel je computer ook was met 1 core, je altijd stotteringen had in het multitasken alhoewel het wel werkte.

Bij multicore is er een rem gezet op hoeveel een programma kan gebruiken. Het voorbeeld dat 1 core maximaal belast zal andere cores met rust laten.

Multicore heeft meer voordelen dan nadelen. Zoals een user interface die niet meer stottert als een programma 1 core volledig belast.

Apple heeft in hun laatste besturingssysteem revisies duidelijke structuren aangebracht voor taken die op kleine zuinige cores draaien, een printerspooler heeft geen grote snelle core nodig bijvoorbeeld.

Taken voor menselijke interactie zijn altijd belangrijker, de grafische user interface is beter af op de snelle cores.

Multicore bracht de mogelijkheid om een computer meer op menselijke interactie te laten reageren, en zal daardoor sneller lijken te zijn voor een mens. Synthetische benchmarks zeggen niet altijd wat over hoe een mens een computer als vloeiend beschouwt.

En Big.little maakt het efficienter voor energie verbruik, en mensen willen een lange accuduur.

20 Jaar geleden was Intel optimistisch dat we op dit moment zeker 10 GigaHerz CPU's zouden hebben. Maar de Pentium 4 maakte duidelijk dat dit niet gehaald kon worden. De Pentium 3 (een stap terug) werd daarom weer gebruikt voor verdere ontwikkeling bij Intel, en de Pentium 4 werd als niet bruikbaar voor verdere ontwikkeling beschouwt.

De reden dat Intel zo optimistisch was toendertijd is omdat een enkele transistor bijvoorbeeld op 100 GigaHerz kan draaien. Een FlipFlop schakeling van deze transistoren kan ook bijna 100 GigaHerz halen.

De reden dat de miljarden transistors geen 100 GigaHerz draaien is omdat ze allemaal netjes in de pas moeten lopen. Ook het vermogen aan stroom dat loopt is bij 100 GigaHerz bij zoveel transistors exceptioneel. Maar er is nog een groter probleem. De snelheid van het licht is heel erg langzaam als je op dit soort frequenties werkt. Boven een bepaalde frequentie kan de ene kant van de chip niet meer communiceren met de andere kant van de chip binnen de tijd die er beschikbaar is omdat de afstand te groot is. Bovendien is Clockskew al jaren een probleem, je ziet dit ook op printplaten van je moederbord, elektrische signalen die op dezelfde tijd moeten arriveren moeten ook eenzelfde weg in lengte afleggen op je moederbord. Daarom dat je ziet dat bepaalde banen op je moederbord bewust langer zijn, en andere korter. De signalen leggen de dezelfde afstand af in de zelfde beoogde tijd.

Er zijn al jaren plannen waarbij een nieuw type processor bedacht wordt waarbij transistoren niet meer allemaal netjes in de pas hoeven te lopen. Dit zie je ook terug in moderne hedendaagse CPU's zoals delen binnen de CPU die video doen, delen die DSP doen, delen die Neural Networks doen. Maar asynchrone CPU architectuur is veel complexer, maar wel nodig om richting de 10 GigaHerz te gaan.
Indien een programma teveel vraagt van de kleine core zou een slimme scheduler het programma kunnen verwijzen naar de grote core.
De totale workload die little cores op zich kunnen nemen schudden de big cores uit hun mouw als ze toch al op toeren zijn.

Daarom zeg ik dat echt heterogeen wel nut heeft, als kleinere cores gespecialiseerd zijn om een belangrijke taak op hoge throughput te kunnen doen. Maar dat is niet het idee van BigLittle, de kleine cores zijn ongespecialiseerd en met nikszeggende throughput op wat dan ook.

BigLittle is voor mobieltjes. Apple wil gewoon een universele architectuur in de toekomst, dus ze doen de kleintjes overal bij.

[Reactie gewijzigd door Pinkys Brain op 28 juli 2021 18:51]

Dat ze ongespecialiseerd zijn is juist het hele punt. Die kunnen mooi de simpele taken doen, terwijl de complexe taken naar de grote cores gaan. En dat hoeft helemaal niet trager te gaan op een kleine core als op een grote core. Die grote core kan alleen veel meer verschillende en complexere instructies aan.

Als je kijk naar embedded core, dan kan een ARM M0 exact even snel integer optellingen doen als een M7F. Terwijl hij 10x zo klein en zuinig is. Het verschil komt als je bijvoorbeeld floating point operaties wil doen, dan loopt die M7F rondjes rond een M0. Maar moet je beide doen, dan kan je voor bijna geen kosten een M0 core naar je M7F doen voor de simpele integer berekeningen.

Uiteraard is het in de praktijk allemaal niet zo simpel, gezien je nu je programma ook geschikt moet hebben voor multithreading op de juiste cores. Maar het punt blijft: Kan jij een 4x zuinigere / kleinere core maken op je desktop processor die 2x langzamer is dan het origineel, dan betekend het dat je gewoon meer rekenkracht op je processor hebt. En je wil niet al je cores hierdoor vervangen, omdat je dan bij multi-threading bottlenecks vast komt te zitten.
Het voegt niks toe, geef mij liever een extra grote core waar ik altijd wat aan heb.

Als de helft van de chip kleine cores is en die kunnen een aantal belangrijke toepassingen 10x zo snel doen binnen tdp dan zou ik het nut zien. Maar voor performance is BigLittle op zijn best ge**** in de marge en veel vaker nog negatief.
Ik zie je punt hier wel.
Even praktisch, though.

Intel krijgt het niet of nauwelijks voor elkaar om meer dan 8 cores op een die te plaatsen (consumentenmarkt). Dat is bij de laatste release al gebleken. Door schaalverkleining hadden ze wellicht 2 extra cores in Alder Lake kunnen plaatsen. Al ben ik daar niet zo zeker van, gezien het gigantische verbruik van hun huidige processorlijn.

In plaats daarvan hebben ze ervoor gekozen om 8 "super-zuinige" Atoms erin te zetten. Die zijn ideaal om Windows of Linux op de achtergrond draaiende te houden. Dat houdt alle 8 Big-cores vrij voor de zwaardere taken, zoals AV, gaming, browsing, work (+active OS tasks, like touch screen, etc). Dus ik zie ergens wel de potentie ervan in.

Niet vergeten dat intel op dit moment ook bewust in hun press-releases de "unit scheduler" (of iets in die geest) meeneemt. Waarbij ik erop gok dat ze ofwel intern ofwel in samenwerking met OS serieus gefocussed hebben op strategische verdeling van taken.
Die kleinere core kan ''zuiniger'' wezen, maar is die ook energy efficienter? Want anders heb je er aan het einde van de rit nog niets aan, als die 5x zuiniger is, maar ook 5x langer moet werken voor dezelfde taak.
Of de zuinige cores moeten beschikken over een meer geadvanceerd procedee dan de ''grote'' cores, maar dat zal ook niet gebeuren.
Dat is dan uiteraard wel het idee ja. Anders ben ik het met je eens dat het niet heel nuttig is.
Zoals ik al eerder heb beargumenteerd heeft big little weinig zin, behalve op mobiel. Echt heterogeen kan wel zin hebben, maar puur little cores zijn gewoon een verspilling van mm2.

Alles wat je op een slome little core kan doen, kan je in een laptop net zo goed op big core doen met lage clock/volt. In alletwee de gevallen is her vermogen irrelevant (ten op zichte van het scherm en standby vermogen van het systeem). Een irrelevant vermogen kleiner maken schiet je niets mee op.
Je vergeet hierbij het hele auto-overclock verhaal dat de laatste jaren van toepassing is. Op basis van temperatuur en vermogen limieten worden boost clocks mogelijk die onderhand hoger liggen dan je zelf met een overclock kunt bereiken.

Kijk je vervolgens tijdens een game naar de task manager dan zie je vaak meer dan 300 processen met 4000 threads (system total) terwijl er één core heel zwaar wordt belast en een stuk of 5-6 anderen redelijk zwaar worden belast. Dit geeft eigenlijk al aan hoe big.little kan helpen. Je kunt de zware threads van de game op de beste cores draaien en doordat dit een beperkt aantal blijft kun je deze cores (nog) verder pushen dan in de traditionele situatie. Ondertussen gaat de background 'meuk' (die 300+ processen) naar de kleine cores.

Voor een laptop lijkt mij de winst evident. Met een boostende core ga je sneller door je accu heen dan zonder een boostende core. Dat komt doordat het vermogen de formule 2v * frequentie volgt. Bij hogere clocks hogeren hogere voltages en aangezien dat voltage dubbel telt gaat het éxtra snel met het verbruik. Op mijn eerste Surface, de Pro 2, was het zo erg dat ik daar handmatig de boost clock maar heb uitgezet destijds, dat scheelde een uurtje of 2 accu tijd. Tot een bepaald punt ben je op lagere clocks energie efficienter. De kleine cores zitten ongetwijfeld op een optimum wat efficientie betreft.

Overigens zijn er her en der wat leaks te vinden en daar lijkt het dat Intel met deze architectuur flinke stappen gaat maken met zowel single threaded performance áls multithreaded performance. Hetgeen beter verklaard kan worden door het bovenstaande verhaal dan door de proces node. Wat het precies gaat worden is natuurlijk altijd even afwachten.

[Reactie gewijzigd door sdk1985 op 28 juli 2021 23:25]

Ach, dat is marketing wanneer het in de winter wordt uitgebracht.
"Heat up your house efficiently whilst gaming". Intel TM
Zwoele reclame: the holidays are coming, stay warm in winter, Intel heats your home, always the real thing ;)
TDP zijn juist naar benden gegaan stroomverbruik daarintegen. Die mooie 65w TDP van AMD doet velen nog steeds denken dat amd 65 watt gebruikt. Maar het gaat om Thermal Design Power oftewel benodigde vermogen om te koelen.

Beide een 5800x of een 10900k gebruiken tijdens gamen even veel. 11th gen is gewoon en grove error en die zou ik dan ook niet komen. Daar is gewoon iets goed fout gegaan.
Intel probeert zijn 10-pin PSU aansluiting te pushen door de Z690 chipset wat goedkoper aan te bieden met die aansluiting.

Vooral SFF rigs zullen hier wel wat voordeel mee doen.

Je kent die nieuwe 10-pin voeding al van op de RTX 30 kaarten (al heeft die daar 12 pinnen) 😀
als Intel iets wil pushen dan is het wel ATX12VO

lekker uitgebreid artikel bij gamersnexus of video van steve als je wat slaperig wil worden :+
Die standaard gebruikt dus die 10-pin stekker 😀
als dat het enige was, dan was het simpel, net zoals de RTX 3000 Founders editions een verloopstukje en klaar, maar ATX12VO gaat zoveel verder, het maakt moederborden een pak duurder en complexer én de voedingen zijn amper te vinden en zijn dus óók duurder
+ Zowel voedingsfabrikanten en grossiers zijn er niet voor te vinden.
Wat ik heb gezien, is dat het in idle echter serieus veel scheelt (-40% ofzo).
Maar ja. Waar hebben we het dan over?
Een paar tientjes per jaar?
Vallen hier ook de laptop cpu's onder? Deze worden dus mogelijk pas in 2022 aangekondigd?
Klopt, er zijn heeel weinig laptops met een K chip in
Op zich geen gekke gedachte om eerst de parade paardjes te presenteren en uit te brengen. Nvidia en AMD doen dat ook met hun videokaarten.

Bovendien krijgen de non K processors veel minder reviews en aandacht dan de K processors. Zo heb ik nog maar weinig echte teviews van de 11700 online gelezen, terwijl die op papier een stuk interessanter is dan de 11700k.
Phew, ze zullen behoorlijk het vuur van AMD aan de schenen voelen. Ik ben erg benieuwd wat dit gaat brengen. Helemaal omdat AMD op het gebied van performance/watt momenteel in het high end segment het vele malen beter doet.

tegenwoordig hoef je namelijk geen CV ketel meer te installeren maar voldoet een 11900K om een heel huis warm te houden :+

[Reactie gewijzigd door A_Trouwborst op 29 juli 2021 10:14]

F die intel. Telkens weer nieuwe chipsets en cpu sockets en niet backwards compatible. Ik word schijtziek van dat marketingspelletje. Maar ik vind intel toch beter presteren dan AMD. Die hebben mij namelijk altijd in de steek gelaten vwb het budget segment.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone 13 LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S21 5G Apple iPad Pro (2021) 11" Wi-Fi, 8GB ram Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2021 Hosting door True