Vermeende line-up van Intel Raptor Lake-cpu's verschijnt online

De vermeende line-up van Intels komende Raptor Lake-processors is gepubliceerd. YouTube-gebruiker AdoredTV meldt dat deze chips beschikken over maximaal 24 cores en 32 threads. Raptor Lake wordt eind volgend jaar verwacht.

De Intel Raptor Lake-S-serie voor desktops krijgt volgens AdoredTV een hybride architectuur, net als Alder Lake. Dat wil zeggen dat de chips een combinatie van snellere cores met hyperthreading en enkele meer energiezuinige cores zonder hyperthreading zullen bevatten. Alder Lake krijgt naar verwachting maximaal acht snellere cores en acht energiezuinige cores, schrijft ook VideoCardz. Bij Raptor Lake zouden deze aantallen respectievelijk op maximaal acht snelle en zestien zuinige kernen liggen. Daarmee zou het core-aantal neerkomen op 24 cores en 32 threads. Dat komt overeen met eerder uitgelekte informatie van Moore's Law is Dead.

Afbeelding via AdoredTV

Volgens Jim van AdoredTV biedt Intel verschillende configuraties in de Raptor Lake-line-up, die onderling verschillen in het aantal snelle en zuinige cores. Volgens de informatie wordt de overklokbare K-serie voor enthusiasts geleverd in varianten met 24, 16 en 14 cores. Intel zou in andere series ook varianten met minder cores leveren, waaronder i3-processors met alleen vier snelle cores en Pentium-modellen met twee snelle cores.

De verschillende series zouden ook onderscheid bieden in de tdp. Chips uit de K-serie zouden een tdp hebben van 125W, net als in voorgaande generaties. De 'mainstream'-serie beschikt volgens de slide van AdoredTV over een tdp van 65W en chips uit de T-serie moeten een 35W-tdp krijgen. Alle varianten lijken een geïntegreerde gpu met 32 execution units te krijgen, met uitzondering van enkele i5-chips met 24 eu's en Pentium-chips met 16 van dergelijke eu's.

Verder zou Raptor Lake volgens AdoredTV ipc-verbeteringen meekrijgen ten opzichte van Alder Lake en meer L2-cache bieden. Er wordt ook gesproken over hogere kloksnelheden, met turbofrequenties tot 5,5GHz. De geheugenondersteuning zou ook verbeterd zijn; Raptor Lake zou officiële ondersteuning voor DDR5-5600-geheugen bieden. Alder Lake krijgt naar verwachting officiële ondersteuning voor maximaal DDR5-4800.

Komende Intel Core-generaties (geruchten)
Serie Alder Lake Raptor Lake Meteor Lake
Release 2021 2022 2023
Procedé Intel 7 Intel 7 Intel 4
'Big'-cores Golden Cove Raptor Cove Redwood Cove
'Little'-cores Gracemont Gracemont Crestmont
Maximaal aantal cores 16 (8C+8c) 24 (8C + 16c) nnb
Socket LGA1700 LGA1700 nnb
Memory Support DDR4/DDR5-4800 DDR5-5600 DDR5
PCIe Gen PCIe 5.0 PCIe 5.0 PCIe 5.0

Door Daan van Monsjou

Redacteur

18-08-2021 • 21:12

70 Linkedin

Lees meer

Reacties (70)

70
69
29
2
0
29
Wijzig sortering
Ik had toch minimaal verwacht dat er meer snellere cores op zouden zitten. Waarom meer kleinere cores en geen snellere???
kleinere cores zijn over het algemeen goedkoper en makkelijker om te produceren.
En het heeft ook invloed op de zuinigheid als je tijdens browsen of mailen bijvoorbeeld de snellere en grotere cores uit kunt schakelen.
Ook staat het leuk in de marketingcampagnes dat de i5 bijvoorbeeld nu 14 cores heeft, terwijl 8 van die cores waarschijnlijk Atom-achtige prestaties zullen hebben.
Ik verwacht dat het ook het merk Intel zal aantasten als ze het als 14 core gaan aanprijzen. Dan kan de consument gaan denken dat Intel cores zwakker zijn dan AMD cores.

Hoewel een MediaMarkt consument gewoon voor de totale hoeveelheid cores zal gaan. Apple doet hetzelfde geintje en noemt een M1 CPU een 8 core zonder nadere specificatie: https://www.apple.com/shop/buy-mac/imac

[Reactie gewijzigd door lordawesome op 19 augustus 2021 04:10]

Tja, cores is het nieuwe MHz, ook al kan of kon het OS (Windows met name) niet goed met een dergelijk aantal cores omgaan. Hetzelfde zagen we destijds ook met de AMD64/x86-64 architectuur. Linux, bijv Debian, was al lang en breed AMD64-ready terwijl Windows dat nog niet was.

Wat betreft dit specifieke probleem. Ze zetten er 'Intel 7' of 'Intel 4' bij. Geen enkel ander bedrijf kan/mag dat want die hebben geen Intel procedé. Kenners weten dan waar dat mee te vergelijken is.
Windows kon niet met dergelijke aantallen cores omgaan? Onzin - Windows 10 is gebaseerd op Windows NT, die vanaf de allereerste release zelfs al multi-CPU support had, in tegenstelling tot Linux. En Windows was al vanaf de DEC Alpha 64-bit-clean.
Zeer zeker geen onzin. Ja, Windows werkte, maar enorm veel software werkte maar op 1 core. De vergelijking is dan ook Debian met Windows, en dan heb je het toch echt over Windows plus third party software.
moesten ze aparte die's hebben die pas later op dezelfde package worden gezet, maar ik ga er van uit dat ze op dezelfde die zitten en er dus helemaal geen wezenlijk verschil zit in productiegemak. de kosten zijn enkel lager omdat ze minder oppervlakte innemen, maar de performance en het verbruik zijn er ook naar en da's de enige reden waarom Intel deze keuze heeft gemaakt.
Ik had toch minimaal verwacht dat er meer snellere cores op zouden zitten. Waarom meer kleinere cores en geen snellere???
Omdat de beperkende factor van de totale prestaties het TDP is. Als het TDP niet boven X mag komen dan kun je hogere multithreaded performance behalen door cores te gebruiken met een betere prestatie per watt. Prestatie per watt verbeteringen krijg je bij lagere clocks omdat er dan een lager voltage kan worden gebruikt én het vermogen gebaseerd is op 2*voltage*frequentie.

Er zijn scenario's waarbij dit zinnig is. Denk aan een rendering achtige taak waarbij de totale performance hoger komt te liggen dan bij een vergelijkbare cpu met alleen maar snelle cores.
Alder Lake krijgt naar verwachting maximaal acht snellere cores en acht energiezuinige cores, schrijft ook VideoCardz. Bij Raptor Lake zouden deze aantallen respectievelijk op maximaal acht snelle en zestien zuinige kernen liggen.
wat moet je in godsnaam met 16 zuinige cores? de traditionele reden om multicore te gaan is juist voor meer power.
tuurlijk, er is een grens dat je kan kiezen om meer cores te kiezen die langzamer geklokt zijn vanwege schaalbaarheid, maar dat is meestal dan meer voor zeer specifieke doelgroepen, kan me niet voorstellen dat de mainstream user hier echt profijt van gaat trekken ten opzichte van het traditional core design / layout.
voor een normale desktop gebruiker kan ik me een 4 tot 8 tal zuinige cores nog enigzins voorstellen, voor tijdens browsen en wat lichtere take tegelijkertijd, maar 16.....wil je dan niet liever die 8 sterke cores gebruiken ipv die 16 zuinige? meeste programma's die zoveel cores kunnen gebruiken, zijn meestal niet bedoeld voor "lichte cores".

[Reactie gewijzigd door Pim0377 op 18 augustus 2021 21:24]

Performance per oppervlak/stroomgebruik/hitte is beter op kleinere cores. Ze kunnen voor geen meter singlethreaden, dus desktops hebben big cores nodig voor single-threaded, maar zodra je 8 big cores volledig aan het gebruiken bent, zit je echt wel in het optimale multi-threaded gebied, dus kun je beter little cores erbij hebben.

Basically voor een perfect multi-threadable probleem wil je het liefst een extreme hoeveelheid kleine cores hebben. Dat is ook hoe GPUs (soort van) werken.
Basically voor een perfect multi-threadable probleem wil je het liefst een extreme hoeveelheid kleine cores hebben. Dat is ook hoe GPUs (soort van) werken.
Ja, dat snap ik wel, maar GPU cores zijn...tot op zekere hoogte,....ontworpen om heel snel te zijn in hele specifieke taken, net als asics dat kunnen zijn voor mining, maar dit is een cpu, niet een gpu....daarom vraag ik mij af wat de use-case gaat zijn voor deze cpu's.

Misschien heeft Intel een manier gevonden om specifieke taken van een cpu, die heel goed schalen over meerdere cores, toe te wijzen aan die vele lichtere cores die ze toevoegen, al zou dat een stevige samenwerking met OS builders vereisen lijkt me, dus voor Windows, Linux en anderen om dat goed werkend te krijgen.
[...]
Misschien heeft Intel een manier gevonden om specifieke taken van een cpu, ... toe te wijzen aan die vele lichtere cores die ze toevoegen
CPU's wijzen geen taken toe aan specifieke, fysieke cores. Dat is een zuivere OS taak, waar Intel niets mee te doen heeft.

Intel heeft alleen invloed op de scheduling bij Hyperthreading, waar 1 fysieke core twee threads van twee virtuele cores uitvoert. Daar kan de core zelf per instructie bepalen welke virtuele core actief is - het zou te langzaam zijn om dat per instructie door het OS te laten belissen.
Daar zat ik ook aan te denken maar waarschijnlijk weet intel meer dan wij. Zou het niet kunnen dat het efficiënter of zuiniger is om bepaalde taken te verdelen over zuinigere cores? De filosofie erachter zullen we vast nog wel horen.
Gaat ook over schaalbaarheid natuurlijk. Net als bij die ARM processoren wil je delen alleen aanzetten als nodig en uit als het niet nodig is. Scheelt enorm veel energie (lees: positief voor gebruiksduur op accu).
Intel heeft imo "een" 24 core nodig met vergelijkbaar tdp als AMD. Dat twee derde van de cores maar halfbakken is, ontgaat wellicht het gros van de consumenten? :p

Aan de andere kant staat het gros van de multicore cpu's bijna de hele tijd uit hun neus te eten en heb je voor surfen en office slechts sporadisch echt wat aan een stevigere cpu. ik denk dat met name bedrijven in het kader van vergroening van IT misschien wel oog zullen hebben voor wat lager idle verbruik.

Dat gezegd zijnde beteken low power & single threaded niet dat die cores niet even snel kunnen zijn in een subset van taken. Dat zal een leuke kluif worden voor compilers en schedulers }>
Ik zie de marketing campagnes al voor me: 14 core pc voor slechts 750 euro. (om maar een bedrag te noemen)
Terwijl je waarschijnlijk een Atom-achtige pc krijgt met slechts enkele cores die respectabele performance kunnen bieden.

Ik krijg weer sinds enkele tijd flashbacks naar het pentium 4 tijdperk: in 2008/2009 werden verouderdere 2e hands 1,5-2 ghz pentium 4's verkocht voor woekerprijzen omdat de pentium serie zo'n goede naam had opgebouwd, en met name de pentium 4 die in veel winkels destijds nog volop nieuw verkocht werden terwijl we inmiddels al lang de core2quad hadden.
Bij bijvoorbeeld marktplaats werd je advertentie gewoon verwijderd als je ze voor een eerlijke prijs erop probeerde te zetten.

Sinds enkele jaren zie ik hetzelfde gebeuren met de Core i7, ik krijg vaker de vraag om op zoek te gaan naar een core i7 pc voor niet te veel geld.
Dat tegenwoordig een Core i3 (10105) veel sneller is dan bijvoorbeeld een Core i7 (860) en dat ze beter die keuze kunnen maken wil er bij veel mensen maar niet in.

Ik zie daarom liever dat Intel gewoon van die Core i naam afstapt, teveel verwarring voor teveel mensen.
Beter is het gewoon om voortaan deze generatie cpu's de Raptorlake Pentium,3,5,7,9 te noemen bijvoorbeeld.
Toch werkt het wel. AMD heeft dit eerder gedaan met de 8 core FX series zoals de FX-8150. Het zijn 8 cores, maar elke twee cores delen veel onderdelen, waardoor je niet de performance krijgt van 8 onafhankelijke cores.

Of Apple die een M1 cpu doodleuk een 8 core noemt zonder nadere specificatie: https://www.apple.com/shop/buy-mac/imac

Het is natuurlijk nog wel afwachten of Intel onderscheid gaat maken in hun marketing materiaal tussen de big little cores.

Tweakers doet het alvast niet in hun verhaal, wat al bijzonder verwarrend leest.
Ik denk dat dat weer te veel verwarring oplevert met de pentium g serie.

Misschien is het een beter idee om de Itanium naam weer af te stoffen?
De Itanium herintroduceren lijkt mij eerlijk gezegd ook geen goed idee omdat dat ook weer de topline is en als dat ook nog 10 jaar gebruikt wordt geeft dat geen goede indicatie voor de snelheid van een cpu.

Beter is het om bijvoorbeeld de codenaam voor de i 3,5,7,9 serie te benoemen en mensen goed te informeren met bijvoorbeeld infomercials en marketing.
Tja, dan denk ik dat je geen idee hebt hoe marketing werkt. Intel heeft een significant bedrag gestoken in de branding van Core i3/5/7/9, en jij stelt voor om dat geld door het putje te spoelen. En erger nog, om voor elke generatie dat geld weer opnieuw door het putje te spoelen.

Er is een reden dat Intel nog steeds de naam Pentium gebruikt - die marketing die daar in gestoken is, is nog steeds niet helemaal afgeschreven
Zoals mijn vrouw "maar mijn laptop heeft toch een i7" ja eerste gen Dell XPS van +10 jaar oud.
Denk dat het qua performance wel goed zit Intel gaat natuurlijk geen high-end CPU uitbrengen die langzamer is dan vorige generaties. Denk dat je misschien wat wisselende performance zult zien, vooral in het begin omdat software nog niet goed kan omgaan met langzame en snelle cores. Verbeterde support hiervoor zit ook pas in Windows 11. Denk dat game engines etc hier ook voor geüpdatet moeten worden.
Maar op Android gaat het al jaren prima dus waarom op zou het op Windows niet kunnen.
Waarschijnlijk zien ze in de verwarring hun kansen om AMD te kunnen bevechten?
Eerst maar eens zien hoe Alder Lake presteerd ;)
En wat de prijzen gaan worden
Voor de gemiddelde consument word het er iig niet overzichtelijker op, grote cores, kleine cores, wel threads, geen, etc...
De gemiddelde consument interesseert zich daar dan ook helemaal niet voor, die koopt tegenwoordig een laptop (of in het verleden een desktop) waarvan de verkoper aangeeft dat deze voldoet wanneer de consument aangeeft wat hij met het systeem wil doen. Veel verder kijkt een gemiddelde consument (vrijwel) niet naar de hardware.

Dat is (helaas) toch echt voorbehouden aan enthusiasts (zoals o.a. hier op Tweakers komen) en die snappen dan, gelukkig, vaak prima het verschil bij Big.Little, het aantal thread e.d. .

[Reactie gewijzigd door Dennism op 18 augustus 2021 21:47]

Gelukkig ben ik ook altijd enthousiast :P
Zoals m'n Ex altijd zei "aan je enthousiasme ligt het niet"
Maar aan de grootte van je core wel? :+
Als het een Intel core is, mag die niet klagen! 😜
8 grote ballen met HT en 8 kleinere om zuinig aan te doen.
Ik heb hierom gelachen, ik zal natuurlijk ook een downvote krijgen.
Je ex moet uitstekend juridisch advies hebben ingewonnen :?
Ik ben benieuwd of dit na 10+ jaar de vervanging gaat worden van mijn x79 systeem. Ben met name benieuwd wat de performance van ddr5 en pci-5 gaat betekenen voor de algehele performance van een systeem. Hoeveel pci-e lines zouden er beschikbaar komen etc.
De eerste ddr5 “leaks” zien er niet al te best uit maar dat was al te verwachten.

Ik zou nu niet investeren in een pci5/ddr5 systeem (als het überhaupt te krijgen is). Als je hier ook 10 jaar plezier van wil hebben kun je het vinden van bugs en kinderziektes beter aan anderen overlaten.
Ik heb in het verleden AdoredTV gevolgd op YouTube, maar er werd zo veel onzin op dat kanaal gepost, Jim is veel te vatbaar voor hype en trollen die hem valse informatie voeren.

Neem de hype rondom Zen 2 maar als voorbeeld; 16 core Ryzen 7 voor $329, het zouden multi-level chips zijn, het zal allemaal over de 5Ghz draaien etc.. En de Nvidia Turing kaarten zouden gebruik maken van een secondaire processor specifiek voor ray tracing..

Ik vind deze outlet geen betrouwbare bron.
Zo te zien is intel met een come back bezig. The nail in the coffin for intel en rip x86 video’s op Apple kanalen op YouTube laten mij toch wel een rare bijsmaak. Zij denken echt dat intel stopt met x86 support in 2022. Het bewijs dat dit onzin is is weer geleverd met dit nieuws bericht. Intel zet x86 verder en verandert juist niks naar arm zoals ze op YouTube zo zeker zijn. Als intel de TDP van hun processors binnen de perken houdt zie ik geen problemen. Ben eens benieuwd wat AMD in petto heeft voor pc gebruikers. Het ziet er gewoon goed uit.
Soort van standaard reactie onder elk topic bij nieuwe hardware: "Leuk.. maar meer dan x heb je helemaal niet nodig"


.. fast-forward naar twee jaar later:
"Hmmm ik had toch liever x+2 gehad want deze nieuwe game/software vraagt toch ineens wel meer dan twee jaar geleden"

Wellicht heb je het op dit moment niet nodig.. maar ik hoop dat je ook wat verder vooruit kijkt bij de aanschaf van een pc/laptop? Want wat vandaag erg goed werkt kan zomaar over twee jaar eigenlijk nét te krap zijn.
Vergeet ook die andere standaard reactie niet: "veel te duurrrrr"
Over 2 jaar wordt het niet net te krap. Coregebruik bij games gaat veel langzamer. Het gaat denk ik nog wel 5 jaar duren voordat 8 cores nut hebben. Momenteel zit er nog geen 5% snelheidswinst tussen een 6 core en een 16 core in games. Als je nu extra betaalt voor 8 cores kun je dat geld beter in de gpu stoppen of bewaren, want voor gamen is het weggegooid geld.

Je kunt nu bijvoorbeeld beter een 6 core 5600x kopen dan een 8 core 2700x voor gamen als ze hetzelfde zouden kosten. En om even ontopic te worden, je kunt beter de 14 core (6+8) halen dan iets hogers.

[Reactie gewijzigd door lordawesome op 19 augustus 2021 10:08]

Hmm, 5 jaar? Ik weet het niet. De i5 6400 was al tijdje terug een bang/buck "miskoop" gebleken. Die chip kwam net uit voordat de cores en threads flink omhoog zijn gegaan. Games beginnen die steeds meer te gebruiken. Als je die chip 3 jaar bezit en dan een GPU upgrade wilt doen, dan is je CPU wel een zware bottleneck.

Meer dan een 6 core CPU is vandaag niet nodig, maar mogelijk 8 core over een jaar of 3 wel. Als je nu nieuw aanschaft zou dat de meerprijs van een 8-core kunnen verantwoorden.

Daarbij wordt de situatie nog ingewikkelder als je 6 en 8 cores tussen verschillende generaties gaat vergelijken. AMD heeft flinke stappen in fps gezet in de laatste jaren. Maar Intel ook. Je kan er ook voor kiezen om een bang/buck CPU wat vaker te upgraden. Ook dat kan afhankelijk zijn hoelang je in een platform wilt 'investeren' (dwz socket, chipset, geheugen)

[Reactie gewijzigd door Hans1990 op 19 augustus 2021 11:45]

Het hangt er maar net van af wat je er mee wilt doen. Je kunt een laptop prima gebruiken om software remote te draaien (Citrix, Parsec, Nomachine, OpenSSH, VNC, RDP, enz enz). Als je dat doet, heb je geen krachtige machine nodig. Neem bijvoorbeeld Parsec, remote gaming client. De vraag is dan, kan je machine snel genoeg H.265 decoden. Dan maakt het geen donder uit of je 4, 6, of 8 cores hebt.

Wat betreft core-gebruik en games @lordawesome dan ga je er van uit dat de machine verder niets doet, en dat is niet zo, en hoeft ook niet. Je kunt prima nog wat cores gebruiken voor Spotify, OBS, een browser, ... een synthetische benchmark houdt hier geen rekening mee.

En ja, te duur is Intel CPU spul de afgelopen jaren zeker geweest, helaas. Denk je dat Intel op CPU gebied de boel competitief met bijvoorbeeld AMD of ARM (neem bijv M1) gaat prijzen? Ik denk 't niet. Het kuddegedrag blijft Intel marktleider houden, dus er is meer winst te behalen door de prijzen hoog te houden. Zo is er een modulaire laptop (Framework) die ik interessant vind, maar bij een Intel CPU haak ik al af.
Als de single thread performance van deze beesten goed is, overweeg ik toch AMD weer te dumpen voor Intel. Ik game namelijk af en toe, maar voor bijvoorbeeld VMs zou dit perfect voor mij zijn.
Leg vooral even uit waarom. Ik zou denken dat je juist met VM’s meer gebaat bent met veel full cores (aangenomen dat je redelijk wat VM’s draait). Of er moet een geschikte CPU scheduler in je hypervisor zitten die rekening houd met een big-little architectuur. (Immers als je 10 VMs draait die veel vragen van de CPU en je hebt 8 full cores, waar vinden dan de consessies plaats?) Misschien dat mensen meer die meer in de virtualisatie ‘scene’ zitten zouden kunnen vertellen of Hyper-V, VM-ware, Kvm, Xen etc al optimaal gebruik kunnen maken van een dergelijke architectuur.
Ik ben niet helemaal thuis in virtualisatie, maar als inderdaad de hypervisor de cpu architectuur volledig kan gebruiken kan in mijn geval de personen die geen power users zijn van mijn eigen pc af draaien. Stel je voor: ik heb een pc met de i9 van raptor lake. Ik gebruik hem zelf bijna alleen maar voor gamen. Ik hoef dus alleen 6 cores te gebruiken. De rest van mijn gezin die aan het thuiswerken is kan dan vervolgens gebruik maken van 4 little cores voor spreadsheets enzo. Dan laat je ook nog 2 cores over voor de hypervisor.
Maar wat gebruikt de rest van je gezin dan om in te loggen op die vm en heeft dat dan zelf meer of minder vermogen dan die 4 little cores? Het kan zijn dat je thuis iedereen aan de thin clients met directe bare metal remote logins hebt, hoor, maar als die mensen soms ook elders wat doen, zal dat toch ook waarschijnlijker een laptop met zelf 4+ big cores zijn, lijkt mij dan... Leuk om voor de hobby mee te klooien, dat snap ik op zich best, maar pragmatisch natuurlijk tamelijk niche 😋
Dat is zeker waar, en het zal zeker niet voor iedereen praktisch zijn. Maar een van ons heeft een 11 jaar oude All In One die toch wat moeite krijgt. Op het moment host ik daarvoor al een VM met twee cores van mijn 3700x. Ik denk dat het best handig kan zijn om dan little cores te gebruiken, tenzij ik de performance ervan onderschat.
En wat zou het voordeel hiervan zijn tegenover een 5900x of 5950x?
Het enige voordeel dat ik zie is de mogelijke prijs, al vraag ik me af of de chips met vergelijkbare MT scores veel goedkoper zullen zijn. Het platform zelf zal ook nog wat kosten.

Daarnaast als je zo veel trage cores hebt is het maar hopen, misschien zelfs duimen, dat de performance goed wordt verdeeld. Een andere oplossing die ik zie zou CPU-pinning zijn, maar ook dan is het weer keuzes maken tussen performance over energiezuinigheid.
Ik heb eigenlijk zelf niet zo heel veel cores nodig. Het is inderdaad nog afwachten op de performance, maar ik dacht alleen mijn use-case te schetsen.
Of praktische overwegingen zodat een Mac gebruiker toch nog wat Windows software kan gebruiken, dat is de use case hier thuis.
Ik ben wel thuis in virtualisatie (VMware), werk dagelijks met de software.
Mijn verwachting is dat virtualisatietechnieken hier (voorlopig) geen rekening mee gaan houden, die worden doorgaans niet op consumenten processoren gebruikt. Pas op het moment dat er CPU's komen voor servers (Xeon en EPYC) met het big.little concept zal de software aangepast worden.

Overigens als tip voor thuis, ik weet natuurlijk niet je beweegredenen om de gezinsleden op een VM te laten werken, maar het is efficiënter (en goedkoper) qua energie om centraal een "server" neer te zetten met een energiezuinige Xeon, zo groot mogelijke geheugenbankjes (liever 2x 32GB dan 4x 16GB bijvoorbeeld) en wat SSD's.
Die SSD's zijn het belangrijkst voor de snelheid binnen je VM's. Als je een beetje begaan bent met PC's kun je prima een "PC" bouwen met daarin een 8 core Xeon op 2.1 GHz met een TDP van 25W bijvoorbeeld, om VM's voor je gezin op te draaien voor niet al te veel geld.
Daarnaast kun je dan zelf ook van de VM's gebruik maken en pas als je gaat gamen je dedicated PC met GPU aanzetten.

Ter vergelijk, ik draai hier thuis (voor werk en hobby) meerdere servers waaronder een server met een Xeon-D (8 core, 16 threads) met meer dan 40 VM's en containers en die draait op ~55W constant verbruik. Dit tegenover mijn gaming PC die elke dag aan staat op 280-500W constant verbruik.
Bedankt voor de tip! Er is (lijkt mij) natuurlijk ook een groot verschil in architectuur. Als dit nuttig wil worden, moet ik nog een aantal jaartjes wachten dus?
De vraag is óf de Big.little architectuur door gaat zetten naar server CPU's. Op enkele software paketten na worden alle hypervisors gebouwd voor Enterprise klanten op datacenter hardware. Hoewel de Big.little architectuur heel interessant is voor eindgebruikers zal het voor server workloads lastiger te implementeren zijn. De hypervisor weet namelijk niets van het type workload wat draait binnen een VM of een container en dus ook niet of dit op een grote of kleine core moet gaan draaien. Je zult als beheerder dus allerlei policies aan moeten gaan maken om de te gebruiken core te identificeren en koppelen aan de workload.

Los van balans vinden tussen Big.little is het voor grotere bedrijven met 10.000'en VM's al lastig om een goede balans in de huidige hardware te vinden door de verschillende type applicaties die de klant heeft draaien. Zo zijn er bedrijven met honderden servers met soms meer dan 100 CPU cores per server en meerdere terabytes aan geheugen.

Uiteindelijk is dit mijn visie gebaseerd op de huidige kennis in de markt. Het zou zo maar kunnen zijn dat er al voorbereidingen getroffen worden zonder dat wij het weten. Daarnaast heb je natuurlijk de hypervisors die wat meer op de thuisgebruiker gericht zijn, het zou zo maar kunnen dat die er wel mee bezig zijn gezien het grote deel van die gebruikers op consumenten CPU's draait.

Ik denk dat die aantal jaartjes schatting aardig in de richting is voor het meest optimistische scenario.
Ik heb natuurlijk geen idee of de architectuur wordt doorgezet, maar als dat wordt doorgezet zal het dan nog langer duren dus. Zouden er geen policies gemaakt kunnen worden door AI?
Ook met Ai moet er ergens geleerd worden wat de workload binnen de VM precies nodig heeft om goede big.little policies op te zetten. Wellicht dat er profielen gemaakt kunnen worden op basis van CPU telemetrie van de VM's, welke we wel uit kunnen lezen zonder toegang tot de VM.
Maar dit is puur hypothetisch allemaal en ik ben meer iemand van de virtualisatielaag dan van architecturen in de hardware, dus mijn kennis is daar ook te beperkt voor en de architectuur te nieuw (heb er ook nog niets mee gedaan, ben zelf aan het wachten tot Alder Lake beschikbaar komt voor mijn nieuwe desktop/workstation).

[Reactie gewijzigd door drocona op 19 augustus 2021 13:36]

Dat is zeker waar. Het lijkt mij redelijk eenvoudig om cpu cores toe te wijzen aan VMs op basis van telemetrie, maar ik weet er niet genoeg vanaf.
Overigens als tip voor thuis, ik weet natuurlijk niet je beweegredenen om de gezinsleden op een VM te laten werken, maar het is efficiënter (en goedkoper) qua energie om centraal een "server" neer te zetten met een energiezuinige Xeon, zo groot mogelijke geheugenbankjes (liever 2x 32GB dan 4x 16GB bijvoorbeeld) en wat SSD's.
Dat lijkt me niet echt een zinnig advies - een Ryzen is een stuk goedkoper alternatief dan een Xeon. Een 3700X heeft dezelfde 8c/16t voor 259 euro. En je wil juist liever 4x16 dan 2x32. Dat is iets goedkoper, en maakt qua performance niet structureel uit (soms is 4x16 sneller, soms 2x32).
Het is wel zinnig advies, want ik heb een ander uitgangspunt gebruikt dan jij.
Je gaat zelf voor de goekoopste optie qua aanschaf, waar ik voor de goedkoopste optie in gebruik ga. Gezien dit apparaten zijn die 24/7/365 aan staan binnen je huis is die aanschafwaarde binnen 2-3 jaar terug verdiend in elektriciteitskosten. Daarnaast is een Xeon hier natuurlijk voor gemaakt en behoort niet tot de consumenten range, wat de 3700X wel is.

Als ik even snel reken met die 3700X en 4x 16GB t.o.v. mijn Xeon-D met 2x32GB zal de 3700X ongeveer dubbel zoveel elektriciteit gebruiken (150W t.o.v. 75W) wat neer komt op een 150 euro per jaar goedkoper voor de Xeon-D.
Naast de CPU en het moederbord zal elke DIMM die er extra in zit ook extra elektriciteit verbruiiken, zodoende dat ik daar minder DIMMs met hogere capaciteit aanraad. (Overigens ook nog makkelijker upgraden uiteindelijk)

Wil je goedkope aanschaf en maakt elektriciteit niet uit dan ben ik het met je eens.

[Reactie gewijzigd door drocona op 19 augustus 2021 13:24]

"Eind volgend jaar" ........... Waar gaat het over :')

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee