'Intel Alder Lake-processors verschijnen op 4 november'

Volgens nieuwe aanwijzingen zijn de Intel Alder Lake-cpu's vanaf 4 november te koop. Dat is ruim twee weken eerder dan tot nu toe werd aangenomen. De desktopprocessors zouden vanaf 27 oktober te bestellen zijn.

De datum van de verkoopstart blijkt uit een bericht van MSI. De fabrikant biedt eigenaren van aio-koelers een upgradekit aan voor de nieuwe LGA1700-socket en die actie gaat vanaf 4 november in. Volgens VideoCardz hebben verschillende andere bronnen bevestigd dat de Alder Lake-processors vanaf dan verkrijgbaar zijn. Wccftech-auteur Usman Pirzada claimt op Twitter dat pre-orders vanaf 27 oktober te plaatsen zijn. Op die dag start het Intel Innovation-evenement, waarop de fabrikant alle details over Alder Lake uit de doelen zal doen.

Eerder gingen er geruchten dat de Alder Lake-cpu's en de bijbehorende Z690-chipset op 19 november worden uitgebracht. Als de processors op 4 november verschijnen, ligt het voor de hand dat de bijbehorende moederborden ook in die periode te koop zijn.

In augustus gaf Intel uitgebreide informatie over de architectuur van de Alder Lake-processors, maar een officiële line-up van processors is nog niet aangekondigd. De verwachting is dat er in eerste instantie maar drie Alder Lake-processors verschijnen, in K- en KF-varianten. Laatstgenoemde hebben geen geïntegreerde gpu.

Intel Alder Lake

Cpu* Productcode Cores Kloksnelheid L3-cache
Base Boost
Intel Core i9-12900K BX8071512900K 8 P + 8 E 3,2GHz 5,3GHz 30MB
Intel Core i9-12900KF BX8071512900KF 8 P + 8 E 3,2GHz 5,3GHz 30MB
Intel Core i7-12700K BX8071512700K 8 P + 4 E 3,6GHz 5,0GHz 25MB
Intel Core i7-12700KF BX8071512700KF 8 P + 4 E 3,6GHz 5,0GHz 25MB
Intel Core i5-12600K BX8071512600K 6 P + 4 E 3,7GHz 4,9GHz 20MB
Intel Core i5-12600KF BX8071512600KF 6 P + 4 E 3,7GHz 4,9GHz 20MB

*Gebaseerd op onbevestigde informatie van webwinkels

Door Julian Huijbregts

Nieuwsredacteur

27-09-2021 • 12:03

127

Lees meer

Reacties (127)

127
127
64
6
0
52
Wijzig sortering
Benieuwd hoe Intel's Thread Director uitpakt op de gangbare workstations (Windows 10).
Hoe weet Intel's Thread Director nu, dat het programma dat ik hierna ga opstarten ...
  • op een snelle Performance core moet draaien :Y)
  • op een luie Efficient core moet draaien :z
  • op zowel op P als ook op E cores moet draaien }>
Vraagteken.

[Reactie gewijzigd door SambalSamurai op 23 juli 2024 06:11]

Je kunt threads gewoon overgooien naar een andere core als dat nodig blijkt
Is dat handmatig in Windows in te stellen?
Kan ik bijvoorbeeld aan Windows / Intel vertellen:

Draai de volgende software op mijn systeem altijd op P cores:
[Programma A]
[Programma B]

En draai de volgende software op mijn systeem altijd op E cores:
[Programma C]
[Programma D]
Nee :
Er is een aparte controller die in de gaten houd wat iedere thread aan het doen is en geeft feedback aan de windows thread scheduler.

Details zijn hier te vinden : https://www.anandtech.com...lake-microarchitectures/2

Intel’s Thread Director controller puts an embedded microcontroller inside the processor such that it can monitor what each thread is doing and what it needs out of its performance metrics. It will look at the ratio of loads, stores, branches, average memory access times, patterns, and types of instructions. It then provides suggested hints back to the Windows 11 OS scheduler about what the thread is doing, whether it is important or not, and it is up to the OS scheduler to combine that with other information about the system as to where that thread should go. Ultimately the OS is both topologically aware and now workload aware to a much higher degree.
Nou volgens mij kan dat wel hoor.
Uit jouw/Anandtechs verhaal blijkt alleen dat die thread director extra info aan het OS geeft, maar het OS nog steeds alle beslissingen neemt.
Hier zie ik dat je in Windows al kon kiezen op welke core iets moet draaien (@dasiro, ook vanaf startup), lijkt me niet dat daar iets aan zal veranderen.
Ik weet weinig van Windows, maar op Linux wordt dat bijv gedaan om realtime processen een exclusieve core te geven.
Als je straks meerdere soorten cores hebt, wordt dat naast voor realtime mss ook interessant voor energiebesparing.
(ook @SambalSamurai uiteraard)
Klein misverstand dan,l k wist al wel dat ik vanuit code controle had over welke thread ik naar welke processor kan gooien. Maar ik wist niet dat het ook buiten code om kon, weer wat geleerd :)

En ja ik zie zeker dat app ontwikkelaars vanuit code al zelf hints kunnen gaan geven of ze high of low power applicaties zijn bijv via code of via applicatie manifest maar daar heb ik nog niks over kunnen vinden.
Hier zie ik dat je in Windows al kon kiezen op welke core iets moet draaien (@dasiro, ook vanaf startup), lijkt me niet dat daar iets aan zal veranderen.
da's niet permanent gelinkt aan het proces, maar een parameter waarmee je het opstart, het resultaat is wel ongeveer hetzelfde
Is het ook mogelijk op windows 10 of is dat een ander verhaal? In het geval dat het wel mogelijk is, krijg je dan te maken met performance verschil tussen windows 11 en 10?
Lijkt toch echt wel een windows 11 feature te worden. Niet gek nieuwe feature voor nieuwe processor, trekt weer mensen over naar laatste versie.
Het is nog lastig te zeggen of de efficiënt cores naast de performance cores in bijvoorbeeld taakbeheer te zien zijn. als dit het geval is kan je makkelijk zelf threads toewijzen. Zo heb ik mijn RGB (zucht) en toetsenbord en muis software en teamspeak op de laatste thread staan omdat deze anders random thread hoppen en het boostgedrag van mijn 9900k om zeep helpen.
Zo kan ik met alles auto max boosten tot 4.7 ghz en met deze belabberde programmas op 1 thread geforceerd gewoon tot 5 ghz boosten.

Dat doe ikdoor de executable op te laten starten met de volgende code in de snelkoppeling en de originele uit te schakelen :

C:\Windows\System32\cmd.exe /C start "" /affinity 4000 "C:\Program Files (x86)\ROCCAT\ROCCAT Swarm\ROCCAT_Swarm_Monitor.exe" 0

De 4000 bepaald welke core gebruikt word.
De methode om dit te bepalen is door een getal te creëren met het aantal cores van je cpu.
Bijvoorbeeld 00000000000000 voor een 8 core 16 thread. En vervolgens de cores die je wil gebruiken om te zetten naar een 1 maar let op dit is achterstevoren!
Wil je dus core 1 en 2 gebruiken maar niet de smt/hyperthreading threads dan word dat dus : 0000000000000101.

Vervolgens gooi je deze code door een Binary > Hex converter en dar komt dan het volgende getal uit : 5

Daarna maak je een snelkoppeling van je programma aan en plaats je bij Doel het volgende VOOR de standaard text : C:\Windows\System32\cmd.exe /C start "" /affinity 5

Je heb hier vast en zeker tools voor maar ik heb alles liever werkend zonder tools en extra points of failure.

Als je met bijvoorbeeld Hwinfo64/afterburner je cores gaat monitoren zal je ook tegen komen dat er software is die SMT/hyperthreading threads als main thread gebruiken. Dit heeft desastreuze gevolgen voor je prestaties omdat SMT/hypertyhreading threads maar 25-35% van de prestaties van een volwaardige core hebben. Dus als je ineens bizar lage performance heb kan dit een issue zijn.

Maargoed lang verhaal kort. Of dit mogelijk gaat zijn hangt as van hoe windows met deze threads om gaat. Ik heb daar nog geen enkele informatie over kunnen vinden dus voor nu onmogelijk te zeggen.

Het word wel zeker interessant om te testen of een programma met alles geforceerd of met alleen power cores beter werkt. Als dat mogelijk is natuurlijk.

[Reactie gewijzigd door computerjunky op 23 juli 2024 06:11]

Als je dit bij meerdere applicaties wilt verrichten is misschien het gebruiken van Process Lasso wel interessant.
https://bitsum.com/

Hiermee kan je o.a. de affinity, priority e.d. per applicatie instellen zonder hiervoor losse snelkoppelingen te maken.
Nadeel is dat je dan weer een applicatie mee heb draaien/op moet starten en dat is persoonlijk iets wat ik minimaliseer op al mijn systemen. Alles wat ik via het register of andere trucjes kan doen doe ik gewoon handmatig.
En als je eenmaal wat Hex core affinity codes voor verschillende core layouts gegenereerd heb is het in de snelkoppeling plakken een paar seconden werk.

[Reactie gewijzigd door computerjunky op 23 juli 2024 06:11]

De applicatie doet veel meer dan enkel de affinity en priority vasthouden dat je instelt, maar het is dan ook meer bedoeld voor mensen die niet zo handig zijn met parameters in een snelkoppeling aanpassen of er gewoonweg geen zin in hebben.

Hangt er ook een beetje vanaf in hoeverre je dit wilt toepassen, is dit bij een 5-tal apps dan is een snelkoppeling aanpassen prima te doen, maar heb je het over tientallen applicaties dan is dit misschien wat makkelijk te hanteren.
Ik heb nu in 4 programma's de affiniteit aangepast waarvan 3 permanent en dat zijn gewoon programma's die ik vaak of altijd actief moet hebben en problemen vertonen.
Verder doe ik er niets mee tenzij een game of programma's problemen vertoond.
Cool! Niet dat ik veel met Windows doe, maar ik wist niet dat het mogelijk was om bepaalde processen op een bepaalde thread/core te laten draaien :)

Het enige (en wellicht domme van mijn kant) dat ik niet snap is het volgende:
omdat deze anders random thread hoppen en het boostgedrag van mijn 9900k om zeep helpen.
Zo kan ik met alles auto max boosten tot 4.7 ghz en met deze belabberde programmas op 1 thread geforceerd gewoon tot 5 ghz boosten.
Waarom is dit net? Heb je niet sowieso een all-core boost van 4,7 GHz en een single-core boost van 5 GHz?
Ja dat snap ik zelf ook nog niet maar deze programma's 'pingen' 1x in de zoveel cycles waarschijnlijk voor RGB of in het geval van teamspeak de mic of iets in die richting en dat gebeurt iedere keer op een andere core. (dat bedoelde in met thread hoppen)
Daardoor is eigenlijk de cpu nooit idle volgens de bios/microcode van de cpu en daardoor werkte de turbo om 1 of andere reden alleen op 4.7 ghz (dat is de all core turbo frequency) ook als games bijvoorbeeld maar 4 threads aanspreken of cinebench maar single threaded getest word.
En ook mijn zip/data transfer programma gebruikt maar 1 core/thread dus die 300 extra mhz is mooi meegenomen dan.
Door al die programma's die dat gedrag dus vertonen te forceren op 1 core/thread haal ik altijd de 2 core max turbo van 5ghz als dit nodig is.

[Reactie gewijzigd door computerjunky op 23 juli 2024 06:11]

Jij toont nu net gewoon aan dat jde all core boost en few core max boost die altijd zo mooi in de website review performance benchmarks staan op lege systemen zorgen voor een vertekend beeld en enkel mooi voor marketing en benchmark plaatjes. Want zoals je zelf aangeeft in realiteit heeft de scheduler problemen en zijn er 101 sw issues (corsair is zo ook brak met de icue) en rand activiteiten waardoor de few core boost niet optimaal meer werkt....

Te veel lezers geloven de benchmarks en marketing praatjes. Maarja de consument ziet die fake few fps ....
Net hetzelfde met steeds enkel het mobo van 300eur testen op een mid tier cpu etc, beste koeling en morgen staat er een 100eur bordje met een stock koeling in een pc.

Wel mooi opgelost uw probleem, maar 99.9% van de gewone consument gaat dit niet doen :)
Tja in mijn situatie is die scrduler idd een probleem maar er zit wel weer ligica achter. Door steeds van core te switchen krijg je niet 1 core die constant gebruikt en heet word. Dat dit nadelige gevolgen heeft was niet te voorzien bij de ontwikkeling van die scedular omdat boost op die manier toch nog niet bestond.
Voor de 9xxx cpu's had je boost on of boost off en bestond dat probleem dus niet. Nu heb je al 4 levels van boost.

Het probleem zit hem dus in het feit dat ze dit nooit aangepast hebben in latere builds. (of het is simpelweg niet aan te passen).

En ja icue kan je zelfs tot 5% prestatie kosten afhankelijk van de programma's die je draait. Dat mensen die software nog gebruiken verbaasd me echt.

De reden dat ik dit ontdekt en opgelost heb kwam trouwens niet eens door de wil voor meer Fps maar doordat ik in iedere game last had van microstutters waar ik knettergek van werd. Aan de hand daarvan ben ik gaan zoeken en meten en merkte ik dat ik nooit die 5ghz en 4,8 Ghz turbo's haalde. Het was uiteindelijk niet de oorzaak van microstutters, Dat was Trfc van het geheugen die net een tikje omhoog moest (XMP werkt niet dus handmatig ingesteld).

En ja veel gebruikers proberen out of the box te draaien. en ik zeg proberen want na 5 systemen te bouwen afgelopen 2 jaar is het me pijnlijk duidelijk dat plug en play niet echt meer bestaat. Daar waar je bi voorgaande systemen gewoon wat hardware bij elkaar pakte en in elkaar flanste is het nu echt veel complexer en is de compatibiliteit een fijn lijntje geworden. Dat wat in theorie zou moeten werker hoeft lang niet altijd te werken.
Als je met bijvoorbeeld Hwinfo64/afterburner je cores gaat monitoren zal je ook tegen komen dat er software is die SMT/hyperthreading threads als main thread gebruiken
Er is niet iets als een hyperthread. Bedoelde je dat je 2 threads op dezelfde fysieke core zag? Terwijl andere fysieke cores nog "vrij" waren?
Daar komen we vanzelf achter ;)
Overigens hadden ze op hun architecture day nog een mooie demo waar ze steeds meer, steeds zwaardere workloads toevoegden en de thread director live ging "jugglen", wat goed leek te werken, denk echter niet dat er Windows settings in w10 komen om dit te forceren, ze hebben namelijk nauw samengewerkt met Microsoft voor integratie van dit hybrid design in w11.
Edit: in taakbeheer kan dat natuurlijk altijd, maar dat kun je nu ook al doen

[Reactie gewijzigd door MR501 op 23 juli 2024 06:11]

goeie samenwerking toch? de ene eist TPM de andere zorgt voor HW die win11 nodig heeft voor optimale werking. Beide blij, beide alles nieuw.
Het grootste probleem daarmee is dat scheduling op thread basis gebeurt, niet op programma-basis. En waar moet je thread #10011 draaien? Is dat een "check of er updates klaar staan?" thread? Dan wil je die op een efficiente core draaien, ook al zijn de main threads van dat programma veeleisende threads. En omgekeerd, sommige programma's draaien 99% van de tijd in de background, maar je wil wel dat ze interactief snel reageren in die 1% van de tijd dat je ze wél gebruikt.
ja, maar niet permanent, enkel voor running processes
dat klopt maar in de geplaatste link van @N8w8 staat ook hoe je een shortcut maakt voor je programma zodat de affinity bij het opstarten ervan al meteen gezet wordt... Vervolgens gebruik je je eigen shortcut dus voor het opstarten van je progamma....
En wat nou als jouw programma voor high performance cores meer threads kan gebruiken en de andere cores ook prima kunnen meehelpen?
Daar ben ik ook benieuwd naar. Gaat Microsoft dit voor je inschatten en managen?
Nog los van het feit dat er een "logisch" verklaring kan bestaan voor bepaalde programmas die je lekker op de achtergrond op een E core zou willen draaien, kan het zijn dat in een bepaalde situatie een gebruiker express wil dat een typische achtergrondtaak volledige voorrang krijgt en op P cores moet draaien.

Het kan zijn dat verschillende gebruikers eigen redenen kunnen hebben om een achtergrondprogramma sneller te laten voltooien (zoals een update) of een hoofdprogramma lekker op de achtergrond te laten draaien (om bijvoorbeeld energie te besparen ik noem even iets geks).

Benieuwd of (en zoja in hoeverre) de thread toewijzingen handmatig te customizen is.

[Reactie gewijzigd door SambalSamurai op 23 juli 2024 06:11]

Daar is een scheduler voor immers - dat inschatten doet MS al tijden en de NT scheduler is daar redelijk goed in geworden - zelf aan affinity prullen is over het algemeen niet aan te raden* want de cpu en de scheduler kunnen veel sneller en slimmer reageren…

De Informatie en statistieken die de CPU presenteert en ontsluit naar de scheduler is over de jaren wel beter geworden en de schedulers zijn natuurlijk ook verandert en meegegroeid met de tijd… de WinXP scheduler zal anders omgaan met grote aantallen cores bijv, maar ook powerstates, etc…dan bijv de Win11 scheduler. Dit zijn typische ‘motorkap’ veranderingen aan de kernel…

* sommige gare software (mainstream of niet) wil wel eens vervelend doen maar dat is zeldzaam…
Standaard gaat een thread naar een P-core. Daarna wordt de thread gemonitored en is meestal binnen 30 microseconde duidelijk of een thread naar een E-core kan.

Dit is op basis van Windows 11.
Laat Intel nu een zeer goed track record hebben met de 'Windows sceduler' t.o.v. concurrentie. Ik ga er vanuit dat dit helemaal goed gaat komen.
Hoe weet een CPU dat hij zijn clock speed moet verhogen (i.e. hardware speedshift)?

Hoe weet een CPU dat hij in een bepaalde C-state moet transitionen?

Zo kan je wel doorgaan. Wat op software basis kan, kan ook op hardware basis.
Dit zijn de eerste 10nm desktop cpu's toch?

Edit: even gegoogled en ze zijn 14 10nm!

[Reactie gewijzigd door Tortelli op 23 juli 2024 06:11]

Ice lake was al 10nm echter was dit alleen maar mobile en geen Desktop. Maarja intel haalt weer rare streken uit en noemt dit dan weer "Intel 7". Volgens mij weten ze op dit moment zelf niet eens precies wat nou wat is.
Zo raar is dat niet. Intel reageert, helaas dat het moet, daarmee op het feit dat TSMC en Samsung o.a., al langere rijd de node naamgeving gebruiken als marketing middel door deze zo agressief mogelijk te labelen, terwijl Intel daar juist altijd relatief conservatief in was.
Het moet toch helemaal niet, het is hun eigen keus, van wie moet het?
Omdat er regelmatig comments langs komen dat intel nog steeds op 14nm zit of 10nm zit terwijl de concurenten al op 7 of 5 zitten.
Dat is waar, maar het belangrijkste probleem is dat de concurrenten al lang op ASML's EUV technologie zitten, en Intel pas met "Intel 7" daaraan begint. Pas met "Intel 4" gaat Intel EUV serieus inztten (12 layers EUV).

Nu is dat iets minder dramatisch dan het lijkt, want ASML kan Intel beter helpen met de implementatie van EUV; voor ASML is het tenslotte niet nieuw meer. De kinderziektes zullen minder erg zijn; de eerste yields hoger dan bij TSMC destijds.
Bij Intel 7 wordt nog geen EUV gebruikt, Intel 7 is 'gewoon' het hernoemde Intel 10nm 'Enhanced Superfin' proces. Zie ook bijvoorbeeld deze slide: https://tweakers.net/i/Y6...p_exif()/i/2004506440.png

Intel 4 (voorheen Intel 7nm) zal Intels eerste proces worden dat gebruikt maakt van EUV en Intel 3 en volgende procede's zullen meer gebruik gaan maken van EUV.

Wat EUV betreft lijkt het er sterk op dat Intels eerste producten die gebruikmaken van EUV, de GPU's die Q1 2022 op de markt moeten komen gaan worden, die worden op het TSMC 6nm proces gefabriceerd en dat proces gebruikt inderdaad EUV.

[Reactie gewijzigd door Dennism op 23 juli 2024 06:11]

Dan nog ''moet'' het niet?
Noemde Intel dit niet ineens 7 nm 8)7 |:(
Intel noemt het "ineens" zoals iedere andere concurrent het zou noemen.
Het proces heet nu inderdaad Intel 7 (niet 7nm), op zich jammer, maar vanuit marketing oogpunt logisch aangezien TSMC en Samsung de node namen al langer gebruikten als marketing middel (i.e. een zo laag mogelijk cijfer gebruiker), terwijl Intel altijd juist conservatief was in de naamgeving van de nodes.
"gewoon 14nm"

Tortelli weet je zeker dat dit 14nm chips zijn?
Ik dacht dat het hier om 10nm CPU's gaat.
Intel noemt deze lichting "Intel 7" wat lekker extra verwarrend is.
Had even gegoogled en kwam een artikel tegen dat het 14nm zou zijn... foutje van mijn kant :D.
Het is inderdaad 10nm!

[Reactie gewijzigd door Tortelli op 23 juli 2024 06:11]

Niet van mij Tortelli, want mijn waarderings rechten staat uit ik kan geen +1 of -1 geven al zou ik willen ;)

Ontopic: ik vind Intels Thread Director pas echt interessant fenomeen... (zie mijn vraag elders op deze pagina). Want dat de 12700K interessant is, daar is iedereen het er wel over eens. Maar sommige twijfelen terecht of deze eerste generatie niet beter overgeslagen kan worden door twijfels over het threat management erachter wat in de kinderschoenen staat...
Thread Director ben ik erg benieuwd naar (het big / little concept is in de x86 architectuur nog niet eerder toegepast volgens mij?) en natuurlijk ben ik benieuwd of het procede het idiote energieverbruik van de highend CPU's een beetje in de hand gaat houden
Is jouw "threat management" een typo of ben je ook benieuwd of deze cores allerlei cache sharing vulnerabilities gefixt hebben? :+

Ik ben vooral heel benieuwd hoe Intel dit gaat presenteren.
- Geven ze een goed vermogensverbruik op (tot nu toe: allerlei aangepaste TDPs om maar zo laag mogelijk uit te komen)
- Geven ze eerlijke benchmark-cijfers (tot nu toe: alles met ICPC gebakken, alleen de meest gunstige single-core-games ga je zien)
- Hoe is de beschikbaarheid van 10nm-sorry-7 exemplaren? Betalen we er een premium voor? Wordt het een paper launch?
- Gaan we nou eindelijk eens stoppen met die K-versies, KF, N, Bronze en whatever versies die amper verschillen?
Haha sorry typo! ThreaD management moet het zijn. Dank voor de aanvulling!
Gebouwd op Intel 7, ook wel bekend als 10nm Enhanced Superfin.
Volgens Wiki dan. Ik ben vooral benieuwd naar DDR5, worden deze op hetzelfde moment onthuld? Anders heb je niet zo veel aan je Z690 bord.
Er zijn al lang DDR5-producten onthuld, het ligt alleen niet in de winkels simpelweg omdat niemand het op dit moment zou kopen.

Het aanbod zal in het begin natuurlijk vast beperkt en relatief duur zijn, maar dat komt vanzelf.

[Reactie gewijzigd door bwerg op 23 juli 2024 06:11]

Hopen dat Intel en AMD tegelijk met nieuwe CPU's komen. Heb wel zin in een ouderwetse throw-down net voor kerst.
Verwachting (momenteel, kan uiteraard altijd veranderen) is dat dit niet gaat gebeuren en dat Intel in ieder geval een paar maanden 'vrij spel' zal hebben, waarna AMD begin 2022 met de Zen 3 cpu's met V-Cache zal komen, terwijl dan eind 2022 AMD's Zen 4 en Intels opvolger Raptor Lake uit zouden moeten komen.
Naast V-cache staat ook Rembrandt nog in de planning, dat is Zen3 (of "Zen3+"), wat op een verbeterd procedé wordt gebakken, en verder DDR5 ondersteunt en een RDNA2-IGP aan boord heeft. Dat lijkt in eerste instantie op de laptopmarkt gericht, misschien dat het ook nog wat leuke desktop-APU's oplevert maar dat is dus een heel andere categorie dan de i9's uit het nieuwsartikel.
Rembrandt komt inderdaad ook, maar aangezien dat inderdaad vooralsnog een laptop only product lijkt te zijn zal dat niet direct concurreren met Alderlake op de desktop, zelfs mocht er een APU uit komen voor de desktop dan zal dat op een ander segment gericht zijn dan deze Sku's.
Bummer voor AMD omdat intel in die paar maanden de voorraden overal op pijl zal hebben en AMD bij de launch wederom problemen zal hebben (ze hebben nou eenmaal meer limieten) en daar zal intel wederom de vruchten van plukken.

Mits de cpu natuurlijk niet ruk is.
definitie van vrij spel.....

als je enkel mobo van 2-3-400 eur kan kopen
als je enkel duur ddr5 kan kopen
als er amper koelers zijn

Dan maar afwachten of de echte benchmarks (en niet die grote fake hoop die je nu her en der kan zien) meevallen..... en het de moeite waard is voor deze update.

Niemand heeft al data dat het een hard launch is, laatste generaties waren allemaal niet meteen beschikbaar op 10nm behalve dan de 14nm launch....

Publiek is het niet geweten wanneer juist de v-cache cpu's zijn, wat wel geweten is dat ze gewoon plug-in compatibel zijn met de 500 series mobo's
Daarom ook 'vrij spel'

Koelers verwacht ik trouwens geen issues mee, je hebt immers geen nieuwe koeler nodig, enkel een ander bracket. En betrouwbare fabrikanten zullen die gewoon gratis of tegen kostprijs verstrekken, net zoals bij voorgaande socket introducties, denk bijvoorbeeld aan AM4. Voorbeeld: https://noctua.at/en/noct...d-cpu-coolers-for-lga1700

DDR5 kan inderdaad duur zijn, maar is geen vereiste, sterker nog, het zal zelfs de vraag zijn of Jedec spec DDR5 (wat je gaat zien bij introductie) wel sneller gaat zijn dan de binned DDR4 kits die volop verkrijgbaar zijn.

Verder kan je niet stellen dat de huidige leaked benchmarks 'fake' zijn, of ze kloppen weten we uiteraard niet, het zijn immers leaks. Er is dus zeker een kans dat ze niet allemaal kloppen, echter zullen ze ook niet allemaal fake zijn.

Soft of hard launch zal mijn inziens de belangrijkste factor zijn, heeft Intel de verkrijgbaarheid voor elkaar en leveren ze qua performance dan kunnen ze hier mogelijk een slag slaan. Heeft Intel het voor elkaar zal voor AMD trouwens hetzelfde gelden, ook zij hebben dan een goede launch nodig wanneer ze de V-Cache cpu's lanceren.

Dit is de eerste generatie desktop cpu's op 10nm die los verkocht gaan worden in retail, er zijn dus geen voorgaande generaties waarmee vergeleken kan worden. Tenzij je naar laptop wil kijken, echter Tigerlake was gewoon verkrijgbaar bij release. Beter zelfs dan de verkrijgbaarheid van AMD's 5000 serie maanden na release, wij hebben bijvoorbeeld diverse leveringen binnen projecten moeten uitstellen omdat HP's met Ryzen 5000 niet leverbaar waren.

[Reactie gewijzigd door Dennism op 23 juli 2024 06:11]

AMD komt in november met aankondigingen, maar het zou best kunnen dat Intel ze op een dwaalspoor heeft gezet door 19 november de wereld in te helpen. Nu het 4 november is, is Intel waarschijnlijk wel eerst. Bovendien is iets aankondigen iets anders dan iets in de winkel hebben liggen.

[Reactie gewijzigd door dmantione op 23 juli 2024 06:11]

Aankondigen vs in de winkel is iets dat voor beide een uitdaging is, tenzij je iets zoekt op 14nm.... elke 10nm launch is ook van de verste verste beschikbaar geweest bij start.
Benieuwd naar de benchmarks tussen deze nieuwe chips en de huidige van AMD. Wat zal de verwachting zijn? Zal Intel weer haar positie (dat zij jarenlang heeft gehad) als nummer 1 chipfabrikant weer over kunnen nemen?
Als we naar verkoopcijfers kijken is Intel nog steeds chipfabrikant nummer 1. Qua performance is het natuurlijk een ander verhaal.
Die benchmark is er al. Alleen nog niet erg uitgebreid, maar het geeft wel alvast een idee.

Ik hoop ook dat de vernieuwde scheduler niet alleen beperkt zal blijven tot Windows 11, maar ook in 10 gaat verschijnen. Iets moet die P- en E-cores goed aansturen uiteindelijk om er zoveel mogelijk uit te halen :)
Hier is er nog een

Alleen Intel based

[Reactie gewijzigd door Yzord op 23 juli 2024 06:11]

817 SC zou echt super zijn voor mij. Dit wordt een leuke upgrade vanaf mijn 5600X.
Hopelijk wel en daarna AMD er weer over met Zen 4. Zo zijn wij als consument de grote winnaar :)
Tenzij door deze enorme rekenkracht toename software minder efficient word net als n het verleden en net als dat software minder ram efficient werd naat we meer en meer ram in onze apparaten kregen. Zo heeft windows 10 officieel maar 400-500 MB nodig om te functioneren de rest is allemaal caching voor meuk die het gros nooit gebruikt.
Zo zag je dat de consoles heel efficient waren wua software omdat de zeer beperkte cpu tot hun beschikking hadden en dus goed geoptimaliseerd wer. maar bij de pc zie ik meer en meer games die bagger geschreven worden. Zo speel ik nu een game die thread 5 (dat is een hyperthreading thread...) als main thread gebruikt. Resultaat het werkt belabberd zoals te verwachten. En devs worden over het algemeen wat lakser als de overhead niet zo relevant is.

Dan is de winst dus niet voor de consument maar voor de devs en kan de consument verplicht zijn pc gaan upgraden omdat het allemaal niet meer zo lekker loopt. Zo werken bepaalde browsers niet meer lekker op ''oude'' pc's niet omdat de cpu te traag is maar nee puur omdat de code van de browser gewoon belabberd in elkaar steekt. Zo is firefox nadat je van de oude engine voer gestapt zijn ineens inefficiënt al de nete. een speed test gebruikt ineens al bijna 100% van de core van een 5 ghz 9900k WTF. daar waar edge (voor de chromium port) maar 1 core 15% belastte.
Zo speel ik nu een game die thread 5 (dat is een hyperthreading thread...) als main thread gebruikt. Resultaat het werkt belabberd zoals te verwachten.
8)7

Thread nummers worden arbitrair door het OS toegewezen, en sowieso zijntot vandaag alle threads gelijk, en alle cores. Thread #1 is exact net zo hyperthreaded als thread #65535, en core #1 net zo hyperthreaded als core #8.

Een pair van hyperthreaded cores deelt de Execution Units en L1 cache, dus het OS moet niet 6 running threads over 3 core-pairs verdelen en een vierde fysieke core idle houden.
Daar denkt mijn MSI afterburner en mijn testreultaten toch HEEL anders over. 100% van de tijd zet hij de game automatich op dezelfde 'core' 5 en 100% van de tijd geeft dat problemen. Als ik thread 0,2,4,6,8,10,12,14 forceer dan is de prestatie veel beter als wanneer ik 'core' 1,3,5,7,9,11,13,15 forceer. Ik heb dit uitvoerig getest en het resultaat is consistent.

Er is aantoonbaar verschil tussen deze 'cores' zoals windows ze aan geeft qua volgorde en ook in afterburner waar ik 0,2,4,6,8,10,12,14 en 1,3,5,7,9,11,13,15 geschieden heb weergegeven is dit duidelijk te zien. Als ik cores en dus threads uit zou schakelen in de bios en het echt random zou zijn zouden bij bijvoorbeeld het omzetten naar een 4 core 8 threads niet alleen threads 0,1,2,3,4,5,6,7,8 belast worden maat 0-16 en dat is niet het geval.

Waar jij denk ik op doelt is dat core 1 in windows niet gelijk staat aan een vaste core op de cpu en dat zou in theorie kunnen. Maar dit is compleet irrelevant gezien windows wel degelijk zaken linkt.
Dat die bij iedere boot anders kunnen zijn zal best al geloof ik ook daar niet in. Ik heb namelijk 1 hot core en dat is ALTIJD dezelfde dus ook dat is volgens mij gewoon vaste data.

Sterker nog met de nieuwere chips heb je zelfs specific core turbo's die alleen op de betere cores gebeuren. De bios of windows weten (waarschijnlijk door microcode) dus wel degelijk welke core welke is. Zo heb je ook per core overclocks. daarvoor moet windows toch wel degelijk weten welke core welke is. want als core 1 max 5Ghz doet op 1.4v maar core 2 daar 1.42 volt voor nodig heeft heb je toch een probleem als die overclock na de boot ineens aan een andere core toegewezen word.

Het is dus allemaal niet zo zwart wit als het lijkt.
oh, het is dus niet de game die "thread 5" gebruikt, maar MSI Afterburner die "core 5" assigned. Tja, heel ander verhaal. Als je inderdaad cores gaat forceren vanuit een third-party utility, en het OS zelf besluit om core 4 te gebruiken (fysiek dezelfde hardware), dan kakt je performance in. Dat krijg je met 2 kapiteins op 1 schip. In Linux is de scheduler te vervangen, in Windows niet, en hier zie je het resultaat als MSI dat toch probeert.
Nee Nee Nee ga nou AUB niet zaken erbij verzinnen. Ik zeg helemaal NERGENS dat afterburner iets assigned. Afterburner doet niets dan data weergeven die uit windows/bios( of wat het ook vandaan komt) uit te lezen is. Zo ook Hwinfo64 en core temp enz die allemaal dezelfde data aangeven.
Er word NIETS geforceerd maar alleen uitgelezen en gecontroleerd op afwijkingen. Volgens mij is Afterburner niet eens in staat cores te assignen en geeft die alleen core/thread load en temp aan net als andere tools...

PS. per core temp... nog een aanwijzing dat cores meer fixed zijn als dat je denkt als per core overclock niet duidelijk genoeg was.
berperkte CPU in een console?
De Xbox 360 (2005) had een Xeon 3 core 3,2 GHZ, dat is toch heel aardig?
Niet Xeon, maar Xenon. Dit was een 3-core (met smt) IBM cpu met PowerPC architectuur. Heel wat anders dan een x86, en totaal niet vergelijkbaar.
Tja, als wij genoegen nemen met minder geoptimaliseerde software, dan is dat toch prima? Hoe brakker geoptimaliseerd, hoe groter de kans dat je als benchmark gebruikt wordt :+

Als je echt lekker efficient wilt werken, moet je een oudere Linux-versie pakken, simpele grafische schil erop (LXDE ofzo) en gaan met de banaan. Verwacht niet de splashy schermpjes, fraaie randjes en andere grafische grappen waar we inmiddels aan gewend zijn geraakt, maar het kan absoluut.
Het alternatief is dat je zelf een jaartje of 3 in het verbeteren van software stopt, terwijl je concurrentie al lekker op de markt is omdat ie niks verbetert.
Linux snapt alleen 100% van mijn software niet en is dus na 20 jaar shameless promoten nog altijd waardeloos voor zo ongeveer alles behalve mailen browsen en een nas van mijn gebruik.

De stille hoop dat dat ooit volwaardig word is ondertussen al wel met de horizon verdwenen. Als primair gebruik gaming en foto editing is windows gewoon verreweg de beste optie hoe erg dat ook klinkt.
Importeren vanuit mijn lightroom archief bijvoorbeeld en de content aware functionaliteit is veel beter in photoshop.
Maar daarnaast gebruik ik DPP voor raw conversies omdat dat gewoon de beste software is voor canon raw files en DxO omdat die tool verreweg het beste is voor kleur conversie en andere creatieve filters.

En ja je kan gaan lopen klooien met zaken als wine maar dat is voor mij nogal een kansloos idee. Dan kan je net zo goed gewoon windows draaien aangezien linux voor mij verder helemaal geen toegevoegde waarde heeft.
Als je alles moet gaan emuleren dan betekend dat dat er gewoon nog veel ontbreekt. Vee zaken kunnen in theorie beter werken op linux maar in de praktijk is dat gewoon een illusie.
Wat een beetje gezonde concurrentie toch leuk is voor ons consumenten. Kijk naar de specs. PCIe 5! Als intel nog de absolute nummer 1 was en niet de hete adem van AMD had gevoeld hadden we PCIe 5 pas jaren later gehad! Kijk maar hoe lang we PCIe 3 hadden, 4 is er eigenlijk pas net. En nu dit jaar al versie 5 in consumenten hardware!

Oh en DDR5 is ook zeker leuk! (lagere latency = minder tijd voor de CPU om te wachten op je data en daarmee een beter performende CPU)

De volgende ZEN generatie krijgt ook PCIe 5 (en DDR5).Netjes! Zo houden Intel en AMD elkaar scherp
Oh en DDR5 is ook zeker leuk! (lagere latency = minder tijd voor de CPU om te wachten op je data en daarmee een beter performende CPU)
DDR5 heeft een hogere bandbreedte, maar geen lagere latency dan DDR4 (of zelfs DDR1). De latency van intern geheugen is grotendeels de tijd die nodig is om een signaal van de CPU naar het intern geheugen te krijgen, en terug, dus dat zal nooit significant minder worden. En voordat iemand aankomt met "misschien zit in de toekomst het intern geheugen wel in de CPU zelf", dat geheugen bestaat al en heet "cache".
Je kunt trouwens wel degelijk wat winnen met on package DRAM vs DDR-X. Dus er is niet alleen cache (wat dan vaak weer SRAM is) in de CPU mogelijk.
Ja, daar heb je natuurlijk wel gelijk in, zo doet de M1 het. Dan stap je wel van het hele concept van de componenten die in een gangbare PC zitten, met alle nadelen van dien (vergeet upgraden of configureren van een PC maar), dus bij Intel- en AMD-platformen zie ik dat nog niet gebeuren.
Oww echt!? Ik had het nog even gegoogled voor ik het schreef en vond juist als 1 van de plus punten de lagere latency..
https://www.rambus.com/bl...y-for-ddr5-dimm-chipsets/ zie het plaatje daar in de kolom "DDR5 Advantages". Ik geloof je hoor :) Ik zie wel wat de effecten zijn zodra pc's met dit uitkomen en door de benchmark molen gaan.

[Reactie gewijzigd door markg85 op 23 juli 2024 06:11]

DDR5 heeft tot nu toe juist FLINK hogere latency. Tot wel 2x zo hoog of erger.

https://wccftech.com/surp...st-with-ddr5-6400-memory/
Kijk daar maar even naar.

En dan vervolgens naar mijn pc :

https://ibb.co/94c2M3s


DDR5 Heeft nog heel wat hordes te nemen voordat het even snel gaat zijn qua latency. of het uiteindelijk beter is als DDR4 door hogere bandbreedte moeten we nog zien maar dar lijkt me sterk. Veel programma's geven alleen om het aantal GB en niets om de snelheid. En games die wel om doorvoer snelheid geven geven nog meer om de latency.

[Reactie gewijzigd door computerjunky op 23 juli 2024 06:11]

Ik zie het idd, maar er staat verder geen uitleg bij wat dat betekent of hoe t werkt.
Zelf kwam ik dit artikel ns tegen, daar blijkt dat de CAS latency al 20 jaar rond de 14ns zit, en met DDR5 ook zoiets zal kunnen zijn.
Ben ook benieuwd naar het verbruik, en hoeveel dat scheelt tussen de opgegeven tdp en het werkelijke verbruik ;)
En dan vooral voor de K modellen
Ik zie onder nieuwe CPU's en GPU's vaak reacties over gebruik, los van dat het een leuke statistiek is, kan ik zelf niet verzinnen waarom het zo zwaar mee zou rekenen voor een PC om mee te gamen en voor het gemiddelde desktop werk.

Naar mijn idee is juist het idle vermogen vele malen belangrijker gezien een PC daar 80-90% van de tijd op draait in mijn bovengenoemde scenario, verschillen in piekverbruik maken qua energieverbruik vrij weinig uit t.o.v. oudere CPU's die minder efficiënt zijn.

Ik ben wel benieuwd wat er zo belangrijk kan zijn aan het verbruik t.o.v. TDP etc in de pieken? Zijn dat hele specifieke use-cases?
Verbruik = warmte. Dat is een factor op zich. Met een 6900XT in my kast word de temp hier in een uur gamen al 3-4 graden warmer in de kamer ! Ik zit dus totaal niet te wachten op een cpu die ook nog eens 250 watt aan warmte de kamer in pompt.

Daarnaast: verbruik = geld dus als een cpu 50 euro meer kost en je over 5 jaar tijd ook nog eens 100 euro extra aan stroom kost kan je misschien beter voor die andere cpu gaan die nu 120 euro meer kost maar minder verbruikt. Het hangt natuurlijk af van type gebruik en duur van gebruik maar 100 zou in min situatie een minimaal zijn als ik zou overstappen naar die slurpende 11900K.

Idle is wat mij betreft even belangrijk. Mijn 9900k gebruikt nu idle 5.5-11.5 watt dat kan makkelijk minder en ook mijn gpu gebruikt idle nog 7 watt en het ram geheugen 2 watt. al met al gebruikt de totale pc 74 watt idle. Zoals je kan zien is er due niet heel veel te halen als het op idle verbruik aan komt bij een cpu en gpu maar is het de rest van het systeem waar flink verspild word.

dit kan komen door de 2x200mm fans of 2c 120mm fans of de 1x 140mm fan aan de achterkant of het idle verbruik van het moederbord of de verplichte leds en de idle drain van de voeding. Idle verbruik gaa6t dus niet super veel minder worden denk ik.
Als dat minder als 3 watt word ben ik verbaasd.

TDP is een vage metric. Bij intel is over het algemeen TDP (thermal design power oftewel benodigde koeling) redelijk in lijn met wat je pc verbruikt bi gewoon verbruik dus gaming op stock clocks en standaard cpu benchmarks zonder cache en FPU stress tests (getest met aids64). Bij amd klopt daar echter niet veel van omdat die TDP heel anders berekenen.
Veel van die hoge verbruik nummers komen dan ook van fpu heavy stress tests die eigenlijk niet of nauwelijks voorkomen in dagelijks gebruik tenzij je wetenschappelijk werk doet maar dat is een niche van een niche omdat die meestal servers gebruiken en geen desktop systeem.

Al met al moet je dus ook vooral niet kijken naar piek power omdat dat gewoon niet heel relevant is. mijn 9900k heaft een piek van over de 200 watt maar als ik gewoon battlefield 5 speel op 180+ FPS dus een vrij zware cpu load kom ik niet eens aan de 95 watt van de TDP.
Bij intel is over het algemeen TDP (thermal design power oftewel benodigde koeling) redelijk in lijn met wat je pc verbruikt bi gewoon verbruik dus gaming op stock clocks en standaard cpu benchmarks zonder cache en FPU stress tests (getest met aids64). Bij amd klopt daar echter niet veel van omdat die TDP heel anders berekenen.
Nou, sinds rocket lake heeft Intel toch echt de prijs in handen voor de meest nietszeggende TDP-waardes. Zomaar een factor 2 over de TDP in video-editing (en nee, dat is geen syntetische benchmark: in cinebench gaat het richting een factor 2.5).

Hopelijk is Intel's 10nm-procede hierin volwassen genoeg om weer op een fatsoenlijk verbruik uit te komen.

Maar inderdaad: bij alle CPU's in het high-end segment moet je eigenlijk gewoon metingen van het verbruik opzoeken, wil je er een PC mee bouwen. Irritant, maar dan weet je wel precies waar je aan toe bent.

[Reactie gewijzigd door bwerg op 23 juli 2024 06:11]

Ja dat zijn dus waarden van een stress test die niet overeen komen met standaard gebruik zoals ik dat bedoel...
Volgens cinebench slurpt mijn 9900k ook 145-168 watt afhankelijk van bios settings maar bij een standaard cpu test kom je daar nooit aan.

Ook word er geregeld vergeten dat Intel AVX instructies doet die am niet doet of niet zo goed doet en dat daar een flinke slurp aan stroom bij komt kijken maar je daat een veelvoud aan prestaties voor terug krijgt als je software er baat bij heeft. Maar nogmaals voor het meeste gebruik doet het er niet toe. continu cinebench draaien is wat mij betreft niet een taak die als standaard cpu gebruik gerekend kan worden net als prime95. Vrij niets zeggen over de algemene prestaties en verbruik van een cpu.

Voor zaken als voeding en VRM is het wel weer een belangrijk punt om dat die piek die je af en toe kan krijgen wel je pc kan laten crashen. Recente videokaarten hebben dat heel duidelijk gemaakt aangezien een groot deel van de voedingen naar de sloop kan door de enorme pieken in die kaarten.


Verder is minder verbruik altijd mooi meegenomen. Mijn 3770k gebruikte maar 75 watt op 4 core 4,8 ghz... Dat kan je echt vergeten op recentere chips van beide amd en intel. Prestatie per watt is dan wel weer indrukwekkend. bi sommige games doet mijn op papier slurpende 6900 XT het met de helft van het vermogen van mijn vorige 1070 (1 van de beste prestatie per watt kaarten ooit) en levert dubbel de FPS. daar stond ik toch wel even van te kijken. Jammer dat het 20 jaar duurt om zo die 300 euro die ik te veel betaald heb terug te verdienen...
ontinu cinebench draaien is wat mij betreft niet een taak die als standaard cpu gebruik gerekend kan
Vandaar dat ik de adobe-benchmarks aanhaal, dat is geen synthetische benchmark... Bij cinebench of prime95 kom je nog veel hoger uit. Als je als gebruiker niet normaal kan photoshoppen of video-editen zonder dat dat onder normaal gebruik valt, dan mag Intel wel even wat dikke uitroeptekens bij hun product zetten (waarom koop je anders zo'n rekenmonster?).

Ja, jouw 9900k doet het wat betreft verbruik prima. Vooral bij de topmodellen in de 11xxx-serie is dat behoorlijk ontspoord.

En over je vergelijking met de 3770k: het is natuurlijk maar of je het topmodel koopt. Iets minder kloksnelheid en cache, en de verbruikscijfers zijn helemaal prima (zie bijvoorbeeld de 5800G, dat ding is indrukwekkend efficient). En ik moet nu denken aan mijn wolfdale met undervolt, 27 graden celcius op load <3.
Ik heb gek genoeg nooit het voltage van mijn 3770k aangepast. Gewoon multiplier omhoog en gaan met die banaan en het werkte 8 jaar prima.

Wat ook een dingetje is is dat veel chips tegenwoordig gewoon VEEL te veel voltage mee krijgen. zo zet mijn moederbord de 9900k standaard even op 1.39 volt! met ook VCCSA en VCCIO op 1.39 volt. dat heb ik terug gezet naar 1.215v voor vcore en 1.17v voor beide VCC. Dat scheelt echt enorm zonder dat het ook maar iets in de prestaties scheelt.
Ik snap waarom ze dit doen maar (gemakzucht en RMA reductie) maar het is gewoon zeer inefficiënt voor 98% van de chips en mede waarom ze zo enorm heet worden en bakken stroom verbruiken.

[Reactie gewijzigd door computerjunky op 23 juli 2024 06:11]

Inderdaad :)
En anders de power limit op max opgegeven tpd waarde instellen :P
Waarom zou je een processor limiteren op een hypothetische TDP? Je wilt de limiet van je koeler gebruiken, dat is wat je feitelijk kunt koelen.

Je ziet dit expliciet in Intel's laptop CPU's, waar de fabrikanten expliciet moeten instellen hoe goed de koeling is.
Als je altijd de limiet van de koeler gebruikt zul je last kunnen krijgen van cpu throttling, extra hoog stroom verbruik/warmte ontwikkeling, en extra geluid/herrie, dat ligt aan de fan(s) van je koeler ;)
Het is niet zo zwart/wit, zeker niet met de laatste 2 Intel desktop cpu's (10 en 11th gen) en bijbehorende moederborden, @Dennism legt het zeer goed uit !
Het issue daar is dat een door de fabrikant opgegeven TDP waarde niet van toepassen is wanneer een CPU buiten spec draait. En Tweakers test niet binnen spec, dus kun je die verbruiks resultaten niet direct vergelijken met het door Intel geadverteerde TDP.

Een door de fabrikant geadverteerde TDP waarde is alleen bruikbaar wanneer de CPU opereert binnen de door de fabrikant gestelde specificatie. Ga je buiten spec draaien (ongelimiteerde Tau / PL2 waarden in het geval van veel DiY moederborden) of zelfs overklokken dan zal je inderdaad een veel zwaardere koeling nodig hebben dan het geadverteerde TDP aangeeft. Maar goed, dat mag dan ook geen verrassing zijn.

Hou er ook rekening mee dat TDP in principe niets zegt over het maximum verbruik, iets wat veel mensen wel lijken te denken.

Wat de Intel TDP waarde betekent is dat Intel garandeert dat wanneer jij een correct geïnstalleerde koeler gebruikt die het gespecificeerde aantal Watts in warmte (veel voorkomend: 35,65 en 125W bij desktop cpu's) kan afvoeren dat de CPU in non-avx workloads ten alle tijdens minimaal de geadverteerde baseclock frequentie zal halen bij een 100% belasting wanneer de CPU draait onder de door Intel gespecificeerde instellingen qua PL1 / PL2 en Tau.

Het maximale verbruik zal een stuk hoger liggen dan de geadverteerde TDP waarden, zo mag een 11900K bijvoorbeeld binnen de Intel spec 56 seconden lang 250W gebruiken, waarna deze moet terugvallen naar een maximaal verbruik van 125W.

Echter dit laatste schakelen veel DiY moederborden uit, waardoor Intel CPU's 24/7 op hun maximale verbruikswaarde kunnen draaien op dat soort moederborden zolang de koeling maar afdoende is. Dat betekent echter wel dat je logischerwijs niet meer met een koeler af kan die 125W kan afvoeren, nee, dan moet je dus koelers gaan gebruiken die 250W+ aan warmte kunnen afvoeren.

[Reactie gewijzigd door Dennism op 23 juli 2024 06:11]

Maar goed, dat mag dan ook geen verrassing zijn.
Als veel moederborden dit out-of-the-box zo doen is dat anders een behoorlijke verrassing. Intel kan het afschuiven op "buiten spec" maar ze hebben zelf ook wel een verantwoordelijkheid om hier duidelijkheid in te creëren. Al was het maar omdat ze nu op een hele berg reviews van diverse websites (zeker niet alleen tweakers) met diverse moederborden slecht uit de bus komen, als consument heb ik er dan weinig vertrouwen in dat dat in mijn eigen zelfbouw-systeem wel goed gaat.
Met Intel moet je nu inderdaad even extra kijken naar de bios instellingen en cpu koeler, voor gaming zijn de stock instellingen volgens mij geen probleem, omdat je daar ook meer met je gpu bezig bent, wel voor bijv photoshop of andere toepassingen die alles uit de cpu willen trekken om zo snel mogelijk een taak te voltooien
En zoals gewoonlijk is alles bij Intel juist en AMD fout... wat hadden we anders verwacht van al jouw tekst en uitleg....

https://www.anandtech.com...-5800x-and-5700x-tested/8

effe realiteit... ja ook AMD gaat boven zijn TDP waarde, maar laat ons niet de absolute waardes vergeten die bij Intel het dubbele zijn?

TDP bij Intel is waardeloos, want als je de TDP zou volgen kwa koeling dan heb je amper nog performance en dan koop je gewoon een kat in een zak. Denken dat je een goede performantie hebt maar in realiteit doet dat ding niets anders dan throttle.
Tja als mensen eens gewoon lezen dan had je gezien dat dat wat ik zeg best klopt. Maar mensen halen er maar wat graag tests van onrealistisch systeem gebruik bij en dan krijg je andere waardes.
Peak power zegt niets over het verbruik bij gewoon dagelijks gebruik. Een sportauto rijdt ook 1 op 4 als je gas geeft maar in de realiteit rij je in de stad en op de snelweg en rij je gemiddeld 1 op 12 met een sportauto.
Zo is er ook het probleem van moederbord fabrikanten die bij intel de turbo naar all core kwakken en de voltages de lucht in boosten puur uit gemak.
Als je in de bios bij intel je power limieten op stock zet kost dat je minimaal prestaties of zelfs niets maar gaat het verbruik ineens richting die tdp waardes ondank dat tdm niet direct het stroomverbruik betekend. Daar waar het bij AMD afwijkt van de tdp waardes. Dat is al vele generaties zo en zelfs erkend door bekende reviewers zoals gamers nexus.

Als je gaat cherry picken in resultaten en een deel van de feiten achterwege laat kan zelfs trump de verkiezingen winnen..

En ja TDB als waarde om je koeler op te baseren is nutteloos maar voor amd is dat niet anders. tdp van de 5800x, 5900x en 5950x is 105w denk je echt dat je daarmee die cpu kan koelen? Heck de 65 watt van de 5600x is al niet voldoende. En hoe kunnen ze in vredesnaam zeggen dat een 8 core 16 thread dezelfde koeler nodig heeft als een 16 core 32 thread. Zie als je maar genoeg gaat muggenziften kan je ieder merk wel onder de loep nemen. TDP is al jaren nutteloos maar daar hadden we het niet over. Ik had het over het stroomverbruik en hoe dicht dat bij de TDP ligt. Dat is bij intel correcter. Nog altijd niets zeggen en het heeft al helemaal niets met TDP te maken maar goed.
En dan hebben we het nog niet eens over het feit dat elke koeler fabrikant zin TDP anders meet en je dus al totaal niet aan die waardes heb en puur naar testresultaten moet kijken. .

[Reactie gewijzigd door computerjunky op 23 juli 2024 06:11]

Vooral voor de koeling ;)
Ben benieuws naar de prestaties en stroomverbruik. Het concept is zeker een mooi concept, maar ik wil real life performance zien en het swappen van threads, zelfs al is dit 30 microseconde, kan volgens mij toch een performance hit opleveren, zeker bij multitasken en als er veel geswapped zal worden. Daarom de praktijk afwachten. Ik zie er in elk geval wel wat in, en dat dit ten goede van het stroomverbruik komt. En gaat dit ook goed werken onder linux
Dat swappen zal je echt niets van merken tenzij de swap niet gebeurd dan heb je natuurlijk een probleem als je programma op efficiënt cores blijft hangen en meer nodig heeft.
Dit swappen gebeurd ook al op veel mobiele telefoons en tablets en daar merk helemaal niets van.
Belangrijker is of programma's de juiste cores aangewezen gaan krijgen. Als dat fout gaat kan dat grote gevolgen hebben voor de prestaties.
Als dit alleen goed in Windows 11 werkt kan dat nog wel eens een nadeel zijn. Er zijn veel mensen die bij Windows 11 tot het eerste 'service pack' wachten of simpelweg een half jaar voordat ze overstappen.
Als wat alleen goed in W11 werkt? Hardware is toch backwards compatible?
Dus ook XP - W10 draait hier op.
Tja, in hoeverre is de backwards compatibility mode beperkt? We weten het natuurlijk nog niet. Maar stel dat die efficiency cores ook ingame worden ingezet en daardoor games slecht draaien. Dat zou niet zo lollig zijn. Of dat je de efficiency cores altijd handmatig moet inzetten, lijkt me ook niet zo'n feest. Nogmaals, we weten het niet, maar ik hoor alleen dat het goed in W11 werkt.
In Windows 10 kún je geen cores handmatig inzetten - op z'n best uitzetten, maar dat kan niet als gebruiker, alleen als programmeur.

En als je langzame cores uitzet als programmeur, dan heb je dus het probleem dat je onbelangrijke threads óók een slice van de snelle cores afsnoepen. Scheduling was altijd al een uitdaging, en heterogene cores maken dat veel lastiger.
Ik kan prima handmatig bepalen welke cores per programma mogen worden gebruikt in Windows 10. On the fly in taakbeheer en vooraf met parameters.
Linus had pas een test gedaan met verschillende games onder W10 en W11 (beta) vrijwel alle moderne games, geen verschil, oudere games zoals ik dacht pubg zakte de max fps flink in, omdat W11 de workload beter spreid over alle cores/threads, maar dat kost extra tijd tussen gpu en cpu
Dit verschil was kleiner bij een oudere gpu omdat die beperkter is qua doorvoersnelheid in vergelijking met de nieuwste
Correct me if im wrong, ik heb het zo onthouden O-)
Dat wel. Maar er zitten in windows 11 wat optimalisaties. Thread director en de scheduler zijn in samenwerking met Microsoft in ontwikkeling.
Denk dat mensen die eenn nieuwe pc kopen gewoon een nieuwe windows erbij pakken. Ik ga er gewoon vanuit dat mensen met een windows 10 key namelijk gewoon kunnen upgraden omdat anders de adoptie zo goed als nul word.
Geleakte benchmarks zagen er interessant uit. Ben blij dat de competitie weer terug is :) voor consumenten is het een goeie tijd als het om cpu's gaat
Stuk sneller maar ook heel stuk duurder....
Daarom zitten we nu ook goed. AMD en Intel zien dat ze elkaar kunnen matchen in performance, dus gaan ze ook strijden om de kosten lager te maken
Nou AMD heeft juist de prijzen van de Ryzen 5000 flink verhoogd omdat ze Intel voorbij waren, en de Intel 12000 zal weer duurder worden omdat ze "volgens benchmarks" weer sneller zijn dan AMD.....
Hoeveel ben ik denk je kwijt voor een ASUS gaming moederbord met de juiste socket, een Intel Core i9-12900K en het juiste DDR5 geheugen om optimaal te gamen hiermee? ( heb al een goede GPU) 1000 euro?
Wel iets meer.

Processor alleen is al 750,-, als je al niet de scalpers-prijs gaat betalen in het begin. Moederbord zal iets van 250 a 350 zijn. En dan moet je nog aan het DDR5 beginnen.
Tenzij er grote verrassingen zijn wil je helemaal geen ddr5 voor gaming. ddr4 zal zeer waarschijnlijk beter zijn.
En qua prijzen valt niets te zeggen maar de eerste roddels gaan over een 650 euro voor de 12900k. dus als dat waar is ben je wel minimaal 900-950 euro kwijt
dat dacht ik dus ook: ddr5 zou veel hogere latency hebben.

fr33thy gaf anderszijds aan in zijn chat met torenhoge verwachtingen uit te kijken naar ddr5 . Hoger nog dan de verwachtingen voor de 12900k op het gebied van gaming...

[Reactie gewijzigd door tombom123 op 23 juli 2024 06:11]

Tja het is een beetje de vraag of de extra bandbreedte de latency gaat compenseren. Zelf denk ik van niet maar we gaan het zien.
700USD
https://www.pcinvasion.com/intel-alder-lake-price-leak/

If you want the best, you pay the price ;)

[Reactie gewijzigd door OxWax op 23 juli 2024 06:11]

Tja ik had geen illusies dat als dit sneller zou zijn al is het maar voor gaming alleen dat ze meer zouden vragen.
Iedereen die de afgelopen 16 maanden meer als msrp betaald heeft is daar schuldig aan. Deze bedrijven hebben gezien hoe gek het volk is en dus gaan ze gewoon vragen wat ze denken dat er betaald gaat worden.
Deze bedrijven hebben gezien hoe gek het volk is en dus gaan ze gewoon vragen wat ze denken dat er betaald gaat worden.
Het is waard wat de gek er voor geeft, ofwel "price setting" in marketing termen.
http://www.sataosaajat.fi...s/Study/pricesetting.html

[Reactie gewijzigd door OxWax op 23 juli 2024 06:11]

"Tenzij er grote verrassingen zijn wil je" NOG "helemaal geen ddr5 voor gaming."
Geef het een half of heel jaar en het zal sneller zijn als DDR4.
Mwa dat heeft bij DDR4 toch wel veel langer geduurd. Al was daar de extra bandbreedte een veel grotere factor als dat die nu lijkt te zijn.
Als ik kijk naar ddr4 met 62 GB/s doorvoer en true latency van 9 en ddr4 geheugen met een doorvoer van 32 GB/s met een latency van 9 dan lijkt er geen winst te halen te zijn in de extra bandbreedte en dat is zon ongeveer het enige voordeel van ddr5.

Daarnaast is de latency stappen die gemaakt moeten worden met ddr5 veel groter als dat ze met ddr4 waren.

Op dit item kan niet meer gereageerd worden.