Gerucht: Intel brengt Raptor Lake-processors en Z790-chipset op 17 oktober uit

Intel brengt zijn eerste Raptor Lake-processors mogelijk medio oktober uit. Dat meldt leaker Enthusiastic Citizen. Intel zou de processors eind september aankondigen, tijdens zijn Innovation-evenement dat op 27 en 28 september plaatsvindt.

Enthusiastic Citizen, die vaker vroegtijdige informatie over hardware deelt, schrijft op Chinees sociaal medium Bilibili dat Intel zijn Raptor Lake-processors op 17 oktober op de markt brengt. Het zou dan gaan om overklokbare K-processors, in combinatie met een nieuwe Z790-chipset voor moederborden. Intel zou in eerste instantie met een Intel Core i9-13900K, Core i7-13700K en Core i5-13600K komen. Het bedrijf zou tegelijkertijd KF-varianten van deze drie modellen introduceren, die geen geïntegreerde gpu hebben maar verder identiek zijn. Tijdens de CES in januari 2023 moeten niet-overklokbare processors en lager gepositioneerde H770- en B760-chipsets aangekondigd worden, met een release later die maand. Intel hanteerde een soortgelijke releasestrategie met Alder Lake.

Volgens de leaker komt Intel ditmaal niet met een H710-chipset. In plaats daarvan zal de H610-chipset ook deze generatie gebruikt blijven worden. De leaker zegt daarbij dat 600-serie moederborden ondersteuning krijgen voor de nieuwe Raptor Lake-chips. Dat was al bekend; Raptor Lake behoudt socket LGA-1700 en veel moederborden hebben inmiddels al biosupdates gekregen die ondersteuning voor Raptor Lake toevoegen.

Raptor Lake krijgt verder DDR4- en DDR5-ondersteuning, net als Alder Lake. Daarbij zou de officiële DDR5-ondersteuning wel worden opgeschoven van DDR5-4800 naar DDR5-5600, claimt Enthusiastic Citizen. De Z790-chipset zou twintig PCIe 4.0-lanes en acht PCIe 3.0-lanes krijgen. De huidige Z690-chipset heeft twaalf PCIe 4.0-lanes en zestien PCIe 3.0-lanes. Het aantal lanes op de processors blijft hetzelfde, met zestien PCIe 5.0-lanes voor videokaarten en vier PCIe 4.0-lanes voor opslag.

Als deze releasedata kloppen, dan volgt Raptor Lake iets minder dan een jaar na Alder Lake. Intel kondigde die chips vorig jaar ook aan tijdens zijn Innovation-evenement en bracht ze begin november uit. Dit jaar komt AMD ook met zijn Ryzen 7000-processors, die gebruikmaken van een nieuw AM5-platform en een Zen 4-architectuur. Volgens geruchten van VideoCardz worden die processors een paar weken eerder dan Raptor Lake verwacht.

Intel Raptor Lake-release via Enthusiastic Citizen

Vermeende Intel Raptor Lake-processors naast hun Alder Lake-voorgangers (via VideoCardz)
Processor Cores/Threads Max. turbofrequentie Tdp (PL1/PL2)
Core i9-13900K 24C/32T (8P + 16E) 5,5GHz+ 125W/228W
Core i9-12900K 16C/24T (8P + 8E) 5,2GHz 125W/241W
Core i7-13700K 16C/24T (8P + 8E) 5,3GHz 125W/228W
Core i7-12700K 12C/20T (8P +4E) 5,0GHz 125W/190W
Core i5-13600K 14C/20T (6P + 8E) 5,1GHz 125W/228W
Core i5-12600K 10C/16T (6P + 4E) 4,9GHz 125W/150W

Door Daan van Monsjou

Nieuwsredacteur

24-07-2022 • 11:38

76

Lees meer

Reacties (76)

Sorteer op:

Weergave:

Ik zie hier, net als bij videokaarten, de trend naar steeds hogere wattages. Ben zelf net overgestapt van een AMD 5900X naar een 5700X (65 watt, en nog steeds snel), omdat ik met de 5900X de case- en cpu fans (alle Noctua) niet stil kon krijgen. Bij het minste of geringste spoelden die op naar hoge snelheden, ondanks pogingen met fancurves en bios undervolt.
Ben benieuwd hoe dat in de toekomst gaat zijn.
Je koeler is dan ondermaats :) heb hier een 5950 met dual noctua op een NH14 want grote cpu's hebben goede koeler nodig ow en AIO is traag ik krijg daar de 5950 niet mee koel.
Noctua NH-U12A. Leek me niet ondermaats in een Meshify case met 5 casefans. Het gaat me om de trend omhoog. Hoe gaan we dat koel en stil houden?
Truc is alleen te beseffen dat geluid, warmte en prestaties een delicate balans zijn. Bijvoorbeeld:
- Minder warmte = minder geluid want minder koeling nodig.
- Minder warmte = meer en constantere prestaties, want kan langer de oc/turbo/.. frequentie vasthouden.
- Mits warmte onder de limiet, het is niet erg als je CPU constant 70 is en je GPU constant 80 bijvoorbeeld. Als dat het geluid acceptabel houdt, en je geen throttling krijgt (dus CPU/GPU boost oneindig vol te houden) is dat gewoon goed.


Vervolgens is de truc te beseffen dat iets als de BBG (bang for buck principe) ook opgaat voor warmte en geluid. Als je kijkt naar gaming, zit er geen verschil tussen 5600x/12400 of iets beters. Ja, hele 10 fps: van 160 naar 170 op 1080p multi-game average op een 3090. Gebruik je geen GPU van 2000,- zal het verschil in absolute termen minder zijn.

Niet alleen kwa prijs maar ook kwa warmte generatie is het verschil echter astronomisch. Zo eindig je voor een stil systeem al helemaal bij een 65w TDP processor. Geeft je meer warmte budget richting om je systeem stil (case fans of GPU koeling iets lager) te houden.


Idem kun je bij GPU's ook te ver gaan. Veel GPU's staan rustig 100 fps te doen terwijl scherm maar 60hz doet. Of 300 fps op een 144hz monitor. Beperk die onnodige frames met een FPS limiter of synchronisatie. Al die frames die niet worden weergeven zijn wel belasting zijn voor je GPU, en de temperatuur (en daarmee geluidsproductie) dalen spontaan wanneer de overbodige berekeningen niet gedaan worden.


Dus concentreer je op wat je nodig hebt, niet wat je kunt betalen. Dat is de makkelijkste manier om warmte en geluidsproductie te beheersen.
Idem kun je bij GPU's ook te ver gaan. Veel GPU's staan rustig 100 fps te doen terwijl scherm maar 60hz doet. Of 300 fps op een 144hz monitor. Beperk die onnodige frames met een FPS limiter of synchronisatie. Al die frames die niet worden weergeven zijn wel belasting zijn voor je GPU, en de temperatuur (en daarmee geluidsproductie) dalen spontaan wanneer de overbodige berekeningen niet gedaan worden.
2 woorden "Input latency" - het heeft wel degelijk nut om meer FPS te renderen dan je monitor refresh rate aankan. Ik ga het niet uitleggen, zie hiervoor dit filmpje.

En voordat je zegt : Maar als je een GPU kan betalen die meer kan renderen dan 60hz , heb je vast geld over voor een high-refresh rate monitor ? Nee. :-) Neem overwatch, zo licht om te draaien, dat je met een middel-motor makkelijk over de 60fps kan renderen , maar dat zegt nog niet dat die persoon geld overheeft voor een dikke gaming monitor.
Maar gelukkig is 'PC gaming' heel veel meer dan 'high level twitchy shooters'... ;) Het advies van @Xanaroth is voor velen dan ook weldegelijk een heel goed advies!
Je vergeet dat ook die gebruikersgroep hun systeem optimaliseert voor de eigen ervaring. Zo zal je in game formats waar elke 0,1% telt, o.a. altijd alle settings op de laagste stand (i.e. competitief) ipv maximale Ultra stand hebben staan. Alles voor de FPS, beeldkwaliteit boeit niet. Zo zie je ook dat CPU en RAM sneller een bottleneck vormt dan GPU bijvoorbeeld, maar ook dat screentear gewoon geaccepteerd wordt ipv iets dat je ten koste van alles wilt voorkomen.

Bovendien zal de groep waar elke 0,1% performance telt, geen wens hebben voor temperatuur of geluid. Die hebben toch een noise cancelling headset op, want elke kogel en voetstap moet goed hoorbaar zijn en wáár deze vandaan komt. Dus boeit het niet dat alles op 100% loopt te draaien en 50+dba produceert, horen ze letterlijk niet.

Dus je vergelijkt nu groep die snelheid >>>>>>beeldkwaliteit en geluid niet relevant vind, met groep die beeldkwaliteit>>>>>snelheid en geluid wel relevant vind. Ja, dan krijg je een verschil. Logisch toch.

Maar voor alle gamers die gewoon casual shooter or racegame spelen? Of degene die een headset niet fijn vinden en dus met 2.0/1, 5.0/1 of soundbar werken en omgevingsgeluid relevant is? Degene die wel hoge settings willen waarbij het er mooi uit ziet? Of uberhaupt een andere game spelen dan high-speed twitchy shooters? Van single player (RDR2, GTA V), RTS, MMORPG (Warcraft, Guildwars), Simulatiegames (MSFS, Cities skylines).

Wwaar dergelijke reactie niet relevant is is de extra FPS ook niet relevant. Enkel controleren van de 1% lows voor je game ervaring, dat je geen gestutter of vertragingen merkt, is genoeg. In elk geval voor de normale sterveling die niet full-time geld verdient met streamen en winnen van grote internationale FPS toernooien.

[Reactie gewijzigd door Xanaroth op 26 juli 2024 00:20]

Zet de computer in een andere kamer, gat in de muur kabels er door heen en klaar.
Geen last van het geluid van de computer.
Idem kun je bij GPU's ook te ver gaan. Veel GPU's staan rustig 100 fps te doen terwijl scherm maar 60hz doet. Of 300 fps op een 144hz monitor. Beperk die onnodige frames met een FPS limiter of synchronisatie. Al die frames die niet worden weergeven zijn wel belasting zijn voor je GPU, en de temperatuur (en daarmee geluidsproductie) dalen spontaan wanneer de overbodige berekeningen niet gedaan worden
Zeg dat maar niet tegen iemand die E-Sports doet. Die draaien rustig 500FPS op een 300HZ monitor. Dit omdat de Engine dan draait op 500FPS en daarmee lagere latency behaald. Je bereikt een punt waarbij je anticipatie zo goed word dat je sneller kan zijn omdat je al iets verwacht en reageerd op het geen wat je verwacht en niet wat je ziet. Dat is vaak een stuk sneller en dan heb je wel degelijk wat aan de "onnodige" frames.

Natuurlijk is dit enkel relevant voor 0.01% van de gamende bevolking en ben ik het eens dat de meeste mensen gewoon een framelimiter moeten gebruiken, al is dat RTSS of via Nvidia Control Panel / Radeon software. Heb alles van mijn gecapped op 120FPS omdat ik mijnscherm op gecapped op 120HZ (Kan tot 165 maar ehm, 120 is een perfecte interger van 30 en 24.. dus dat vind ik wat beter)
Laten we wel wezen. Je hoeft het niet perse koel te houden. Een CPU kan prima tegen hoge temperaturen. Echter: je wil op een stille manier een grote hoeveelheid vermogen afvoeren. Als dat stil kan terwijl de CPU 90 graden is dan is dat niet echt een probleem. Dat betekent dus grotere koelers (meer oppervlak) of nieuwe technieken zoals een thermosyphon (efficienter). Als je dat met bestaande koelers wilt doen dan heb je wel een issue. Dan ga je herrie krijgen.

Om het stil te houden denk ik dus dat we aankomende jaren vrij beestachtige vormen van CPU-koeling zullen gaan zien. Heb je een CPU van 600 euro, mag je er nog een keer een koeloplossing van 200 euro opschroeven. Niet echt ideaal.

En het is te danken aan de 'CPU-wedloop'. Je ziet het aan de 5700X (hierboven al aangehaald) en 5800X. Beperk de PPT van de 142 watt van de 5800X tot ehh.. 76 watt zeg ik even uit mijn hoofd voor de 5700X en je hebt maar een paar procent minder prestatie. Dat je voor die 5% meer prestatie twee keer zoveel vermogen nodig hebt is natuurlijk idioot en te danken aan het feit dat AMD in benchmarks dan (potentieel) net boven Intel uitkomt (en vice versa). Alles om maar te kunnen zeggen dat je de snelste gaming CPU hebt.

Voor normaal thuisgebruik (en dan heb ik het over lekker gamen en niet perse voor de 90 FPS gaan in plaats van 87 FPS, beetje werken etc.) kan je qua CPU al een behoorlijke tijd beter een middenmodel halen dan een topmodel. Zie de Best Buy Guides en diverse review van andere sites over wat nu goede gaming-CPU's zijn. De paar gebruikers die echt perse het aller-allersnelste willen hebben kopen ook die koeler van 200 euro wel (als voorbeeld).
Ik heb zelf een vrij oude CPU waarbij dit allemaal niet speelt, maar: hoe makkelijk is het PPT in te stellen in moderne moederborden? En dan met name op AM4, aangezien ik binnenkort een AM5 wil nemen. Idealiter neem ik gewoon een 7700X (á la 5700X) maar ik verwacht dat er initieel alleen van die stroomslurpers uitkomen. AMD heeft al aangegeven dat ze tot ~5,5GHz zullen komen, ik verwacht dat zo'n ding op 3,5GHz - 4,5GHz nog steeds als een trein draait, op hooguit helft van het vermogen, dus het plan is om dan een 7800X te nemen en die dan op 50W max in te stellen.

Het productieprocedé is hetzelfde als die van Apple's M1, en die draaien ook als een trein, met een zeer laag verbruik. Andere CPU, maar iets vergelijkbaars zou haalbaar moeten zijn.

Die stroompieken lijken me voor de koeling ook rete-irritant. En laatste paar procent aan prestaties heb ik toch niet nodig (getuige het feit dat ik dit op een stokoude CPU typ, die nog aardig voldoet).

[Reactie gewijzigd door bwerg op 26 juli 2024 00:20]

Instellen is vrij makkelijk. Hoe de CPU erop reageert is echter wisselend met dank aan diverse bugs in AMD biossen met betrekking tot watt/ampere-limitaties al moet ik zeggen dat PPT meestal nog wel goed gaat.,

Persoonlijk zou ik zeggen: haal lekker een betaalbaar AM4 B550 bord en stop er een 5600X of 5700X in. DDR5 lijkt niet direct een game changer voor jouw situatie, maargoed, ik ga even af op 3 alinea's aan tekst :)
DDR4 niet, maar aangezien mijn huidige PC ruim 10 jaar is meegegaan gaat de volgende dat hopelijk ook doen - of nog langer zelfs, aangezien de exponentiële curve van Moore's Law een beetje lijkt af te vlakken. En dan vind ik TSMC's 5nm toch mooi meegenomen. Maakt het geheel weer lekker zuinig en koel, over een tijdspanne van heel wat jaartjes. Met misschien nog een extragratis mogelijkheid tot upgraden naar Zen 6 of zo.
Je bent dan beter een 7600X of 7700 ( non x als AMD het aandurft! om terug beter prijs / snelheid CPUs te verkopen! ) te kopen dan een 7800X als je de TDP op 50W max wilt instellen. Is andere geld dat je wegsmijt.

Ik ben benieuwt naar de M1 vs AMD 5nm om te zien hoe goed de magisch saus is tussen beide. Feit is wel dat we nu al bijna 2 jaar verder zijn dat AMD eindelijk met 5nm uitkomt. Is een eeuwigheid in de tech wereld.
Tuurlijk heb ik liever een 7700, maar als de line-up vergelijkbaar is met de 5000-serie is die initieel nog niet te koop. Een 7600X mogelijk wel inderdaad, maar als je 8+ cores wil is dat weer jammer. Veel cores op lagere snelheid hebben nog altijd veel betere prestaties/Watt dan minder cores op hogere snelheid. Zie de 5700X: met een verbruik van <75W scoort 'ie nauwelijks slechter dan een 5800X, dus zoveel geld smijt je nou niet weg.

Maar natuurlijk, alles hangt af van de uiteindelijke prijzen. Als een 7800X véél duurder is dan een 7600X zijn die twee cores de moeite misschien niet waard (maar dat geldt dan waarschijnlijk ook als je het verbruik niet verlaagt).
Precies. Dank voor je reactie. Ik ben dan ook heel blij met de 5700X. Zolang ik niet game is de PC nu fluisterstil, en daar was het me om te doen.
ondanks pogingen met fancurves en bios undervolt.
Was er geen optie om de 5900X ook tot 65 W te beperken?
Of je fans op een fixed speed te zetten. Al mijn casefans en de fans op de AiO-waterkoeling draaien simpelweg op een fixed speed (nauwelijks hoorbaar). Dan heb ik maar een 100 mhz. minder hoge boost bij langdurige belasting. De CPU (5800X hier) doet het er maar mee. Hij regelt zelf binnen de warmteafvoer wel z'n snelheid. Bij gamen hoor ik wel m'n GPU een beetje, maar door een undervolt valt ook dat wel mee.

Groot voordeel: je hebt niet continu dat veranderende toerental van je fans als je ook maar een knopje aanraakt. Dat heeft ook relatief weinig zin bij korte piekbelastingen omdat de afvoer van de CPU naar het koelblok daar beperkend is. Voor die paar seconden fans harder laten draaien heeft nauwelijks zin.

Het zou beter zijn als fans op klassieke koelblokken tegenwoordig temperatuurgestuurd zouden zijn via het koelblok zelf. Met custom waterkoeling heb je vaak ook niet voor niets een sensor in het koelwater. Het feit dat je CPU kortstondig 80 graden rapporteert (voorbeeld) betekent totaal niet dat je koelwater (of koelblok) ineens ook een spike krijgt van tientallen graden.

Implementatie is natuurlijk lastig. Je zou dan een sensor input moeten hebben op je bord waar je de sensor van koelblok op inprikt, of de fans onafhankelijk van het BIOS moeten laten regelen met een regeling in de koeler. Mijn oude Fractal AiO had bijvoorbeeld zo'n setting. Scheelde een heleboel fluctuaties in toerental (die had dus ook zo'n sensor in het koelwater).

Het is ook niet voor niets dat AMD op een gegeven moment de temperatuuruitlezing wat heeft aangepast zodat er minder spikes waren.

Overigens hebben sommige moederborden (Asus bijvoorbeeld) nog een mogelijkheid om een vertraging in te bouwen van een paar seconden zodat de fan pas harder begint te draaien bij een wat langere hoge belasting.
Of je fans op een fixed speed te zetten.
Tussen load (gaming) en idle (internet / office) zit nogal een verschil, is het niet zonde de fans altijd op dezelfde snelheid te laten draaien?
Zonde op welk vlak ? Fans gebruiken nauwelijks stroom. Qua CPU-snelheid: voor mijn configuratie werkt het prima. Fans van de AiO draaien op 45% en nauwelijks hoorbaar (2x 140mm fan). Als ik een Prime95 aanzet op max. power/heat dan wordt de CPU niet warmer dan zo'n 90 graden met dit weer (kamer 24 graden) met een all-core boost van 4,2 GHz. De radiator en het circulerende water hebben dus met die fanspeed voldoende capaciteit om de volle 142 watt package power op te vangen zonder dat er fans hoeven te gaan loeien.

Als je vervolgens bedenkt dat ook de 5900X en 5950X eenzelfde PPT hebben dan moet het met die CPU's ook prima lukken.

Als ik Prime95 op blend zet op 6 cores (even rudimentaire game-simulatie zonder GPU) dan zit ik rond de 72-90 graden met een allcore boost van 4,5 Ghz. Volgens mij laat ik weinig liggen. Dus zonde op dat vlak is het ook niet echt. Kan nog wel meer nummertjes posten met GPU maar dat voegt denk ik weinig toe. Ik heb dat wel gedaan in het afregelen van de hele rig.

Config in het kort:
2x 140mm Noctua fan intake op de Arctic AiO op fixed 45%. Radiator voorin dus zuigt altijd verse lucht aan.
3x 140mm outtake BeQuiet alledrie op 7,2 volt draaiend (zeg ik even uit m'n hoofd).
Ik kan dit bevestigen. Heb zelf 2x140 mm op custom loop met CPU en GPU en de fans hoef ik alleen te horen wanneer zowel CPU en GPU belast worden. Bij belasting van slechts één van de twee blijven m'n fans ook mooi op 45%.
2x 140 mm op een rad is dan ook niet kinderachtig
Was er geen optie om de 5900X ook tot 65 W te beperken?
Dat helpt enkel bij Multithread loads. Bij Single core loads en de constante 70 A 80C spikes, helpt dat niet. Die single core spiked met gemak naar 17W alleen al.

Probleem is dat de chiplet gewoon niet genoeg oppervlakte heeft om deftig te koelen, zeker niet als je best performing core in 1 van de hoek van de silica zit. Bij bijvoorbeeld de 5700X, is het een monolite core waardoor je cores ook warmte afgeven over gans de silicon, wat dan weer meer oppervlakte heeft over gans de die.

De 5800/5900 series voor AMD is een heethoofd dat snel kan thermal trottled in mijn mening, zeker bij dit weer. Intel is nog erger maar dat is een ander topic. En ja, je kan dat aanpakken met een AIO voor de cooler > HS lagere temps te geven voor betere transfer maar jongens toch, overkill. Het verplaatste het probleem gewoon naar de eind klanten.
Waarschijnlijk een probleem met je moederbord.

Dit had ik namelijk ook met een asus crosshair x470 hero wifi

Maar niet met de B550 master en nou mijn MSI X570S edge max wifi.
5950x hier. Een enkele aio cooler en wat case fans.

Ik hoor hem nooit...
Same, een 5950X met Corsair H115i Pro (280mm) op Quiet profile. Onhoorbaar, onder load alleen zachtjes als het heel langdurig is.

Temps bij licht gebruik 55C. 100% load rond de 70-75.

Volgens mij hebben een hoop mensen de koeler hier niet goed gemonteerd als ik het zo lees!

[Reactie gewijzigd door Navi op 26 juli 2024 00:20]

Ik ben origineel overgestapt van een 3900x naar een 5950x en heb snel men 3900x teruggezet ( en de 5950x teruggestuurd ). Ja, men cooling is beperkt met een L12S ( met een 25mm fan, open case design ) maar het probleem was niet de piek power draw maar de power draw onder gewone loads.

Je moest de Fan curve enorm aanpakken om geen Up, Down, Up, Down effect te krijgen omdat de CPU direct bij een beetje activiteit op 1 of 2 cores naar 70 a 80C omhoog schoot. En het ironisch was dat de L12S niet erg warm was ( rond de 30 a 35C ). Het is de over agressieve V core op de 5000 series, en de kleine oppervlakte van de chiplets = niet genoeg gebied om goed af te koelen.

Vcore beperken was snel gevolgd door best enorme prestatie verminderen waardoor je jezelf afvroeg waarom je een dure CPU gekocht had. Dan deed je uren aan PBO negative offset met -30~-25 testen, wat hielp. Maar het gevoel van een 1 Core taak nog altijd zo omhoog knalt, voelde gewoon niet goed aan. Zeker als je dan zag dat je nauwelijks 20% meer performance had.

Vergeet niet, dat de 3900X en 5950X dezelfde TDP hebben volgens AMD. Maar in de praktijk, is het zo over agressive gedrag op de 5000 series, een totaal ander beestje. Zeker met die beperkte Chiplet grote om af te koelen. En AIOs ... sorry, als je die richting moet uitgaan, dan ben je mede verantwoordelijk van het probleem dat AMD/Intel meer en meer stroom gebruikende CPU's uitbrengen met "installeer maar een grotere koeling". Doet me denken aan die vaporchill oplossing dat Intel deed een paar jaren geleden.

Ironisch kijk ik deze dagen meer en meer uit naar Apple hun M1/M2 omdat ik het beu ben, dat desktop X86 CPU's meer en meer power hungry worden. Idem in de GPU markt. De prijs stijgingen dat eraan komen gaan ook niet helpen.

Intel en AMD zouden echt dankbaar moeten zijn dat Apple geen interesse heeft om te concurreren in de volledige PC markt. Alhoewel ... Metal 3 lijkt me een begin van Apple om langzaam in de gaming markt te gaan.

En nu komt Intel uit met ... weeral nog meer power hungry dingen. De PL2 is belachelijk. We weten al lang dat als je CPU's in de hoge frequenties draait, dat je inefficiënt draait ( meer stroom in de 100% dan eigenlijk voordelen in de 5 a 10% ). En dan wil ik nog niet spreken over de idle gebruik van PC's ... 60 A 70W idle hier en dat is eigenlijk nog niet slecht als ik zie mensen met 100W+ in idle!!!! Dat is wat een CPU vroeger gebruikte onder load, dat zegt genoeg nietwaar.

Het probleem is dat we weeral in de wapenwedloop zitten, waar men niet IPC genoeg omhoog draait maar constant frequentie. Bekijk de releasen en je ziet een duidelijk trend dat veel van de performance winst hogere frequency is. Iedere release... 3000 naar 5000 series, zet op dezelfde frequencie en de IPC gain is eigenlijk een pak minder dan je verwacht. Hetzelfde zie je bij Intel. We zijn terug in de Pentium IV tijdperk en dat wanneer de energie prijzen intussen bijna verdubbeld zijn tussen die tijdperk en nu, en blijven stijgen. Goed voor het milieu zijn de CPU's deze dagen niet, dat is een feit. Als ik zie wat men phone kan doe, met 1/10 stroom verbruik. Zegt genoeg hoe de desktop race gespeeld word.
Dat is meer probleem dat Desktop retail een imago prestige wapen wed loop gebaseerd op games. Doel van games is massa volume sales. En hun goal is recommended target binnen de mainstream. Dus 32 threads vreter hebben zij niks mee. Daar is de optie config voor. Ook om game te tweaken voor minimum target.

Dus dan heb je die 8 pcores die er voornamelijk zijn omdat game tot 8 smt cores kunnen schalen. De meeste dat niet eens.
Big little help multithreaded schaling voor pro apps aanzienlijk.
Maar apple silicon heeft nog niet veel met triple A games naast dat hardware configs zo beperkt zijn dat er ook gericht voor mac en ios geoptimaliseerd kan word zoals voor consoles. En als er 4 firecores en 4 icecore in zitten dan is dat de recommended target.

Daar worden apple games voor geport of gemaakt.

Alleen apple geniet al heel lang van N5.
Intel niet intel7 mogelijk iets minder dan N7 en AMD komt pas met zen4 op N5

Apple silicon zijn in design sowieso mobiel en is moderne mac meer een apple silicon NUC. EN mac studio apple silicon high-end/pro nuc. Desktop gebaseerd op zware mobile tech. Waar de ultra alleen voor desktop gebruikt wordt.

Bij intel en AMD zijn er apart mobiele sku lijn die afwijken van desktop als bij intel wat minder p-cores.

Het grootste verschil tussen ARM en x86 is dat ARM apple silicon de klok laag is rond 3ghz op n5 , dus blijkbaar weinig stages en ontwikkeld niet voor insane kloks maar klok waarbij architectuur maximaal ipc ontwikkeld is bij klok binnen sweetspot tussen performance vermogen.
AMD intel hebben desktop retail platform waar men big towers met custom koeling. Mogelijk heden. En al snel flink stuk groter dan mac studio. Dus formfactor is geen nuc maar tot big tower en dan is 250wat cpu optie op kroon te pakken tegen de andere concurrent en dan gaan voor enorme klok schaling.

AMD komt nu met zen4 met ook AVX512 en als dat gebruikt wordt wat betekend dat voor de kloks en tdp.

Naast dat apple mac het helemaal nog niet goed doen met games en meer uitblinkt in pro stuf.

Naast dat triple A games voor win PC voor apple silicon ook gewoon ports zijn en alles behalve optimaal zijn en vaak in crossplatform wrapper geport zijn dmv vulkan naar metal of licenced engine die apple ondersteund. Dus verre van optimaal.
Ik zie hier, net als bij videokaarten, de trend naar steeds hogere wattages.
Hier ben ik het deels niet mee eens. We hebben het hier specifiek over de Ixx 13xxK varianten van de CPU's. Ik ben het er mee eens dat deze hoger zijn gegaan in wattage, Maar dit zijn ook de CPU's die veel aggresiever zijn geklokt voor het beste performance die je kan krijgen. Dit betekend dat ze meer stroom vragen zodat ze hogere clocks kunnen bereiken, tevens zijn de K-Sku's ook overclockbaar door de gebruiker. de Wattages zijn ook opgedeeld in 2 soorten. Base TDP en Turbo TDP. Dus wanneer de CPU tubo'd zal deze in het geval van een 13900K 228 watt gebruiken, en het typische is... dat is 13watt lager dan de 12900K!

Wat je wel ziet is dat inderdaad de xx600K en de xx700K meer stroom gebruiken, dat is dan wel jammer. Maar een 13xxx is eigenlijk niets anders dan een 12xxx die door is ontwikkeld, er is verder niks nieuws aan anders dan dat ze meer cores hebben wat waarwchijnlijk zocht voor het meer gebruiken van stroom.

Nu het 2e dingetje... Voor hen die gewoon een goede CPU willen hebben en niet veel geven om het uiterste van performance en die paar procent wel goed vinden (zoals ik) dan zou een non-K-Sku prima werken. Als je kijkt naar een 12600K, dit is 125 base TDP en 150 watt Turbo TDP. Terwijl voor een 12600 is dat 65 watt voor de base TDP en 117 watt voor Turbo TDP. Dat is al aanzienlijk minder stroom verbruik en voor de meeste mensen meer dan prima.

In benchmarks heb je, afhankelijk van het type game, erg weinig verschil tussen de K en Non-K variant van de CPU's. enkel in wat lichtere titels dat je met de non-K bijv 295 haalt en met de K rond de 320 zit.maar in een AC valhalla zit er dan weer geen verschil tussen. Dus als je geeft om het stroom verbruik kan je dus een Non-K kopen. Voorheen lieten ze nooit de Turbo TDP zien, en dat was altijd hoger.
Wellicht heeft Intel met hun "BigLittle" concept weer de smaak te pakken.
Nu alleen nog iets betere chipset/driver support waarin er bepaalde software/services die de P cores niet nodig hebben, makkelijker ge-offload kunnen worden naar de E cores. Want mijn hemel, die wattages... (zal vooral voor laptops beter zijn gok ik zo)
Het is ook de scheduler van Windows die serieus aangepast moet worden want een paar jaar geleden kende die nog niet het P/E principe.
De scheduler is aangepast toch in windows 11? Dit is toch de reden dat 12th gen voor geen meter draait op Windows 10
Klopt. Als je een Big/Little-processor gebruikt, dus Alder Lake en hoger (inclusief deze Raptor Lake dus) moet je absoluut Windows 11 gebruiken, met Windows 10 komt die vanwege de scheduler niet goed tot zijn recht.

Tweakers heeft hiervoor eerder ook een mooi achtergrondartikel over geschreven: reviews: Hoe werkt de Windows 11-scheduler met Big.Little-processors?
Dat artikel geeft niet aan dat ze op Windows 11 beter werken dan op Windows 10...
Dat 12th gen voor geen meter draait op Windows 10
De 12th gen werkt gewoon goed op Windows 10 al verschillende systemen mee gebouwd.
Ze werken beter in Windows 11 omdat ze daarvoor geoptimaliseerd zijn, maar voor "geen meter draait" is gewoon grote onzin.
Performance verschil is inderdaad maar een paar procent op desktops. Op laptops is het verschil wel goed merkbaar in hoe lang je zonder oplader kan ivm het niet goed gebruiken van de E cores.

En games die denuvo gebruiken draaien HELEMAAL NIET als je geen Windows 11 hebt
Ah houd me niet zo bezig met laptops, maar ik neem aan dat je op een laptop toch ook de e cores uit kunt zetten, ivm denuvo ?
Meeste laptop fabrikanten geven niet een uitgebreide bios. Dat zal per merk verschillen. Je zal het ook gaan merken in je accuduur. Voor laptops met 12th gen of hoger is het dus zeer onpraktisch om Windows 10 te draaien
Goed punt. De huidige 12e generatie laat al een enorme stap in (vooral multicore) performance zien, op zowel desktops als laptops. Vraag mij af als er een OS of driver uit komt die hier volledig gebruik van kan maken in hoeverre deze processoren dan qua energiezuinigheid fors kunnen toenemen.

Hoe staat Linux ondertussen hier in, met het P/E concept?
Het P/E concept is niet nieuw onder Linux (buiten x86-64), de implementatie van Intel wel.

Vziw wordt op dit moment eraan gewerkt door Intel, selectie was op basis van firmware (favored cores) wat P-cores prefereert.
Ik vraag me af hoe dat nu werkt onder linux , unix of bsd.
Is daar inmiddels al support voor?
En hoe zit het met virtualisatie, kun je p en e cores afzonderlijk naar een vm toewijzen.
Zou dat niet ge back port zijn vanaf Android?
Maar deze is toch al aangepast voor windows 11 dacht ik, windows 10 had er wel wat moeite mee en werkt het niet optimaal. Voor mij is de linux support belangrijk, geen idee hoe het daar mee staat eigenlijk. Ik heb tijdje geleden voor de eerste keer een kamp rood cpu genomen, en bevalt me wel. Enja ik gebruik gewoon linux als daily driver, ook voor af en toe WOW te spelen en gewoon om te werken (programmeren). Ik heb nog 1 a 2 jaar voor te upgraden ongeveer (nieuwe pc elke 4 jaar). We zullen zien wat tegen dan bang for the buck is eigenlijk. Maar linux support moet gewoon goed zijn, maar dat zal wel niet zo een issue zijn denk ik
Die wattages vallen reuze mee als je niet de hele dag onzinnige benchmarkjes loopt te draaien.
Intel voelt de adem van AMD in de nek 😎
"Intel voelt de adem van AMD in de nek."

Intel
Financials
Quarterly financials
(USD) Apr 2022 Y/Y
Revenue 18.35B 6.71%
Net income 8.11B 141.39%
Diluted EPS 1.98 141.46%
Net profit margin 44.21% 158.84%

Amd
Financials
Quarterly financials
(USD) Mar 2022 Y/Y
Revenue 5.89B 70.89%
Net income 786M 41.62%
Diluted EPS 0.56 24.44%
Net profit margin 13.35% 17.13%
Wat heeft het bedrijfsresultaat met de producten te maken?
Daarbij is de 70% omzet groei van AMD zeker een bedreiging voor intel, want alles wat AMD wint is omzet die intel niet heeft.
Zie of wil je dat nou echt niet zien?

Wacht ik help je:

Omzet Intel 18,35 Biljoen
Omzet AMD 5,89 biljoen

Winst Intel 8,11 biljoen
Winst AMD 786 miljoen

Ook al groeit de omzet van AMD met 100% dan komt AMD nog niet in de buurt van Intel.

Nog even voor alle duidelijkheid winst Intel 8,11 biljoen!
Ook al groeit de omzet van AMD met 100% dan komt AMD nog niet in de buurt van Intel.

Nog even voor alle duidelijkheid winst Intel 8,11 biljoen!
AMD is fabless en Intel bakt zijn nieuwe generatie bij TSMC.

Intel heeft fabs die grote moeite hebben te concurreren en de combi ontwerp/productie zorgt ervoor dat concurrenten Intel mijden voor productie.
ACM Software Architect @Speedster24 juli 2022 14:34
Wat de Amerikanen 'billion' noemen, heet in Nederland miljard (iets wat @Kanter vast ook bedoelde met zijn reactie) ;)

Het Nederlandse biljoen is 1000 miljard... zoveel omzet heeft nog geen enkel bedrijf.
Ik denk dat jij t niet ziet. De intel ceo krijgt het ervan langs van de groot aandeelhouder en aandeelhouders , daarnaast heeft een veel groter bedrijf ook grotere kosten en moet dus dat markt aandeel hebben anders heb je fab te veel. Voor blije aandeelhouders heb je een netto winst groei nodig.

En als intel 10x of meer groter is maar de verliest markt aandeel en dus omzet beteken minder winst maar ook minder compensatie voor vaste lasten.
En dus ja intel voelt de hete adem en het zullen geen leuke board-meeting zijn met aandeelhouders. Of hun repecenten.
Daarnaast doet AMD zoals dat in de markt toegaat zeer conservatief goede zaken met Epyc. En daar heerst AMD kwa product. Uiteraard niet in markt aandeel. Maar ja er komen ook steeds meer Epyc supercomputers.
zozo biljoenen zelfs
Het is vooral jij die het niet wil zien geloof ik.
intel winst marge is flink gedaald door AMD. Ongeveer vanaf het moment dat Ryzen op de markt kwam is intel's bruto winst (dus de winst per product) alleen maar gedaald, van een decennia lange vrij stabiele 65% naar 50%, in slecht 4 jaar tijd, en in de zelfde periode is hun omzetgroei gestagneerd, en is er zelfs een daling.
dit jaar verwachten ze zelfs onder 50% uit te te komen. Dat zijn winst marges die intel normaal gesproken alleen zag als er een diepe economische crisis is. en op die moment had AMD ook een veel lagere winst marge. nu niet.

intel is dus alle zeilen aan het bijzetten om geen marktaandeel te verliezen. En ze verliezen alsnog marktaandeel.

Het enige dat jouw cijfers aangeven is dat AMD nog altijd kleiner is als Intel. Dat weet iedereen al. Het gaat er om wat de concurrentie van AMD's producten met intel doet. en dat is dus heel substantieel.

[Reactie gewijzigd door Countess op 26 juli 2024 00:20]

Bedrijfs resultaat is super belangrijk omdat het aangeeft hoeveel marge een bedrijf heeft om te investeren in nieuwe producten en technieken en indien nodig om op prijs te concurreren. We komen de afgelopen jaren uit een periode waarin alles wat geproduceerd kon worden verkocht is door zowel Intel als AMD. In exact die periode had AMD een superieur product en zelfs dan halen ze het niet qua winst marge.

Nu we een periode van lagere groei cq winst marge ingaan zal het voor AMD veel moeiljker worden om hun lange termijn investeringen te doen die nodig zijn om toekomstige producten te ontwikkelen.

Historisch gezien zijn de periodes van lagere groei ook de momenten dat Intel door kan investeren in zowel markt aandeel (prijs concurrentie) als mede product ontwikkeling ten opzichte van de concurrentie.

AMD anticipeert hier dan ook op door de volumes bij tsmc te verlagen en aan te geven dat verdere groei van het markt aandeel niet voor de hand ligt.
Denk dat dat wel meevalt. Ten 1ste produceert AMD efficiënter door chiplets en dat ook voor nextgen gpu.
Intel enkele zeer dure innovatieve investeringen gedaan heeft die kopje onder zijn. Itanium door AMD64 gekilld. Larrabee een extreem general purpouse architectuur dat even als xeon phi heeft mee gedraaid. Maar ook niet geworden is.
Intel optane dat het ook niet breed heeft doorgebroken.
Intel kan die doodlopende avondtuurtje wel hebben maar er is dus ook nodige kapitaal verbrand. Zal bij AMD ook wel voorkomen maar niet in die orde als bij intel.

AMD is afhankelijk van capaciteit TSMC. En kiezen zij uiteraard preoriteit voor de markt met de grootste reward en ASP dat is de EPYC lijn.

Daarnaast als de vele foundries in EU en US gaan uitbreiden zal voor TSMC die ook uitbreid er ook de nodige capaciteit in de toekomst beschikbaar komen.

Als AMD meer markt pakt kan het met elke gen grotere hoeveelheid wafers alloceren en dus ook als klant bij TSMC groeien.

Denk dat het ook verstandig is om niet te hard van stapel te lopen dat je met over productie zit.

Bedrijfs resultaat is bij AMD goed ze verkopen alles omdat chiplets geschoven kan worden naar belangrijke en hogere SKU dus ipv Ryzen 3 goede chiplet voor op te offeren dan wat meer high-end ryzen 7 en vooral Epyc.
Zomaar productie verhogen kan ook back firen.
Als intel RTL in games 10 a 15% sneller uitvalt zal zen4 redelijk doen maar niet dat hogere productie capaciteit nodig hebt. En allocatie moet ergen in verleden gekozen zijn waar men clueless is wat de concurrent gaat brengen.
Je hebt zeker gelijk door deze cijfers te halen.

Het enige wat ik wel wil toevoegen is dat Intel een 'breder' bedrijf is, en dus actief is in meer markten. Daarom zou het interessant zijn als we deze cijfers puur voor CPU en GPU hardware (laptops, console, desktop. server) hadden. Intel is dan alsnog koploper, maar toch.
Reken maar als AMD nog twee jaar vlotter is die cijfers er heel anders uit zien.
Als dat zo is, dan is dat alleen maar toe te juichen. Meerdere fabrikanten die in dezelfde vijver vissen is goed voor de prijs en voor innovatie. Ik vraag me alleen af of het inderdaad zo is dat Intel de hete adem van AMD voelt. In de zakelijke markt is het toch nog steeds zo dat Intel een enorme voorsprong in marktaandeel heeft. Er zijn ook maar weinig zakelijke systemen te vinden met AMD. Als Intel een hete adem voelt, dan denk ik dat het eerder zijn van bijvoorbeeld ARM chips. Voor steeds meer toepassingen is het gewoonweg niet meer nodig om een x86 / x64 chip te hebben en kun je met een veel zuinigere ARM chip prima uit de voeten. Zeker als je (zakelijk) steeds meer naar SaaS, Cloud Computing, etc. gaat. Dan heb je zware systemen in je serverrack (of bij de provider) staan (die niet noodzakelijkerwijs x86 hoeven te zijn) en zelf hoef je alleen iets te hebben om connectie te maken.
Vorig jaar september een lenovo laptop gekocht was 800 euro ofzo met een touchscreen. Ging ik gebruiken om les te geven (programmeren). AMD cpu, was toen een net nieuw model. Wel fantastische laptop en zeker snel genoeg. Ok dit geen laptop om video rendering mee te doen, maar voor een presentatie en wat programmeren meer dan goed genoeg
Waarom staan er twee waardes bij TDP? Ik vind dat interessant omdat er een verdubbeling is van de E-cores en bij de 13900k is de tweede TDP lager dan bij de 12900k met maar de helft van de E-cores. Foutje (gezien bij de andere CPUs dat juist andersom is)?
Volgens mij is de eerste waarde bij TDP de Base-waarde, dus in normale bedrijfstoestand, en is de 2e TDP het verbruik bij maximale boost-clock?
AuteurAverageNL Nieuwsredacteur @Cergorach24 juli 2022 12:32
Wat @wildhagen zegt klopt - die cijfers slaan respectievelijk op wat Intel PL1 en PL2 noemt, waarbij PL voor power level staat. PL1 is als het ware de 'continue tdp', eigenlijk de basis dus. PL2 is de maximale tdp die een processor voor een korte periode kan bereiken bij een boost

Edit: ik heb de termen PL1 en PL2 toegevoegd aan de tabel, met een linkje naar deze pagina van Intel

[Reactie gewijzigd door AverageNL op 26 juli 2024 00:20]

3 maanden voorafgaande de introductie al met geruchten "lekken" beginnen. geeft het gevoel dat ze AMD de wind uit de zeilen willen nemen. maar het energie gebruik gerucht lijkt nogal hoog. niet in de market voor een nieuwe CPU maar ben wel benieuwd. eerst een RTX 4090 kopen zodra hij uit komt.
Ik zou op de TI wachten, ik heb de 3090 gekocht indertijd en een paar maanden later was daar de ti variant, beetje jammer :'(
de 4090 is al heel erg ruim voldoende, de TI voegt minimaal wat toe voor mij. de 3090 zou ook voldoende zijn maar wacht liever 2 maanden op de opvolger van deze.
3090 is voor VR met de reverb G2 nog aan de krappe kant, ik hoop dat de 40 serie daar verandering in brengt. Als we de leaks mogen geloven gaat dat goed komen.
bietje huiverig voor het energie verbruik. nog even en 1500w is het nieuwe normaal. zit nu op een 850w en vraag me af of dat niet wat krap gaat worden.
Ja, je huidige voeding zou voor high-end GPU's zeker krap kunnen worden, niet zozeer vanwege het vermogen als vanwege de nieuwe PCIe-specificatie die veel hogere en langere stroompieken toestaat. Er zijn nog praktisch geen voedingen die aan die specificatie voldoen, dus effectief zijn alle voedinggen die mensen nu thuis hebben liggen ongeschikt voor nieuwe high-end GPU's.
ik zit op een gigabyte 570s bord dus current gen4. de vraag is dan of je moet gaan voor een 3090 die nu tijdelijk in prijs lager ligt dan introductie of je moet wachten op een 4080/4090.
Nou nee maar blijft gok.
420wat piek RTL en 650 watt AIB oc custom 4090ti zou meeste 1100 watter er redelijke kans zijn dat trancient pieken de beveiliging triggered.
Maar er zijn zeldzame exemplaren die dat wel kunnen naast die met 1500 de kans al groter is dat die het aankunnen maar uiteraard geen garantie.
Dan kom je uit op de AIB compatibility list.
Ja, oke, als je voeding zo dik is dat je de gevraagde stroompieken gewoon als continue stroom kan leveren, dan zul je nog goed zitten (los van de nieuwe aansluitingen in de nieuwe PCIe-specificatie).

Maar het continue verbruik van nieuwe high-end kaarten lijkt gewoon naar de 450W te gaan, en stroompieken mogen daar nog een factor veel overheen. Grote kans dat een goede 850W-voeding in de praktijk nog werkt maar je neemt daarmee een gok die ik niet zou willen nemen.

Ik ben ook niet bepaald blij met de enorme stroompieken die met name GPU's maar toch ook zeker CPU's krijgen. Schuif alle problemen maar af op de PSU-bakker, en zie maar hoe je ooit nog een normale small-form-factor PSU kunt produceren.
Wat betekent dit voor eigenaren van de Z690 moederborden? Moeten we een nieuw moederbord aanschaffen?
Als raptorlake nog gortiger omgaat met power. En je dan ook nog van plan bent om te oc’en is misschien handig of je mobo overbemeten vrm heeft om ook top model raptor lake volledig te ondersteunen
Nee hoor, Z690 krijgt netjes ondersteuning voor raptor lake, VRM hoef je je ook niet druk over te maken, de meeste Z690 borden zijn uitgerust met ruim voldoende stroomtoevoer om met gemak deze chips te draaien
Dit wordt een leuke, spannende strijd: 13th gen Raptor Lake van Intel vs Zen 4 van AMD. Ik vermoed echte dat ze beide in dezelfde mate groeien in hun eigen sterktes: dat AMD betere performance per watt houdt, maar Intel de prestatiekroon.

Wat wel zal veranderen is zware pure multitask tasks. Intel heeft nu enorm veel meer cores in die 13900k gepompt. Dus waar deze generatie 5950x nog won door puur het aantal cores, zal dat waarschijnlijk veranderen.

Ik hoop dat AMD ook kort hierna releaset zodat je niet hoeft te twijfelen als je Raptor Lake wil aanschaffen.

Laad de strijd maar losbarsten.
13600k voor 300 euro met 8 e-cores lijkt me echt dé allround CPU. Ben benieuwd wat de prijzen zullen zijn.

Op dit item kan niet meer gereageerd worden.