Intel Core i9-13900K met DDR4-ondersteuning verschijnt op CPU-Z-website

Er is een mogelijke engineeringsample van de Intel Core i9-13900K-processor uit de Raptor Lake-serie verschenen op de CPU-Z-website. De cpu had daar een kloksnelheid van rond de 5GHz en werd getest in combinatie met DDR4-geheugen. Raptor Lake wordt dit jaar verwacht.

De Raptor Lake-processor met 24 cores en 32 threads verscheen onlangs in de CPU-Z Validator-database, merkte Twitter-gebruiker Tum_Apisak op. De processor krijgt een tdp van 125W en beschikt over acht P-cores en zestien E-cores, voor een totaal van 24 cores en 32 threads. De CPU-Z-website noemt geen modelnummer, maar Intel maakte eerder al bekend dat het Raptor Lake-topmodel deze configuratie krijgt. Het zou dan ook vermoedelijk gaan om de Core i9-13900K.

Intel Core i9-13900K-sample in CPU-Z
Bron: CPU-Z

De CPU-Z-listing noemt een maximale kloksnelheid van 4,987GHz op de P-cores en 2,993GHz op de E-cores. Bij de releaseversie wordt een kloksnelheid tot 5,5GHz op de P-cores verwacht. De processor heeft zoals al werd verwacht 896kB aan L1-cache, 32MB L2-cache en 36MB L3-cache, voor een totaal van ongeveer 69MB. De sample is getest met een MSI Pro Z690-A-moederbord, waarvoor sinds begin deze maand een biosversie met Raptor Lake-ondersteuning beschikbaar is. De cpu is getest in combinatie met 32GB DDR4-2660-geheugen. Raptor Lake krijgt ondersteuning voor DDR4- en DDR5-geheugen, net als Alder Lake.

De Core i9-13900K-sample haalde in de CPU-Z-test een singlethreadscore van 846, waar de Core i9-12900K een score van rond de 815 haalt. Dit komt overeen met eerder verschenen benchmarks van een Chinese reviewer, waarbij de 13900K-sample een score van 831 haalde op een kloksnelheid van 5,1GHz. Door de extra E-cores bedraagt de multicorescore van de processor 13.054, waar de Core i9-12900K een gemiddelde score van 8460 haalt. Volgens de CPU-Z-website had de processor een temperatuur van 100 graden Celsius.

Naar verwachting kondigt Intel de eerste Raptor Lake-cpu's in september officieel aan, met een mogelijke release in oktober. Het bedrijf liet eerder al weten dat Raptor Lake onder meer betere prestaties moet leveren en meer E-cores krijgt ten opzichte van de huidige Alder Lake-generatie. De cpu's gebruiken socket LGA-1700, net als Alder Lake.

Door Daan van Monsjou

Nieuwsredacteur

21-07-2022 • 11:11

85

Lees meer

CPU-Z voor Arm64-architectuur is uit
CPU-Z voor Arm64-architectuur is uit Nieuws van 19 januari 2024

Reacties (85)

85
85
46
3
0
27
Wijzig sortering
Als hetzelfde socket wordt gebruikt als de voorganger die ook DDR4 ondersteunde lijkt mij het niet meer dan logisch dat ook deze CPU DDR4 ondersteunt.

Ben ik overigens de enige die de hoeveelheid L3 aan de lage kant vind?
De memorycontroller zit in de CPU dus het is volledig afhankelijk daarvan of DDR4 ondersteund is. Logisch vanuit de gebruiker? Ja dat zeker, maar Intel heeft het truukje bij Socket 1151 en Socket 1151 'V2' (voor coffee lake) ook al een keer uitgehaald al ging dat niet perse over geheugen natuurlijk, maar over architectuur.

Het had maar zo kunnen zijn dat Intel 13th gen alleen had uitgebracht voor DDR5 borden of zelfs LGA-1700 'V2'.

Blij ben ik er wel mee :)
Dat de controller op de CPU zit is inderdaad zo, en dat is al een tijdje zo.
Maar zoals je zelf aangeeft is het is niet relevant. Een socket is meer dan een stel pinnen, het is een afspraak om bepaalde capaciteiten te leveren in een bepaalde form factor. Dus vandaar is het niet meer dan logisch dat DDR 4 ondersteund wordt. Als je deze afspraak schendt moet je er een nieuw socket bij doen.

Intel zou dan marketing technisch zichzelf enorm in de voet schieten, dus het is ook niet erg logisch om dat te doen.

[Reactie gewijzigd door ocf81 op 23 juli 2024 03:27]

Dat ben ik niet met je eens. Dat het socket de mogelijkheden biedt om zowel DDR4 als DDR5 aan te sturen hoeft nog niet te zeggen dat de CPU die erin zit die capaciteit ook gebruikt. Denk aan PCIe 4.0. Een socket/bord dat 3.0 en 4.0 ondersteunt wil nog niet zeggen dat de CPU die je erin prikt per definitie 4.0 biedt..

Ik ben verder niet bekend met hoe de zaken bij Intel liggen, dus als dit hard is afgesproken met alles en iedereen dan laat ik me graag corrigeren, maar dat een socket iets *kan* hoeft nog niet te betekenen dat de CPU die je erin plaatst het ook gebruikt/ondersteunt.
Het cruciale verschil tussen CPU socket en PCI-e is dat de CPU-socket voor een veel specifieker gebruiksscenario is opgesteld en is als het ware een contract. Dat contract ga je niet zomaar verbreken. Met PCI-e is dat contract veel flexibeler.
Je schrijft:
"Een socket is meer dan een stel pinnen, het is een afspraak om bepaalde capaciteiten te leveren in een bepaalde form factor. Dus vandaar is het niet meer dan logisch dat DDR 4 ondersteund wordt. Als je deze afspraak schendt moet je er een nieuw socket bij doen."

Ik zou zeggen; laat dan ook zien waar we die 'keiharde afspraak' (want; "moeten") kunnen vinden...
PCIe is helemaal niet zo flexibel, het is een aansluiting die keiharde gereguleerde specificaties heeft. Het geen wat je erop aansluit kan echter veel meer verschillend zijn.

Een socket bepaald niet welk type geheugen ondersteund wordt, bij 12de gen beslissen de moederbord fabrikanten dat. Ik zou het helemaal niet raar vinden als Intel enkel een DDR5 controller in de i7-i9s doet en misschien vanaf gen 14 of 15 alles op DDR5. Kan prima op dezelfde socket.
Het verschil tussen PCIe en geheugen is hierbij dat het voor de gebruiker het systeem blijft werken als je de CPU vervangt. Niet alle functies hebben is iets anders dan geen enkele functie meer hebben. Marketing technisch levert dat vervelende problemen op.
Naja je kunt toch prima zeggen dat je de zelfde pin layout gebruikt maar bij verschillende generaties de pins voor andere dingen gebruikt?
Dat breekt waarschijnlijk wel compatabiliteit maar dat vind Intel volgens mij niet een groot probleem:)
En het bleek dus wel degelijk mogelijk om bijvoorbeeld een 9900K op een Z270-board te draaien met een BIOS-mod. In een aantal gevallen is dat zelfs gelukt zonder bijvoorbeeld het wegvallen van hyperthreading.
Kan ook een fout zijn met uitlezen. Maar voor een 8 + 16 cores opstelling is het wel laag, als het klopt.
Ik zou niet direct laag zeggen, per P-Core komt het immers heel erg overeen met de concurrentie.

Raptorlake heeft volgens de geruchten:

Per P Core: 48KB L1 Data cache en 32KB L1 Instructie cache, 2MB L2 en 3MB L3
Per 1 E-Cores: 32KB L1 Data cache en 32KB L1 Instructie cache en Per 4 E-Cores 2MB L2 en 4MB L3

Kijk je naar L2 en L3 is dat 5MB per P-Core aan Cache en 512KB L2 en 1MB L3 per E-Core

Vergelijk je dit met Zen 3 (alleen P-Cores) zit Zen 3 op 4,5 MB Cache per Core (512KB L2 en 4MB L3) en volgens de geruchten krijgt Zen 4 (alleen P-Cores) ook 5MB Cache per Core (1MB L2 en 4MB L3).

Al met al zijn de Cache hoeveelheden tussen deze cpu's per P-Core redelijk vergelijkbaar.

Alleen Zen 3D zit er ruim boven met 12,5MB cache per Core

[Reactie gewijzigd door Dennism op 23 juli 2024 03:27]

Ik volg al jaren de ratrace in CPU speeds niet meer. Zijn er echt voldoende afnemers van dat superdure spul? Ik bedoel een gewone consument die meer dan 1k betaalt voor een chip?
Vooral in een tijd waar de energie prijzen zijn gestegen ga ik toch liever voor een AMD.
Ik liever naar een Apple, dat scheelt echt energie. Speel en werk nu op een Mac Studio welke 40watt gebruikt t.o.v eerst 350 watt, daarnaast ook nog eens stil en MacOS. Wat wil je nog meer!
Ik upgrade liever mijn pc dan dat ik een hele nieuwe moet kopen dankjewel
Ik zie niet echt in hoe een apparaat wat meer kost dan je eerste auto aanraden de way to go is hier. De "Goedkope" variant van 2300 euro is namelijk veel te zwak om op 1440p de boel soepeltjes te runnen, en de "dure" variant van 4600 euro kan dit ook maar nauwelijks op 30 fps.

Ik hoop dat andere fabrikanten zich gaan wagen aan dezelfde dingen die Apple nu doet, anders blijf ik maar op het energieslurpende x86, gezien Apple woekerprijzen vraagt voor hun Top-end hardware.

TL;DR: Wat ik nog meer wil? Geen onzinnige prijzen en fatsoenlijke performance in games op 1440p op 144hz? Ik zie Apple deze wens graag vervullen, misschien stap ik dan nog ooit over :P
Verwijderd @Coy21 juli 2022 15:10
Het zijn geen koopjes, maar dan krijg je tenminste wel afgewerkt spul. Op dit moment zijn de videokaarten eindelijk in prijs gedaald waardoor je voor 1500 een redelijk systeem in elkaar kan frusten. Echter heb je dan een grote kast, Windows en herrie en flink wat stroomverbruik. Speel je veel AAA games dan is dit natuurlijk niet de oplossing.
Voor de games die ik speel en dat is alleen Warcraft, speel ik in 4k en dit is dan een van de weinige games welke native zijn. Hopelijk volgen er meer in de toekomst.
Daarnaast doe ik ook mijn dagelijkse werk op deze machine en doe ik aan videobewerking, dus het is voor mij een koopje en een genot om mee te werken.
Als jij een grote kast koopt heb je een grote kast ja :+ Als je echter een kleine kast koopt, raad eens ;)
Herrie? Dan moet je de muziek wat lager zetten... Of gewoon stille fans kopen en niet alles op 100% zetten...
Dat is het hele punt van het zelf samenstellen, dat je zelf kiest wat je belangrijk vindt, jij kiest ervoor luide fans en een grote kast te kopen en klaagt daar dan over :+

Voor lichte games enz. kan een Apple wel werken maar als je wat zwaarders wil draaien worden de kleine fans (de paar Apple producten die nog koeling hebben...) zo luidruchtig dat zelfs een koptelefoon niet meer helpt :')
Verwijderd @RGAT21 juli 2022 16:53
Met een 100% cpu en gpu load draaien mijn fans niet hoger dan 1300rpm op mijn MacStudio dus dat klopt niet. Ja in een laptop gaan de fans hoger, vrij logisch. In de MacMini M1 idem dus nogmaals nee dat klopt niet. Anyways ik geef hier mijn voorkeur aan en wat voor mij prima werkt, dat moet iedereen voor zichzelf bepalen en niet laten bepalen.

Ik heb hier in de kast een redelijke mooie PC kast staan, een Ncase M1 en daar zat een (stillere variant) RTX2080 in en een 9700K Intel, leuk maar onder load maakt het gewoon geluid. De warmte moet ergens heen.
En vroeger zo veel systemen gebouwd e.d. dus genoeg ervaring en vond het altijd leuk, maar nu ik wat ouder ben prefereer ik dit. Maar gezien het ontbreken van AAA games is dat geen oplossing voor Die hard gamers, maar een zuinige oplossing in de Windows hoek zou een goede zet zijn.

[Reactie gewijzigd door Verwijderd op 23 juli 2024 03:27]

Bart ® Moderator Spielerij @Verwijderd21 juli 2022 11:50
Gamen?
1) Kunnen upgraden zonder vendor lock-in (zie bijv. de SSD die niet echt m.2 is?
2) Geld overhouden voor leuke andere dingen?
Ik zit inmiddels ook een aantal maanden op een Macstudio max te draaien. En ja ook gamen. Ik had een workstation dual cpu met een wat oudere video kaart. Wel alleen World of Tanks wat ik speel op 1080p. 144fps met gemiddelde instellingen. Geen hd client :) ik ben wel van 424watt uit de muur naar ongeveer 50watt uit de muur gegaan.
Hoeveel scheelt dat dan aan euros? Oprechte vraag... Hoeveel zou het schelen tussen een current gen high end pc? Apple is toch altijd prijzig niet?
Zucht ;(
Ik moet zeggen dat ik dit altijd super schuin vind. Zeker de Intel fanbois vs. de AMD fanbois!

#1 We hebben geen exacte details over stroomverbruik en efficiëntie van de nieuwe generatie Intel CPUs. Wat we wel hebben gezien van de leaks is dat ze waarschijnlijk behoorlijk wat zullen verbruiken.
#2 We hebben nog helemaal geen details over de AMD chips, alles hier is aannames.
#3 Kiezen voor voor een merk op basis van het snelste/zwaarste model van een ander merk is wel heel erg |:(

Een 12900k trekt erg veel, daarmee waarschijnlijk ook de 13900k. Maar een 5800X trekt meer dan een 12700k en is in verschillende benchmarks ook nog eens redelijk tot significant sneller.

Een 5800X doet 53% meer scoren in een C23 multi benchmark, maar verbruikt tijdens die belasting wel 4x zoveel stroom... Zelfs als deze de benchmark afrond in 2/3e van de tijd zou dat nog altijd 2.7x zoveel stroom vreten dan via een 4800U het laten doen... Beide AMD btw.

Maar als je een AMD desktop CPU tegenover een Intel zuinige laptop CPU zet zal je ook energie efficiënter uitkomen. En toch zie ik maar weinig mensen die issues hebben met stroomverbruik werken op een laptop CPU...

Edit: En laten we het al helemaal niet hebben over idle verbruikt bij Intel desktop vs. AMD desktop.

[Reactie gewijzigd door Cergorach op 23 juli 2024 03:27]

Ik moet zeggen dat ik dit altijd super schuin vind. Zeker de Intel fanbois vs. de AMD fanbois!
Weet je wat pas super schuin is... dat je verkeerde informatie hier post als feit

Het klopt dat we nog niks zeker weten, en het dus afwachten gaat zijn. Maar dan mogen mensen nog steeds speculeren.

Een 5800X die 4x zoveel verbruikt als een 5800X 12700K in C23 klopt niks van.. 1 google opdracht laat namelijk zien dat in C23 benchmark de 12700k ongeveer 30% meer verbruikt als de 5800X
https://www.thefpsreview....00x-performance-review/8/
Btw de 12700K is ook sneller in deze test.. weet niet waar je die 53% en 4x vandaan hebt gehaald?

Ook je Idle verhaal klopt niet als ik Techpowerup erbij pak, zit niet veel verschil in namelijk
https://www.techpowerup.c...der-lake-12th-gen/20.html

[Reactie gewijzigd door Sinester op 23 juli 2024 03:27]

Een 5800X die 4x zoveel verbruikt als een 5800X in C23 klopt niks van..
Ik weet dat lezen moeilijk is...

Een 5800X verbruikt 4x zoveel als een 4800U in C23 multi, maar haalt maar 53% meer performance...
En waar ik die cijfers vandaan haal, Tweakers.net test, C23 multi benchmarks onlune en eigen max verbruik op de 4800U.

Je link naar Idle verwijst naar 'whole system' en die review van Tweakers.net verwijst naar alleen CPU:
reviews: Intel 12th Gen 'Alder Lake' - Core i9 12900K, i7 12700K en i5 12600K
CPU+mobo wordt inderdaad een ander verhaal, maar dat is een issue mobo issue en geen CPU issue.
Ik weet dat lezen moeilijk is...
Jouw tekst is idd moeilijk te begrijpen, maar dat is niet omdat ik niet kan lezen..
Een 5800X doet 53% meer scoren in een C23 multi benchmark, maar verbruikt tijdens die belasting wel 4x zoveel stroom..
Je praat eerst over de 12700K en de 5800X en daarna geef je deze bovenstaande zin

Als jij denkt dat je duidelijk was dat het over de 4800 gaat, moet je jouw eigen tekst nog een keer lezen
CPU+mobo wordt inderdaad een ander verhaal, maar dat is een issue mobo issue en geen CPU issue.
Als het hele systeem vergelijkbaar is in Idle power, waarom moeten we het dan helemaal niet hebben over Intel vs AMD in idle?

[Reactie gewijzigd door Sinester op 23 juli 2024 03:27]

Afhankelijk van wat je met de pc doet kan je stroomverbruik wel eens hoger uitvallen...
100C... Klinkt alsof dit een kans is om ook de warmte die daar vanaf komt, in house te gaan hergebruiken?
Dat doe je nu toch ook al? Zo goed als het gehele verbruik van je kast wordt 1:1 omgezet in warmte. Er zijn enkele uitzonderingen (denk aan enkele wattages aan LED verlichting voor zij die daar blij van worden). Als je een pc neerzet die 1000W verbruikt, dan levert dit zo goed als evenveel warmte aan de ruimte als een elektrische kachel die 1000W gebruikt (bij volledige belasting van de pc uiteraard...).

Zie dit voorbeeld bij ± 900W. De gaming PC loopt iets uit, omdat er af en toe pieken zitten in het verbruik, terwijl de kachel prima te reguleren valt.

[Reactie gewijzigd door Paprika op 23 juli 2024 03:27]

. Er zijn enkele uitzonderingen (denk aan enkele wattages aan LED verlichting voor zij die daar blij van worden).
Als het licht in huis blijft (gordijnen dicht), wordt dat ook gewoon warmte..
Klopt, bij een ideale zolderkamer met volledige isolatie zal je de ideale kachel hebben, die naast warmte ook voor vermaak kan zorgen :p. Al blijft verwarmen met een warmtepomp (COP 4 a 5 met onze temperaturen?) wel de betere keuze.

[Reactie gewijzigd door Paprika op 23 juli 2024 03:27]

Dat is wel erg kort door de bocht. Die 1000W is piek-belasting. Tenzij je aan het minen bent, is een 1000W pc niet te vergelijken met een kachel van 1000W
Dat ligt er geheel aan wat je ermee doet en hoe je het gebruikt. Een render PC zal redelijk wat verbruiken, een uncapped (framerate) gaming PC ook. Een 12900k + een zwaardere 3090 Ti kan al prima 850W trekken ingame (volgens Tweakers.net reviews). De verwachting is dat de volgende generatie nog meer zal (kunnen) trekken...
Zo goed als het gehele verbruik van je kast wordt 1:1 omgezet in warmte
dat slaat natuurlijk nergens op, je doet net alsof de processor(en) en GPU(s) etc. geen werk verrichten.
OK, alle eletrische energie wordt omgezet in warmte + veel vermaak?
gebruiken er nog mensen GPUs voor gamen tegenwoordig? zonder gekheid, zo kun je van alles wat energie gebruikt wel zeggen "het produceert warmte en X", wordt een totaal nutteloze observatie.
Niets vreemds aan. Als je kan gamen op 200 watt en 300 een geweldige ervaring geeft waarom zou je dan 600 watt accepteren? Er zijn gewoon grenzen aan wat normaal is.

3 euro voor een biefstukje ok maar voor 6 mogen ze het houden.
eh, dat was precies mijn punt, ik reageerde juist om iemand die dat argument gebruikt om te zeggen dat de efficientie niet uit maakt omdat uiteindelijk toch alles warmte wordt :P
Ik zou je eens inlezen op de wet van behoud van energie. Dat werk zijn gewoon stroompjes waarvan de energie uiteindelijk gewoon ingezet wordt in warmte.
wow, interessantdoenerij. en je hebt niet eens de juiste wet te pakken, behoud van energie is de eerste wet, waar jij het over hebt is de tweede wet van de thermodynamica, die impliceert dat uiteindelijk alles in warmte wordt omgezet. dat een auto je van A naar B brengt is verder niet interessant, omdat het uiteindelijk lot van al het gedane werk toch warmte is? zo kun je elke discussie over efficientie van apparatuur wel doodmaken.
Nee dat zegt hij niet.
En dat klopt natuurkudig. Welke vorm zou dat werk hebben? Kracht maal afstand? Je PC blijft staan waar die staat, de stroom gaat niet naar elektromotoren. Steady-state gaat er niets naar caps of laptopbatterijen.
Dat heeft te maken met het opgenomen vermogen. Mijn Pi in de meterkast wordt ook 100 graden en verbruikt maar een paar watt. Niet echt te gebruiken als verwarming.
100 graden celsius,het begint toch wel een beetje naar het belachelijke op te gaan eerlijk gezegd,ik denk in deze tijden dit geen goede ontwikkeling is waar cpu-gpu een belachelijk veel stroom vreten en dan alsook een kachel zijn.
Denk ze het wel eens over andere boeg mogen gaan gooien,of veel mensen gaan twijfelen over aankoop ivm energie prijzen.
Wat is er mis met 100 graden. Doordat de 'die' van de CPU steeds kleiner wordt, moet het vermogen over een steeds kleiner oppervlak afgevoerd worden waardoor de core heter zal worden. Dat hoeft ook totaal niet te betekenen dat iets een kachel is. Iets kan 100 graden zijn en 20 watt verbruiken en iets kan 100 graden zijn en 200 watt verbruiken. De 100 graden zelf zegt niet zoveel.

Je stelling klopt dan ook ook niet. Het feit dat het een kachel is, heeft te maken met de hoeveelheid opgenomen vermogen (dat omgezet wordt in warmte), niet zozeer met de 100 graden zelf.
Alleen wordt de die meestal niet kleiner, want de schaalverkleining door de kleine procedés wordt gebruikt om meer transistors in een chip te zetten.
Ja ik had beter kunnen zeggen dat de hoeveelheid opgenomen vermogen ten opzichte van het die-oppervlak stijgt. Dat hoeft overigens ook niet perse te kloppen, maar dat is wel waarom processoren in de regel heter worden bij een nieuwe generatie. De hoeveelheid watt die per vierkante mm afgegeven moet worden aan de koeler stijgt in de regel.

[Reactie gewijzigd door Korvaag op 23 juli 2024 03:27]

De temperatuur op zichzelf zegt niet alles maar de complete consumptie van een dergelijk systeem gaat wel weer omhoog. En dat is toch wel een beetje typerend dat de winst slechts 5% is maar je wel weer 100 watt extra kwijt bent. Ik geloof best dat de die hard gamer hier minder moeite mee heeft, die gooit er dan ook nog een 4090 in die ook op zichzelf weer meer verbruikt dan een 3090 maar tegelijkertijd voor mij als gewone consument valt het me erg tegen wat deze nieuwe generatie doet.

Ik ben dan ook erg benieuwt wat AMD doet nu is de 12900 in specifieke gevallen het top model maar gezien de minimale verbering met de 13900 hoop ik dat AMD hier een kansje heeft. Dit najaar kan dan nog wel eens interessant worden.
Ja absoluut, maar dat was ook mijn reactie: de stelling dat het 'ook een kachel' is heeft niets te maken met de 100 graden, maar met het opgenomen vermogen.

Je ziet helaas al langer dat in de wedloop om snelste processoren de processoren feitelijk boven hun kunnen worden afgesteld. Onevenredig meer opgenomen vermogen in vergelijking met de prestatiewinst.

Je ziet het al bij de 5700X en 5800X (das dan toevallig AMD). De 5700X is beperkt in de hoeveelheid opgenomen vermogen ten opzichte van de 5800X maar presteert maar ietsje minder.

Voor mij zelf is undervolten en juist TDP beperken de sport. Zien hoe je met minder opgenomen vermogen nagenoeg dezelfde prestaties kan halen als origineel.

PS: ik weet dat TDP beperken niet voor elke CPU/GPU de juiste term is, maar de essentie is duidelijk denk ik.
elektronica is minder efficient naarmate de componenten warmer zijn; dit natuurkundige feit moet je niet verwarren met het idee dat inefficientere apparaten warmer worden (dit is ook waar, bijna tautologisch zelfs). dus hoe warm zo'n processor wordt is wel degelijk relevant.
Het ging hier om het kacheleffect. De TDP van de CPU verandert niet. Hij draait alleen wat langzamer voor hetzelfde opgenomen vermogen dan als de CPU 60 graden is. Als de CPU 100 graden is gaat hij niet ineens 2x z'n TDP verbruiken, daar is het een TDP voor. We hebben het hier over een CPU die maximaal aan het stoken is in de test en daarbij 100 graden wordt. Hij pakt dus bijna per definitie z'n volledige TDP. De 100 graden is daarbij niet relevant. Het kacheleffect ontleent ie aan het feit dat ie z'n volle TDP pakt.
Ja, daar heb je gelijk in, maar heb niet echt het idee dat dat de insteek was van de post waar je op reageerde
Kan zijn dat ik hem verkeerd gelezen heb hoor, maar de zinsnede veel vermogen alsook een kachel las ik als: hij verstookt veel vermogen en is ook nog eens een kachel omdat ie 100 graden is.

Het is niet alsook een kachel. Het is een kachel omdat ie veel watt opneemt. Niet omdat ie 100 graden is.

Anyways: no harm done, volgens mij gaat er niets verkeerd :+
Dat is dus niet waar, het verschilt per component, en wat de toepassing is.
Ik ken vermogens printplaatjes die eerst de mosfets in ineffiecient schakelen om ze zo tot 70 graden te krijgen, juist omdat dan de specificaties beter zijn dan bij koudere temperaturen.
Een voltage drop van een diode neemt af bij een hogere temperatuur.
De rdson van een halfgeleider neemt juist toe.
Voor een PWM brug zal dat betekenen dat je een optimale temperatuur versus schakel frequentie hebt.

[Reactie gewijzigd door itcouldbeanyone op 23 juli 2024 03:27]

Wat misschien een oplossing zou kunnen worden is dat desktop CPU coolers ook Vapor Chambers gaan gebruiken die dan weer verbonden zijn met heatpipes. Heeft met laptops best wel goed gewerkt.
Geef mij vrijwel elk random AMD of Intel cpu+moederbord, waarbij het mij geen geld kost (helamaal als ik iets opblaas) en reken maar dat ik dat in no-time een screenshot boven de 100 graden gemaakt krijg in CPU-Z. Iedereen kan wel iets bedenken van verkeerde cpu koeler montage tot voltages, waarbij je prima windows weet je bereiken maar onder stress belasting de temperatuur compleet in het rood schiet.

Idem krijg ik met wat vloeibare hulp in exact dezelfde opstelling een screenshot onder de 0 graden celcius.


Temperatuur zegt gewoon alles over gebruik en niks over verbruik. Gaat om een engineering sample, dus wie weet wat voor misbruik ze deze CPU al hebben blootgesteld en ze ermee hebben gedaan (of misschien aan het doen waren tijdens de opname).

Gezien het voltage van dik 1,4v op deze, waar eerdere 13900k data onder andere ~1,18v of ~1,35v liet zien? Dan neig ik heel erg naar testen of geklooi wat tot deze temperatuur uitschieter leidt.

[Reactie gewijzigd door Xanaroth op 23 juli 2024 03:27]

Dit is een engineering sample die overigens op een absurde core voltage draait. Ik kan niet geloven dat dit de permanente voltage blijft voor de uiteindelijke release. Is dat wel het geval mogen ze hem naast de 11th gen zetten als onbruikbaar.

[Reactie gewijzigd door computerjunky op 23 juli 2024 03:27]

Wat zijn jullie ervaringen met die E-cores? Is de huidige software slim genoeg om de workload goed te verdelen? Ik heb het idee dat er genoeg software rond gaat dat maar op 1 core draait
Voor zover ik weet heeft W11 wel updates gehad om de e-cores te kunnen gebruiken. Dus nutteloos zal het zeker niet zijn liggende aan de gebruiker. Wat software betreft, dat is zoals altijd, een kwestie van tijd.
Toevallig laatst op phoronix een zeer uitgebreide Linux kernel benchmark test gezien waarbij een oudere compiler gebruikt werd die niet goed wist hoe ie met de P/E cores moest omgaan. Dit zorgde voor zeer groot prestatieverlies als de compiler werd gevraagd de boel te optimaliseren voor die architectuur. Wil niet zeggen dat dit zich meteen vertaalt naar de situatie bij Windows, maar het geeft wel aan dat de software er over het algemeen wel op aangepast dient te worden
Intel moet heel erg zijn best doen om de concurrent bij te benen tot het niveau dat ze wanhopig zijn geworden om de beste chips uit te brengen op het oude wafer proces. Dat resulteert in extreem hoog energieverbruik in een tijd waar we juist minder willen gaan verbruiken. Intel is wederom weer op haar hoofd gevallen maar goed, je moet toch iets als je niet bekwaam genoeg meer bent voor de huidige markt.
AMD doet het goed hoor, maar de omzet van Intel is wel 'even' iets groter dan die van AMD. (Slechts 5x, maar goed... detail)

Marktaandeel van Intel is ook wel even iets groter. 75% versus 25%.

Nogmaals, AMD groeit hard en doet het prima. Maar voordat 'Intel AMD moet bijbenen' moet er nog wel het e.e.a. gebeuren.
Intel is marktleider om één reden, ze hebben tot nu toe vrij weinig competitie gehad van AMD waardoor de meeste mensen toen de tijd kozen voor Intel omdat deze chips vaak beter waren. Die tijd is geweest en nu moet Intel de chips van AMD bijbenen - niet in de zin van omzet of in de zin van marktaandeel - maar op 'performance per watt'. Dit is het meest interessant voor bedrijven omdat zij vaak honderden computers tegelijk hebben staan draaien, die zitten niet te wachten op energie sleurpende CPU's. AMD doet het in dat opzicht een stuk beter.
En wat dacht je van Apple M2 cpu? Kan die nog een goede concurrent worden?
Zolang ze uitsluitend hun chips voor mac blijven produceren zullen ze nooit marktleider worden. Er zijn veel te veel bedrijven en consumenten die afhankelijk zijn van Windows. Wellicht als apple hun vizier verbreedt en chips gaat aanbieden voor het Windows draaiende segment van de markt dan zouden ze inderdaad wel eens een poging kunnen maken.
Grappig dat de score er ook bij staat. Ik heb even ter vergelijking mijn 5Ghz score van de 12900k er bij gezet. Deze score zegt natuurlijk niet alles maar toch iets.

13900k @ 5Ghz : 13054
12900k @ 5Ghz : 11888

Single thread score is nagenoeg gelijk.

Wat mij overigens opvalt is de hoge vcore van 1.476

[Reactie gewijzigd door j005t op 23 juli 2024 03:27]

Ik zou bijna 10% winst bij een schijnbaar gelijke clockfrequentie niet 'nagenoeg gelijk' willen noemen. Dat is toch een redelijke sprong in IPC. Al kan het natuurlijk nog veranderen daar het een ES is.
Kijk nog eens goed naar de single thread scores. 837 vs 846. Terug naar de rekenles ;)
Ow, wacht, ik dacht dat de door jouw gelinkte scores single thread waren en dat jij die beoordeelde als nagenoeg gelijk.

837 vs 846 is een wash idd.
DDR4 en Dual Channel, dat gaat niet spectaculair worden. Quad Channel en eventueel DDR5 was beter geweest. Intel moet nog veel gaan doen om weer tech leider te worden. Apple bewijst met haar SoC dat het gaat om alle bottlenecks weg te krijgen, wat heb je aan een zeer snelle processor met hoog geklopte klok als die moet wachten om data van en naar geheugen te halen?
Let wel, dat is niet alleen waar voor CPU verwerking, maar ook voor de verwerking van en naar de GPU, want iedere bewerking op de data door de CPU en GPU wordt telkens heen er weer geschreven tussen het CPU RAM en de grafische kaart als de CPU en de GPU er bewerkingen op uitvoeren.
Lees ff goed.
De cpu is getest in combinatie met 32GB DDR4-2660-geheugen. Raptor Lake krijgt ondersteuning voor DDR4- en DDR5-geheugen, net als Alder Lake.
blijft nog steeds Dual Channel
met raptor is de terugkeer van tick-tock in een iets andere vorm een feit: 2 generaties op dezelfde socket en productieproces met dus de bijbehorende memory-compatibility.

misschien toch nog een half jaartje wachten om een nieuwe setup te bouwen O-)
Het zou pas geweldig zijn als dit soort prestaties/scores bij een TDP van minder dan 35W geleverd zouden worden. Maar dat is voorlopig nog niet aan de orde.
Met de huidige energieprijzen en waarschijnlijk hoge aanschafprijs van deze nieuwe loot aan de Intel boom lijkt het me niet waarschijnlijk, dat deze processor erg populair zal zijn.
35W is gewoon onrealistisch voor een K-chip, daarvoor heeft Intel de T-serie gemaakt maar die moeten ZWAAR inboeten op kloksnelheid. De 12900T en 12700T hebben een baseclock van amper 1.4Ghz op hun P-cores en als je gaat boosten, dan knal je gewoon keihard door dat TDP.
Nou moet ik nog gaan uitleggen, dat dit sarcasme heet.

@dasiro: kon niet meer wijzigen

[Reactie gewijzigd door Tantrum op 23 juli 2024 03:27]

gebruik daar dan een smiley bij, want er zitten hier genoeg idioten die dit soort dingen echt menen
Oftwel overstappen naar AMD of wachten totdat Intel het snapt en ook inziet dat verbetering = minder verbruik.

Op dit item kan niet meer gereageerd worden.