Gerucht: Intel Core Ultra 9 285K verbruikt tot 370W bij extreme overklok

Uit screenshots van Cinebench R23-tests die op sociale media circuleren, komt naar voren dat de Intel Core Ultra 9 285K bij volledige lading een vermogen van 370W kan bereiken. Dat lijkt het geval bij een extreme overklok.

Deze waardes, gedeeld door de doorgaans goed geïnformeerde leaker @9550pro, worden behaald wanneer de P-cores op 5,6GHz draaien en de E-cores op 3,9GHz zijn afgesteld. De uitgelekte screenshots tonen een 370W-verbruik als gevolg van deze experimenten met extreme overklok. Het volledig ontgrendelen van de processor met exotische koeling drijft de score in Cinebench op naar 46.289 punten. Bij standaardinstellingen scoort de processor 42.286 punten met een verbruik tot 279W. Het verhogen van de stroomlimiet naar 250W resulteert in 45.563 punten.

285K benschmark leak
Bron: @9550pro

Door Andrei Stiru

Redacteur

22-10-2024 • 08:50

107

Submitter: Vurenvos

Reacties (107)

107
107
49
5
0
51
Wijzig sortering
Bij standaardinstellingen scoort de processor 42.286 punten met een verbruik tot 279W. Het verhogen van het stroomlimiet naar 250W resulteert in 45563 punten

Kortom zonder de powerlimit te verhogen naar 250w doet hij al 279w?

Zucht… gaat echt nergends meer over.
Heb een 7950x en die draait op 95w setting zo’n 5% trager en had altijd default moeten zijn

En de eco modus van 65w is ook maar minimaal trager dan dat, tov de 159w in de normale modus. Wat de oc modus had moeten zijn.

Maar intel maakt het pas echt bont,
Dit gaat zwaar de diminishing returns hoek in,
Had het gewoon op 130w gezet ofzo is wss 3-4% trager.

Beide partijen overtunen gewoon echt te hard.
Ben blij dat de 9xx0 serie van amd iig iets minder stroom lijkt te trekken, maar die heeft dan weer erg hoge idle door de losse IO die.

Jammer allemaal.
het gaat Intel er alleen maar om dat ze de snelste CPU hebben, de rest boeit niet. De meeste gamers kijken alleen naar welke de snelste is, stroomverbruik boeit ze in de regel niet.
Nvidia doet dit ook al decennia, zolang hun top model maar de snelste is boeit de rest niet. Ze kunnen dan schermen met dat ze de snelste GPU op dit moment hebben en daar reageren mensen dan op.
AMD is hier ook schuldig in, hebben we doen wel met bulldozer gezien en iets meer recent Vega. Vega is een fantastische GPU, maar schaalt verschrikkelijk. Heb toentertijd de Vega64 gehad en ding verbruikte 350W out of the box en haalde vergelijkbare performance als een 1080 maar wel 150W extra verbruik. toen ik de Vega fine tuned had verbruikte hij 225-250W met nog niet eens minder performance, was gewoon belachelijk.
het gaat Intel er alleen maar om dat ze de snelste CPU hebben, de rest boeit niet. De meeste gamers kijken alleen naar welke de snelste is, stroomverbruik boeit ze in de regel niet.
De wereld voor pc's is een stuk groter dan die voor gamers alleen. Bijvoorbeeld die van de zakelijke markt ;) en daar wordt de laatste jaren wèl in toenemende mate naar het stroomverbruik gekeken.

Praktijkvoorbeeldje bij mij op het werk: als wij zes CAD stations in één ruimte hebben draaien en die pc's (intel i9/Ultra 9 plus RTX A4000) trekken gemiddeld 700 W uit een stopcontact, of je configureert een vergelijkbaar systeem met een meer energie-efficiënte AMD cpu + gpu (zeg: 500 W per systeem), dan praat je over vele honderden kWh's per jaar die je kunt besparen, nog los van de aircokosten in de zomer.
De zakelijke markt doet weinig meer met desktops. Ik zie steeds vaker laptops dan wel thinclients gebruikt worden. Degenen die wel een desktop nodig hebben, zijn workstations en dan begint het al behoorlijk niche en specifiek te worden. Ik denk dat gaming echt wel de grootste markt is voor desktops vandaag de dag.
In de technische sector (waarin ik werkzaam ben) kun je inderdaad ook wel met een ZBook of vergelijkbaar aan de slag, maar de meeste engineers/ontwerpers/tekenaars die ik ken hebben toch liever de performance van een desktopsysteem, gekoppeld aan twee of meer fatsoenlijk formaat beeldschermen. En ook hier komt het kostenaspect vaak weer om de hoek kijken; een potente laptop kost gemiddeld anderhalf keer meer dan een vergelijkbaar presterende desktop.

Eigenlijk moet ik het zelfs omdraaien; veel 3D CAD programma's halen hun performance grotendeels single threaded prestaties van de cpu; en juist daarin zijn de mobiele cpu's veelal ondergeschikt aan hun desktop equivalenten.
Als voormalig CAD tekenaar kan ik onderschrijven dat de meeste gangbare CAD-pakketten eigenlijk nog single-threaded zijn.
Performance issues treden wel pas op bij zeer grote samenstellingen en vele slechte, niet 100% (3/6 vrijheidsgraden) vastgezette onderdelen.
CAD 2D tekeningen zijn wel multi-threaded, maar ook weer niet echt lekker.

En je kan echt heel prima uit met een i5 of i7 midrange. Professioneel heb je echt niet de allersnelste nodig, het verschil is miliseconden.
Zeker, maar hoeveel technici zijn er? De meeste bedrijven hebben toch misschien 10-30% technici, en de rest heeft genoeg aan een laptopje + monitor en toetsenbord. HR hoeft geen workstation te hebben, laat staan iets met meer power dan normaal.

Daarnaast heb je nog de flexibele kantoordagen, consultancy etc waar een laptop echt veel handiger is dan een desktop, omdat je dan een werk-machine hebt die ook als zodanig beheerd kan worden. Alles via een Citrix laten lopen is nogal 2010 zeg maar ( *Freeze rent hard weg voor de horde kwade systeembeheerders* ).
Met een workstation ben je vaak toch ook technisch bezig? Dus dat in de technische sector nog wel met desktop gewerkt wordt, is daar dan toch evident aan? :?
De zakelijke markt doet weinig meer met desktops.
Grootzakelijk misschien, bij een vorige werkgever heb ik dat meegemaakt, iedereen kreeg een laptop en wie per sé een desktop dacht nodig te hebben moest dat speciaal aanvragen - uiteraard met toestemming op de hoogste niveau's. Ik dacht dat ze toen in één keer 12.000 van die dingen hebben uitgerold. Dat was dus meer dan 17 jaar geleden (zo lang ben ik daar al weg). Voor de managers, customer service representatives, secretaresses e.d. was dat op zich wel begrijpelijk maar daar waren heel veel controlekamers bij waar de PC's werden gebruikt voor procesbewaking door meerdere ploegen gebruikmakend van functionele accounts.
Ik zie steeds vaker laptops dan wel thinclients gebruikt worden.
Als het een bedrijf is met een vrij groot aantal gebruikers die niet veel van het ding vragen kan dat prima.
Degenen die wel een desktop nodig hebben, zijn workstations en dan begint het al behoorlijk niche en specifiek te worden.
Er zijn heel veel werknemers die net wat meer doen dan een briefje typen en een e-mailtje versturen en graag werken met twee of drie fatsoenlijk grote schermen (22" is toch wel het echte minimum, de meesten willen fors groter dan 24") bijvoorbeeld met een database of om in Excel dingen met elkaar te vergelijken. Dan kom je niet om een desktop heen.

[Reactie gewijzigd door BeosBeing op 22 oktober 2024 12:05]

In de praktijk trekken dat soort machines bij lange na geen 700W gemiddeld, dus dat scheelt. Misschien bij piek-belasting, maar hoeveel tijd van de dag heeft zo'n CAD-station piekbelasting...

En ook al doen ze dat en je bespaart (in de door jouw beschreven situatie) ongeveer 2 kWh / werkdag (200W verschil gemiddeld à 10 uur / dag = 2 kWh) dan praten we over ongeveer 500 kWh besparing per jaar. Dat valt helemaal weg tegen alle operationele kosten die je hebt dat je daar geen discussie over wilt hebben.

Helemaal als je een beetje een fikse aansluiting hebt omdat je ook fiks wat CNC-banken hebt staan.
Daarom hebben we ook verschil tussen de zakelijke en particuliere markt. Beide markten hebben verschillend aanbod in producten, dat biede markten ook bij elkaar kopen is wat anders.
Intel heeft Xeon en AMD Epyc voor de zakelijke markt en daar zie je ook duidelijk dat price/performance leidend is terwijl op de particuliere markt waar je 2 doelgroepen hebt namelijk de gamers en thuisgebruiker. De thuisgebruiker wilt gewoon een functionele computer die zo goedkoop mogelijk moet zijn, terwijl de gamer gewoon performance wil. Juist de gamer boeit stroomverbruik vaak minder omdat ze dat wel weg koelen op de een of andere manier.

als antwoord op je praktijk voorbeeld is nog tweezijdig mijns inzien, namelijk in een werk omgeving draait het gewoon om efficiency en word er keihard gekeken naar geld en niet naar energie verbruik. Als die 700W workstations sneller zijn dan die 500W systemen en dat door hogere performance meer werk verzet word zullen ze gewoon dat 700W systemen pakken om te kunnen besparen op loonkosten.
nog los van de aircokosten in de zomer.
Maar als je de verwarming aan hebt is elke watt die je gebruikt in een PC gewoon 100% efficient. Natuurlijk kan je de stroom efficienter in warmte omzetten.... maar toch.
100% efficientie voor verwarming is belachelijk laag. Een beetje een warmtepomp gaat daar tien keer overheen.
10 keer overheen....
Waar heb je een warmtepomp gevonden die een COP heeft van 10
Ik ben niet bepaald de scherpste mes in de lade, dus zou je kunnen uitleggen hoe je meer dan 100%, en in 't geval van 'n warmte pomp dus 1000% efficiency halen? Tenminste als ik dit zo kan berekenen.

Mij lijkt dat je niet met bijvoorbeeld 100W opeens 1000W aan energie, ofwel hitte zou kunnen creëren?

Komt dit door bijvoorbeeld 100w gebruiken om iets te pompen wat 1000w aan hitte bevat?
YouTube tech-droogkloot Technology Connections heeft er een mooi filmpje over. Extreem kort door de bocht genereert een warmtepomp geen warmte maar extraheert deze uit de omgeving. De energie die je nodig hebt om hem aan te drijven dient voor compressors en ventilators, maar de energie voor verwarming wordt onttrokken uit de omgeving.

Je laatste zin vat het dus inderdaad aardig samen.
Ik ben het helemaal met je eens.
Maar ik denk niet dat stroomverbruik kostentechnisch belangrijk is, milieutechnisch is het natuurlijk een slechte zaak!

één systeem welke 100w zuiniger is, 10 uur per dag, 240 werkdagen per jaar: gebruik 240 kWh minder.
Zakelijk tarief van afgerond 20 cent per kWh = 50 euro verschil.
Mooi meegenomen, maar dat is nog geen uur werken in Nederland met allerlei overhead kosten en afschrijvingen.
Blijkt maar weer dat energie voor dit doeleind eigenlijk veel te goedkoop is in de westerse wereld.
Maar dat moet ook wel om industrie in leven te houden, anders gaan er een hoop banen verloren in grovere industrie.
Goedkope energie betekende doorgaans groeiende industrie, al vanaf de eerste wind en watermolens.
meer energie-efficiënt ?

700w * 8h = 5.6 kwh * 6 pc's = 33.6 Kwh
500w * 8h = 4 kwh * 6 pc's = 24 Kwh
200w * 8h = 1.6 kw * 6 pc's = 9Kwh winst met de amd setup .

260 werkdagen = 2.340 Kwh , aan ruimgenomen 0.15 cent/ Kwh
= 351€ per jaar winst in kosten .

en hoeveel % trager is deze AMD setup ? laten we een "amper" 5% zeggen?

6 personen, 260 werkdagen 8u lang zijn 12.480 werkuren
dat wil zeggen dat je 624 werkuren jaarlijkst verliest met deze zuinigere setup

624 x 60€ = 37440€ minder omzet

Als jij als baas mag kiezen : 351€ meer stroomkost of 37k minder omzet ,
is er dan nog een keuze te maken?
Maar dan ga jij ervan uit dat men met z'n armen over elkaar gaat zitten totdat de cpu klaar is met het werk.

Ik kan mij voorstellen dat je tussentijds gewoon andere dingen doet.
Ik geloof niet dat een AMD systeem per definitie trager hoeft te zijn dan een Intel systeem. Wel stukken efficiënter in de 'performance per kilowattuur'. Ze hebben bijvoorbeeld ook meer (L3) cache, wat zeker bij CAD software positief uitpakt in de performance.

Maar het gaat ook niet alleen om het geldelijk gewin, voor 'een paar kilowattuur minder''; Bedrijven moeten in toenemend mate kunnen of gaan aantonen dat ze nadenken over besparende maatregelen op het gebied van milieu en energiehuishouden. Wij hebben een productiehal met 104 tl-balken à 52 Watt vervangen door ledlampen, die 18 Watt per stuk consumeren. Met 10 uur per dag het licht aan scheelt dat dik 9000 kWh op jaarbasis. Nou is dat op een bedrijfsbegroting misschien 'maar' 1100 euro ex.btw op je jaarbegroting, maar je kunt wel aantonen dat je er actief aan werkt dat stroomverbruik omlaag te brengen.
In de winter bespaar je verwarmings kosten :)
Sowieso iedereen die een 300+ euro CPU koopt, boeit het stroomverbruik niet. Anders had je een tragere zuinigere kunnen kopen. Stroomverbruik (zeker bij de topmodellen) is wel een getal waar je aan voorbij kijkt. Prestaties zijn veel meer van belang, daarom geef je al dat geld uit.
Mijn 9700x was 300+ euro, maar heeft een TDP van 65W. Ja, TDP zegt niet alles maar is wel een indicatie. Waarom zou ik stroomverbruik minder belangrijk vinden?
Voor veel consumenten is stroomverbruik niet belangrijk, want je ziet het meestal niet direct terug. Een high-end PC kan misschien wel een halve kWh per uur trekken, of meer nog, maar die circa €0,20 per uur komt pas bij je jaarlijkse eindafrekening van de stroomleverancier.

Wat wél een reden is, een indirecte dan, om stroomverbruik lager te willen hebben is koeling. Meer stroomverbruik = meer warmteontwikkeling = zwaardere koeling nodig.

En dat laatste is duurder in aanschaf, of je moet meer herrie accepteren. Beide scenario's zijn niet echt wenselijk.
Ik reageer op dit stukje:
Sowieso iedereen die een 300+ euro CPU koopt, boeit het stroomverbruik niet. Anders had je een tragere zuinigere kunnen kopen.
Ik vind stroomverbruik heel belangrijk en toch heb ik een 300+ CPU gekocht. Wat ik daarmee wil zeggen is dat een duur CPU niet hoeft te betekenen dat het een hoog stroomverbruik heeft.
Dit dus. Toen AMD met de 9000 serie kwam was ik erg enthousiast. Zulke prestaties met slechts 65w tdp? Zeer indrukwekkend.
Meer en meer consumenten kijken wel naar verbruik en de hoeveelheid energie/ warmte die vrij komt want die willen rust/ stilte of minimaal geluid

Als jij Alan wake 2 doet of een andere veeleisende game wil je ook ingame stiltes kunnen horen. Wellicht een zacht en rustig piano deuntje en niet stofzuiger geluid van je cpu fans omdat die maximaal moeten werken om onder de 95 graden te blijven.
bij mijn huidige built heb ik kritisch gekeken naar verbruik van de CPU, heb een 5800X gekocht toen ie rond de €400 was. Had bij de upgrade een Intel 5930k en vond 210W toch wel at erg veel verbruik voor de performance die ik eruit trok en die 5800X had een TDP van 105W tegenover de 125W (geadverteerde) van 11700k (daadwerkelijk draaide hij gewoon richting 200W)
het extra geld duwde ik liever in andere belangrijkere zaken 8)7
Op veel vlakken een goede upgrade maar op het gebied van kostenbesparing lijkt het me niet heel interessant. Bij 4 uur stevig gebruik per dag scheelt die nieuwe cpu rond de 50 euro per jaar aan stroom, bij mij zou dat nog een stuk lager liggen waardoor het op jaarbasis al vrij snel insignificant wordt.
performance verschil is er ook namelijk 10321 voor de 5930k tegenover 27849 voor de 5800X (passmark). dus hier kijk ik primair naar performance, prijs en dan verbruik.

hoe bedoel kostenbesparing? ik game op dat apparaat en als ik 144 fps will blijven aantikken moet ik elke X jaar toch eens upgraden. Qua kosten besparing had ik net zo goed mijn 2600k nog kunnen gebruiken die ik in 2011 aangeschaft heb want die doet het toch nog? :+
Ah, ik dacht dat je met "het extra geld duwde ik liever in andere belangrijkere zaken 8)7" het bespaarde geld op je stroomrekening bedoelde :P
nee, RGB uiteraard! :Y) :Y)

edit: ik lever op dit moment Netto terug op het stroomnet dus mijn elektriciteit is zolang salderen mogelijk blijft gratis.

[Reactie gewijzigd door Richo999 op 22 oktober 2024 14:38]

Vandaar dat ik een R9 7900 (zonder X) heb gekocht. Die staat al jaren steevast bovenaan de performance per Watt lijstjes, als het gaat om productivity.
Spreek voor jezelf.

Al die hitte moet ook afgevoerd worden. Dat doe ik liever met een Mugen 5 PCGH dan met een veel duurdere waterkoeling, of een luchtkoeler met meer prestaties, maar hoger geluidsniveau.

Een PC kan perfect onhoorbaar zijn en dient dat dus ook te zijn. Een stroomverbruik van 120W+, laat staan 200W+ voor enkel de CPU is dan dus gewoon uitgesloten.

Geld geef je uit voor luxe, stilte is ook een vorm van luxe die best een paar procentjes prestaties mag kosten.
Maar de 1080 kon je ook tunen en die ging dan gewoon sub-200w zonder performance impact :+

@RRRobert Je eigen voorbeeld scheelt 1200 watt, bij een 8 urige werkdag is dat 9,6kWh per dag x 226 werkdagen (obv 40-urige werkweek) is dat 2169,6 kWh besparing.
Dan heb je het over enkele honderden euro's besparing ex. de airco maar je hoeft verwarming weer niet aan in de winter :+

[Reactie gewijzigd door sapphire op 22 oktober 2024 09:48]

mag ik toch hopen, TDP van een GTX 1080 was 180W :+
dat een 1080 door OEM richting 230W geduwd werd is wat anders, performance increase was er dan puur om mee te kunnnen adverteren dat ding ook betwer was de FE versie.
Ik zie het nu inderdaad.

Even nagekeken en mijne draaide op 2100Mhz + geheugen OC en undervolt en max aangetikte in stresstests was 181w lucht gekoeld :)

Ik was in de war met mijn 3070 die +/- 200watt doet.
Tja als je verliest in alles kan je nog proberen om te zeggen dat je het snelste CPU hebt...
Sorry, ik heb geen hoge pet op van Nvidia als het aankomt op marketing en pricing. Maar als je ze iets niet kan verwijten is het stroomverbruik. De kaarten zijn hardstikke efficient. De 4090 mag zogenaamd 450 watt verbruiken maar bij mij komt deze zelden boven de 300 watt uit, in combinatie met een 7800x3d. In zo goed als alle games pakt hij rond de 220 watt. De verhalen van 600 watt zijn echt complete onzin. De standaard kaarten zijn max 450 en dat halen ze al zo goed als nooit.

Heb daarnaast een laptop met een 4090 mobile en 7945hx3d, en de mobiele 4090 is eveneens , zo niet nog extra efficient.

Ik vind je rant dus enigszins misplaatst. Speel games op 5120x1440 op 240hz als het shooters (cs2, deadlock) zijn en op 144 fps als het bijvoorbeeld een rts is.

Ipv benchmarks heb je hier bijvoorbeeld iemand die een realistisch scenario heeft.

YouTube: Real RTX 4090 power consumption

[Reactie gewijzigd door OriginalFlyingdutchman op 22 oktober 2024 10:38]

het gaat Intel er alleen maar om dat ze de snelste CPU hebben, de rest boeit niet. De meeste gamers kijken alleen naar welke de snelste is, stroomverbruik boeit ze in de regel niet.
Dat is onzin dat Intel de rest niet boeit, Intel begrijpt best wel dat tegenwoordig performance per watt belangrijk is, maar dat hoeft niet in elke doelgroep.
De E-core zijn daar al een voorbeeld van, de opbouw van Meteor Lake en Lunar Lake, cpu's met alleen E-cores om voorbeelden te noemen.
Dat je in deze overclock een hoog vermogen ziet is logisch, het is een overclock.
Sterker nog in de huidige nieuwe cpu generaties van zowel Intel als AMD met de Zen 5 9000 serie zie je vooral dat het gebruikt vermogen omlaag is gegaan, maar de prestaties niet altijd merkbaar omhoog.
Intel heeft ook al gewaarschuwd dat je in de huidige nieuwe generatie niet zozeer performance winst hoeft te verwachten, maar dat het vooral een winst in verbruik is bij ongeveer gelijke prestaties.
Dit is ook wel logisch toch bij performance producten? Als je een sportauto wilt kopen kijk je ook naar de performance. Er zullen weinig kopers van dit soort auto's kijken naar het verbruik.
Bij Nvidia krijg je ook performance terug, de performance per WATT bij Nvidia is beter dan bij AMD met de laatste generatie GPU's.
Het probleem is dat AMD kaarten op hun tenen werden gedwongen te lopen om mee te kunnen doen in de lijstjes.

Zodra je die ook maar een klein beetje terugklokt, win je enorm aan efficiëntie. Hetzelfde geldt natuurlijk principieel ook voor Nvidia GPU's.

Mijn 7900GRE loopt door, vermoedelijk een software bug in Linux, eigenlijk enkel op z'n base clocks. Ik verlies er weliswaar misschien 5-10% prestaties mee, maar het verbruik is wel van 260W naar 160W gedaald.
het gaat Intel er alleen maar om dat ze de snelste CPU hebben, de rest boeit niet.
Dat was vroeger zo, maar vandaag de dag is efficiëntie en stroomverbruik echt wel een dingetje zeker in Europa, vooral na de energie crisis van 2022.
In landen waar ze nog een hele lage stroomprijs betalen zal dat natuurlijk wel anders liggen, maar ik heb het gevoel dat er een omslag bezig is.
De meeste gamers kijken alleen naar welke de snelste is, stroomverbruik boeit ze in de regel niet.
Deze CPU worden natuurlijk ook verkocht aan andere doelgroepen, denk dat de gamers maar een klein percentage representeren.
Daarbij denk ik dat de meeste gamers echt wel kijken naar prijs performance/stroom verbruik anders zouden alle gamers een dikke RTX4090 in hun pc hebben net een dito CPU dat is gewoon niet de realiteit, check de Steam hardware survey maar.
De vraag hier uiteraard is, wat is de andere doelgroep dan? Dit ding slurpt gewoon veel energie vooral als die moet presteren. Daarnaast heb je de bottleneck van geheugen channels en PCI-E Lanes die je mist. De enige reden dat je dergelijke CPU zou willen is als je bijna voornamelijk single threaded workload hebt.

voor alles behalve single core performance neig je imo toch al snel richting Xeon, Epyc of Threadripper (in hoeverre deze laatste op moment verkrijgbaar/relevant is).

ter afsluiting, waarom word de Intel Core lineup voornamelijk richting gamers gericht in hun marketing als zij niet eens hun doelgroep zouden zijn?
voor alles behalve single core performance neig je imo toch al snel richting Xeon, Epyc of Threadripper (in hoeverre deze laatste op moment verkrijgbaar/relevant is).
Je hebt gelijk, ik zat inderdaad aan workstations te denken voor professioneel gebruik, maar die zullen natuurlijk eerder richting Xeon, of Epyc gaan.
ter afsluiting, waarom word de Intel Core lineup voornamelijk richting gamers gericht in hun marketing als zij niet eens hun doelgroep zouden zijn?
Ik hou de marketing niet echt in de gaten, maar je zal vast gelijk hebben.
Deze gamer betaald toch echt zin eigen stroomrekening en de kosten van de pc in verbruik tel ik gewoon op bij de aanschafprijs en pas dan bekijk ik welke het voordeligste is over 5 jaar. En dan is het als hoofdzakelijk gamer waarvan de pc ook de rest van de dag aan staat voor andere taken helaas om het even omdat de 12x 15 tot 30 watt meer in idle met AMD die paar uurtjes gamen wel weer compenseert. 20 watt idle is 110 euro over 5 jaar. Een cpu van 500 is dan dus effectief 610.

[Reactie gewijzigd door computerjunky op 22 oktober 2024 21:48]

Dan toch wel een AMD CPU en een Nvidia GPU ..
anders komt je er niet met je lange termijn berekening .. :Y)
Mijn pc staat 12 tot 16 uur per dag aan waarvan paar uurtjes gamen en de rest foto bewerken browsen en lezen wat als idle beschouwd kan worden. Het is juist bij dat idle en low load dat Intel nog in het voordeel is maar met gamen en renderen van de foto is AMD weer flink voordeliger. Wat totaal verbruik betreft is het de laatste paar gens dus om het even aan het einde van een typische dag voor mij.
Inderdaad, dat is iets wat door velen altijd over het hoofd wordt gezien, als een monster CPU in idle draait verbruikt ie inderdaad ook weinig stroom. Maar velen denken dat zo'n CPU dan altijd het maximale aan stroom verbruikt als wordt vermeld. Nee, dit is gewoon een "extraatje" voor als het nodig is .. ;)

Maar als je er continu met gamed wordt het een ander verhaal .. :X

Mijn set-up thuis is een playstation met een 4TV voor in de luie zetel voor de gehele familie .. maar voor bepaalde games heb je nu eenmaal een monitor/keyboard en muis nodig, dat is dan de gamebuild en die moet telkens 4-5 jaar meegaan. Als ik een nieuwe gamebuild bouw, gaat die oude naar de woonkamer, voor familiegebruik waarbij ik meestal nog een laatste kleine update doe zodat die nog eens tot 5 jaar kan meegaan.

De gamebuild op mijn kamer is met een monitor in 4K, als die daarna in de woonkamer terechtkomt is dat op een monitor in FullHD. Zo kan die telkens wel voor lang verder.

Voor werk gebruik ik mijn laptop, verbind ik gewoon met de monitor, keyboard en muis eraan gekoppeld en we zijn vertrokken


.

[Reactie gewijzigd door MPIU8686 op 22 oktober 2024 22:10]

dat stukje over gamers is in mijn ogen onzin.de huidige cpu is al te snel voor games.
alleen bij hele zware games kan het een issues zijn zoals sims.
Dus op 1 hand kan je tellen als er games zijn he.
beetje overtrokken in mijn mening
Er is geen enkele cpu die te snel is. Bestaat simpelweg niet. Gpu's droppen. Of altijd frames omdat de cpu het niet bij kan benen.
dat ligt aan de game of dat ligt ook wat er op de achtergrond mee draait of je hebt waardeloze snelheid met de m2 opslag.

het kan aan windows liggen enz.....of je geheugen.
op mijn 5900 heb ik totaal geen last van wat jij beschrijft ook niet met gamen.

En dat de meeste games nog steeds op 2 core's draaien.

[Reactie gewijzigd door noway op 22 oktober 2024 23:25]

Dat je niet weet dat het gebeurt betekent niet dat het niet gebeurd. Hoe verklaar je anders dat steeds snellere ecpu's toch meer fps uit dezelfde gpu halen?

Google maar even hoe en waarom gpu's frames droppen.

Opslag snelheid heeft overigens nul comma nul impact op gerenderd frames.
Je vergelijkt "standaard instellingen" met custom instellingen (jou 95W)

De officiele TDP van de 7950X is 170W, dat AMD dat bepaald en als blijkt dat 95W maar 5% trager is, is moeilijk te bevatten om eerlijk te zijn. Hoe kan de fabrikant er zo naast zitten? Mischien doe je alleen hele lichte workloads, en gebruik je niet alle 16-cores 100%.

Cinebench is dan ook geen normale workload en belast een CPU veel meer dan ff Cyberpunk 2077 opstarten met wat stuff in de background. Als ik reviews v.d 7950X naga bijvoorbeeld deze, kan die CPU ook makkelijk 300+ doen (default settings) of 300 W (out of box performance preset) Dus ja, zo gek zijn die specs van Intel met 279 W ook niet t.o.z AMD.

[Reactie gewijzigd door lithiumangel op 22 oktober 2024 09:47]

Volgens Gamers Nexus doet een 7950X bij een Blender workload 250 watt stroomverbruik. Dat is weinig zuinig.
Cinebench is ongeveer dezelfde workload als een photoshop of Topaz die een bewerkte foto opnieuw renderd en dat doe ik toch honderden als niet duizenden keren per jaar. Dat trekt echt de hele cpu vol open.
Dat is nieuws in de lijn van “Mijn opel corsa weegt 7300kg als ik hem vol steek met lood”

[Reactie gewijzigd door Gebruiker76 op 22 oktober 2024 08:56]

Inderdaad. Leuk dat er iemand is die het gelukt is, maar voor de aanstaande release is het natuurlijk van nul relevantie anders dan "kijk mij eens".

Laat de tester ook meteen maar even een duurtest doen bij deze instellingen om te kijken of de chip een langere levensduur heeft dan z'n voorganger. Dat lijkt me een stuk relevanter.
Inderdaad niets spannends aan. De AMD 9950x is met pbo en overclock ook al 309 watt. En dat is niet eens extreem overclocken. Dat is gewoon met een AIO cooler.
Als je dat ding aan een LN2 setup hangt zit je al snel over de 400 watt denk ik.

Volgens mij had gamers nexus 5 jaar geleden of een 32 core threadripper met LN2 overclocks en kwamen ze boven de 700 watts uit.
Ter vergelijk, mijn i9 13900K met 0x10B microcode en 0219 bios haalt enkel 376W als ik Prime95 draai zonder undervolt, dat is praktisch niet te koelen ook niet met een 420mm AIO en 6x 3000RPM Noctua 140mm fans.

Cinebench R23 zonder undervolt pakt zo'n ~320-330W met hyperthreading.
Cinebench R23 met -0.06v undervolt pakt zo'n ~290W met hyperthreading

Hierbij is in beiden gevallen geen throttling of oververhitting aanwezig maar zonder undervolt zit dat wel op het randje, anders ~90°C max
De scores zijn dan 41004 / 2289
"enkel" :P

Zoveel verbruikt m'n totale systeem under load (5800X3D icm. RX7800XT). Grappig dat 1 CPU zoveel stroom kan trekken.
All core overklok je 13900K, dat zal veel helpen minder stroomverbruik te hebben. Hij zal dan ook sneller in all core workloads zijn met minder hitte ontwikkeling, en veiliger je CPU zal niet eens 1.40v ooit halen. Een CPU afstellen op 2 frequencies (P en E cores) kan zoveel optimaler dan een CPU afstellen op het hele spectrum van Speedstep.

Standaard BIOS setup bij de moederbordfabrikanten is zelden ideaal. Zelfs die laatste microcode van Intel.
Ideaal voor de in de "koude" wintermaanden achter de pc.

ff een paar extra zonnepanelen erbij en klaar.
Helaas doen zonnepanelen niet zoveel in de winter.
Ook in de winter is het goed mogelijk om 370W uit je zonnepanelen te halen :-D
Nou ik heb in de winter letterlijk dagen waar mijn 3100WP me 0.2 kWh oplevert.
Daar kan je helemaal niets mee.
Tsja... Met onze 10kWP zitten er ook dagen van 0.4kWh tussen. Maar ook dagen van 5kWh. En over de hele maand is dat ook ongeveer het gemiddelde. En met het gebrek aan zonuren betekend dat toch al snel een gemiddelde van zo'n 600W. Genoeg om m'n game PC te laten draaien (en not much else :D)
Ik had afgelopen dec 33 kWh Dat word in zijn geheel al opgezogen door de vriezer en koelkast als die aan springen.
ter vergelijking:
Een AMD Threadripper 3970X zit met standaard waarden rond de 43.000 punten in dezelfde benchmark.
Dit geeft toch wel pijnlijk aan hoe groot de achterstand van Intel momenteel is
Rare vergelijking dat je die processor erbij haalt. Een 32 core - 64 threads bij van een paar jaar terug, dan doet Intel het juist fantastisch.

Intel doet dat met 8 cores - 12 halve cores en 32 threads. Dat is ongeveer de helft van de cores (iemand uit comments).

En de nieuwe Intel doet dat met 8 cores en 16 halve cores. Intel doet de gehele hyperthreading (en meer) nu teniet tov die Threadripper. Dat is de vooruitgang van deze generatie.
Misschien juist de perfecte vergelijking. Die 3970X doet ook 280W. Dus bij gelijk verbruik gelijke prestaties.

Volgens https://nl.hardware.info/...eview-stroomverbruik.html trekt ie in cinebench zelfs slechts max 240W

[Reactie gewijzigd door NESFreak op 22 oktober 2024 10:55]

Het is altijd makkelijker om met meerdere cores een zelfde prestaties te halen. 2 cores op 3000mhz doen minder energieverbruik dan 1 core op 6000mhz.
Samen met mijn 4090 de perfecte kamer verwarming.
Wacht maar tot de RTX5090 uitkomt .. daar kom je makkelijker de winter met door .. :D
>>
Bij standaardinstellingen scoort de processor 42.286 punten met een verbruik tot 279W. Het verhogen van het stroomlimiet naar 250W resulteert in 45.563 punten.
>>

Lijkt me niet echt logisch en toch een foutje. Maar het gaat hier om een overclock. De meeste mensen die dit doen is gewoon "omdat het kan". Meer dan 20 jaar terug draaide ik mijn intel fcgpa ook gewoon standaard hoger, dit door de bus van 66 naar 133mhz te zetten dacht ik. Dat verschil was echt merkbaar gewoon in dagdagelijks gebruik. Het nut van overclocken is in dagdagelijks gebruik nu nihil. Alleen in zeer gespecialiseerde applicaties kan je er voordeel uit halen. Undervolten om je verbruik te verminderen is dan weer iets anders. En dat is wel interessant voor je verbruik met 5 tot 10% prestatieverlies terwijl je dat eigenlijk niet merkt.

Maar alle gekheid op een stokje, straks heb je een 3 fase aansluiting nodig voor je computer :)
Een processor word ontworpen op een bepaalde ‘power envelope’. Er word een heatmap gemaakt van de processor en er word gespeeld met timings bij de plaatsing van de energievretende blokken zoals CPU, GPU, SRAM enz. Apple klaagde al jaren over Intel CPU’s dat ze die voor een te hoog verbruik ontworpen.

Dit is de ultieme stresstest van een processor ontworpen voor lager vermogen. Ik vraag me weleens af hoe zo’n processor ontworpen zou zijn als bijvoorbeeld een kW de norm zou zijn.

Veels te weinig markt natuurlijk; maar ik ben toch benieuwd.

Oftewel: welk onderdeel binnen de CPU faalt hier als eerste?

[Reactie gewijzigd door rare-Quark op 22 oktober 2024 09:05]

De max turbo voor P-cores is 5.7GHz en voor E-cores 4.6GHz volgens Intel:
https://ark.intel.com/con...cache-up-to-5-70-ghz.html

Dat zijn uiteraard geen all-core snelheden, maar de frequentie en overclock is nou niet bepaald opmerkelijk. Ook 370 Watt is voor Intel niet ongewoon.

Dus hoezo is all-core 5,6GHz en 3.9GHz een "extreme" overclock? Wat maakt dit "extreem"?
Juist dat stukje 'all-core'. Om 1 daarvoor uitgezochte core een eind te pushen kost een bak stroom, dus kun je nagaan wat 20 cores pushen dan kost.
Als je voor maximale power gaat heb je meestal (hopelijk) ook een multithreaded workload.
En dus? Je kiest er zelf voor om te overclocken. Ik heb dat nooit zo begrepen, ook die extreme overclocks met vloeibare stikstof niet. Dat is een beetje als; "kijk ik kan mijn Fiat Panda 1000km/h laten gaan ... als ik er een raketmotor op zet en er bizar veel brandstof doorheen pomp". Maar wat is daarvan het praktisch nut?? Ik heb ook ooit een 486 dx2 66 overclocked naar 80Mhz. Maar dat is ~30% van de originele performance extra. Tegenwoordig is het gerommel in de marge.

Ik wordt er te oud voor :)
Dit zijn geen Fiat Pandas hoor, dit zijn de BMWs van de processoren, met bijbehorend prijskaartje, en die dingen koop je niet om je dagelijkse mailtjes te sturen (hoop ik). Gezien ook bij autos het 'hoe hard kan ie' heel belangrijk lijkt te zijn, snap ik dit nog prima... en het levert geen gevaarlijke situaties op ;)

Vroegah kon je inderdaad flink meer overklokken, maar ook in het Pentium II tijdperk waren er al mensen met droogijs etc aan het spelen, gewoon omdat het kan. Tegenwoordig is er minder merkbare winst te halen, maar het geknutsel blijft, om dezelfde reden.

ps. al is de computer nog zo snel, Windows vertraagt em wel :+
Het had ook meer zin om L2 cache tot 256kb toe te voegen.

Op dit item kan niet meer gereageerd worden.