AMD: AM5 krijgt maximale ppt van 230W

De AM5-socket krijgt een package power tracking-limiet van 230W en er verschijnen Ryzen 7000-processors met een maximale thermal dissipation power van 170W. Dat heeft AMD verduidelijkt na incorrecte uitlatingen over de maximale ppt.

AM5-sockets ondersteunen tdp's tot 170W en ppt tot 230W, corrigeert AMD zijn eigen eerste statement tegenover Tom's Hardware. Bij de aankondiging van Ryzen 7000 tijdens Computex, eerder deze week, maakte AMD bekend dat AM5 een maximale ppt van 170W zou ondersteunen. Dat zou betekenen dat dit het absolute maximum voor processors zou zijn. Momenteel ligt die ppt op 142W.

Ppt staat voor package power tracking en AMD berekent deze door het tdp met 1,35 te vermenigvuldigen. Momenteel heeft AMD Ryzen-processors met tdp's van 65W en 105W. Een ppt van 230W zou betekenen dat er Ryzen 7000-processors met tdp van 170W kunnen verschijnen en dat klopt, meldt AMD_Robert van Technical Marketing bij AMD.

Ryzen 7000-processors zijn gebaseerd op de Zen 4-architectuur, krijgen allemaal een igpu, hebben een L2-cache van 1MB per core en worden geproduceerd op 5nm. De turbokloksnelheid van de Ryzen 7000-processors voor desktops zou de 5GHz 'significant' moeten overschrijden.

AMD Ryzen 7000

Door Olaf van Miltenburg

Nieuwscoördinator

27-05-2022 • 17:04

106

Reacties (106)

106
102
47
1
0
33
Wijzig sortering
krijgen allemaal een igpu
Wat heeft dat precies als toegevoegde waarde in de marketing 'world's most advanced gaming processors'? Natuurlijk voor de mid-ends gamingrigs zou zo'n igpu wel voldoende zijn, maar met turboclocks van 5Ghz neem ik aan dat ze deze niet neer gaan zetten als mid-ends?

Zoals ik lees worden ze weggezet als gelijkwaardig aan de mobile 3060's, met het voordeel dat ze op mogelijk 15watt (60 over 45) lagere tdp zouden draaien (al zijn er volgens mij ook 110watt tdp 3060's). Maar ze noemen het expliciet 'desktop processors', waar je dus niet in de beperking (in directe vorm) zit met wattage in een laptop.
Anoniem: 58485 @SinergyX27 mei 2022 17:28
Intel is zo groot geworden omdat het CPU's of bordjes met ingebouwde GPU's leverde. Hierdoor was geen externe kaart nodig. Dit helpt AMD bij o.a systembuilders, office pc'tjes. Het drukt de kosten (je hebt immers geen externe kaart meer nodig) en het brengt AMD meer marktaandeel.

De GPU's zijn overigens erg basic, puur om beeld te krijgen met wat hardwarematige encoding, thats it.
Intel is groot geworden omdat ze de concurrentie uit de markt hebben gedrukt en achteraf standaard een igpu op elke "normale" chip.
Vergeet de prijsafspraken met grote retailers niet
Dat bedoel ik dus met concurrentie uit de markt drukken (Cyrix/Via/ bijna AMD ook).
Intel was groot omdat ze jaren product ervaring hadden en ze al miljoenen chips verkocht hadden vooraleer er nog maar iemand op de markt kwam om competitie aan te gaan, zelfde verhaal bij Microsoft.

Het is trouwens Intel zijn fout niet dat AMD hun interne affaires en ingenieurs niet onder controle kregen en de ene flater na de andere begingen op vlak van chip designs en nog maar te zwijgen van hun wankel financieel beleid.

Het heeft eigenlijk tot ZEN geduurd voordat AMD eindelijk met een lange termijn visie kwam en het heeft geloond voor hun marktaandeel en ook voor de sector. Het duwtje dat AMD gegeven heeft in de sector heeft ervoor gezorgd dat de sector een kleine sprong gemaakt heeft in zaken waar ze al enige tijd niet vooruit in gingen en daar heeft Intel ook mede van geprofiteerd.

Uiteindelijk zijn ze allemaal in competitie, maar als de ene iets slims ontdekt, gaat de andere daar ook vrij snel van profiteren, zoals bv het arm big.little design waar AMD zich ook volledig op zal richten.
big.little is Intel al mee bezig (P en E-cores) AMD gaat nog even duren, maar met het chiplet design kan dat wel eens snel komen

Trouwens had je dat al niet gepost? Lijkt wel of er een post weg is en nu ineens terug staat.

[Reactie gewijzigd door Damic op 25 juli 2024 03:05]

Maar wat boeit big little mij als eindgebruiker? Ik betaal voor meer cores maar niet direct voor meer core power.
Yay ik gebruik 3 watt minder als ik niet achter de PC zit of alleen youtube kijk, lekker boeiend?
Een E-core is volgens mij wel wat meer dan 3W tegenover een P-core.

Voor de meeste gebruikers is het big.little principe meer dan genoeg, voor de power gebruiker ben je beter af met alleen maar p-cores en dat zien ik AMD nog wel doen: een chiplet zen 5 en een chiplet zen5e.

We zullen wel zien wat de toekomst brengt.
Ik kan niet direct iets vinden over verbruiksverschil. Veel reddit threads die dingen claimen maar niet onderbouwen en tests waar ze de power meten en maar een paar watt verschil halen, maar niet duidelijk vertellen welke cores er nou wel en niet aanstaan.

Tot dusver voelt het als PhysX en RTX.
Misschien toch even je geschiedenis goed leren. Intel is vooral de grootste omdat het bedrijf gewoon op veel vlakken de first mover is geweest.
Even wat voorbeelden:
Intel 4004 eerste processor
intel 8080 eerste processor voor algemeen gebruik
Samen met Xerox en dec ethernet commercieel ontwikkeld
386 waarmee het monopolie van IBM
op nieuwe processor technologie in de pc markt is doorbroken
Eerste chip fabrikant die zichzelf richting consumenten gingen profileren.
En zo kun je nog wel een tijdje verder gaan.

Feit is dat de concurrenten allemaal sinds hun oprichting catch up aan het spelen zijn qua technologie of productie en allemaal hun bestaan te hebben aan de second source contracten die in de jaren 70 en 80 gebruikelijk waren waardoor ze het recht hebben om Intel compatible producten te maken.

Dus dat uit de markt drukken is maar ten dele waar.
Dat je ook innovatief moet zijn ontkent niemand. Maar al die voorbeelden die jij noemt waren niet doorslaggevend voor de dominantie van Intel. Het zijn de competitieve wangedragingen van de late 1990s en 2000s die ervoor hebben gezorgd dat al die concurrenten omvielen. Intel heeft in de afgelopen 20 jaar praktisch nergers technolgisch leiderschap getoond, maar werd wel steeds dominanter door schimmige praktijken die concurrenten met minder geld de das om deden.
Die eerste innovaties zijn zo belangrijk omdat daarmee de basis werd gelegd.
Ik kan ook noemen het aanjagen van asml door de als eerste te investeren in de ontwikkeling van euv (voordat Samsung en tsmc instapten) of gewoon meer dan 40 jaar altijd als eerste massa productie draaien met de nieuwe process techniek iets wat tsmc nu pas 6 jaar voor elkaar heeft:

En behalve ten tijde van athlon x64 toen Intel verkeerd gokte op de pentium 4 en sinds zen is amd een serieus alternatief voor de high end x86 markt.

De anti competitieve boetes gaan vooral om consumenten producten maar het grote geld wordt in de enterprise verdient en daar heeft amd dus eigenlijk pas sinds zen een serieus alternatief.

En vergeet niet dat de echt grote verliezers bedrijven zoals ibm sun en Amdahl geweest zijn en die zijn gewoon op prijs presteerde weg geconcurreerd. Vergeleken bij hun heeft amd bijna niks verloren.
en sinds zen is amd een serieus alternatief voor de high end x86 markt.
Dit is naar mijn idee grotendeels verantwoordelijk voor het dominante marktaandeel van Intel.

Ten tijde van de Phenom-processors (dan hebben we het over de periode rond 2008) was het in mijn beleving voor velen op papier geen logische zet om voor AMD te kiezen. Intel heeft toen met de eerste generatie i3, i5, i7 en een hele hoop marketinggeweld een productlijn gelanceerd waar AMD met de K10-architectuur niet goed tegenop kon boksen. Met name op de consumentenmarkt is AMD sinds die tijd vrijwel niet meer op grote schaal in prebuilts te vinden geweest.

In de jaren daarop heeft AMD met de Phenom II- en FX-lineups het uiterste uit hun architectuur weten te persen, maar wist alleen voor edge-cases meerwaarde te bieden. Neem bijvoorbeeld de FX-8350, destijds de populairste cpu van AMD, die heeft het moeten opnemen tegen de legendarische i7-3770K en i5-3570K. En hoewel de FX daar in benchmarks precies midden tussenin valt, presteert hij op performance per core ongeveer een kwart lager dan de i5. En laat het nou net zo zijn dat multicore workloads in die tijd nou juist niet zo gebruikelijk waren, vooral niet in games.
het grote geld wordt in de enterprise verdient en daar heeft amd dus eigenlijk pas sinds zen een serieus alternatief.
Dit is hier dan ook zeer relevant. De mensen die de keuzes maken voor de aankoop van nieuwe hardware kijken simpelweg naar de prijs/kwaliteitverhouding, maar voor veel toepassingen wordt wel ingezet op een bepaalde minimumprestatie. Daarnaast wordt er ook veel op populariteit ingezet: "Het meestverkochte model moet immers wel goed zijn", toch? Of zou het anders liggen?

Die trend heeft zich een tijd voortgezet, waarbij AMD na de FX-lineup zelfs alleen nog maar APU's is gaan maken (tussen 2013 en 2017 zijn er geen nieuwe high-end desktopreleases van AMD geweest) die vooral voor bepaalde doelgroepen interessant waren, maar niet zozeer voor de consument of de zelfbouwer, en we zien dat het marktaandeel van AMD tot en met 2016 naar een dieptepunt zakt. Jarenlang is Intel hiermee de standaard geweest.

En toen kwamen ze in 2017 uit het niets met ZEN, en hebben ze concurrentie op de CPU markt nieuw leven ingeblazen. Inmiddels heeft AMD laten zien dat ZEN (1, 2 en 3) een veilige keuze is en binnen iedere generatie CPU's zien we inmiddels dat andere processors nét een betere koop zijn voor een bepaalde prijsklasse, zowel Intel als AMD. Het voordeel hiervan is dat we nu de luxe hebben om heel kritisch naar de workload te kijken, en de chip daarop af te stemmen. Hierdoor gaan fabrikanten op hun beurt weer innoveren door te proberen verschillende markten aan te spreken met hun producten. We zien nu bijvoorbeeld dat Zen-CPU's met name heel geschikt zijn voor workloads die meerdere cores kunnen benutten, en daardoor neemt AMD momenteel de professionele eindgebruikersmarkt over van Intel.
Inderdaad eens dat betekent dus dat behalve tijdens de korte periode dat amd als enige x64 leverde het meer dan 40 jaar Intel is geweest die in zijn eentje de x86 markt continue vernieuwde. Bij tijd en wijle kon amd een korte periode claimen waarin ze het beste product hadden maar de echte innovaties kwamen allemaal uit de Intel hoek.
40 jaar lang?

AMD liep vooruit met de 486's. AMD liep vooruit met de Athlons.

Zelfs Bulldozer is met terugwerkende kracht on par of beter dan wat Intel te bieden had. Dat is met Spectre en Meltdown wel duidelijk geworden, welke shortcuts Intel nam om AMD voor te blijven.

dual core, x64.

Intel is enkel dankzij smerige tactieken sinds de 286/386 marktleider gebleven.
Zelfs Bulldozer is met terugwerkende kracht on par of beter dan wat Intel te bieden had. Dat is met Spectre en Meltdown wel duidelijk geworden, welke shortcuts Intel nam om AMD voor te blijven.
Dit vind ik een interessante gedachte inderdaad, in mijn post had ik met name op de ruwe performance cijfers gefocusd, maar de kwaliteit van een product zit natuurlijk ook in veiligheid.

In hoeverre die exploits toe te schrijven zijn aan shortcuts, nalatenschap of aan pech laat ik liever aan een expert over, maar aangezien die pas jaren later naar buiten zijn gekomen hebben ze geen invloed gehad op het marktaandeel van Intel en de "waargenomen" kwaliteit van hun producten toentertijd.

AMD heeft in de jaren inderdaad een aantal hele mooie toevoegingen aan de CPU-wereld gebracht. Naast dual-core en x64 lijkt het er nu op dat het chiplet-design als de eerstvolgende grote innovatie de geschiedenisboeken ingaat als methode om nog meer uit de x86-x64-tube te persen.
Experts zullen er beter in zijn, maar ik heb sterk het vermoeden dat Intel willens en wetens bepaalde keuzes heeft gemaakt waar een risico aan zit, die AMD niet gemaakt heeft. Maar goed ARM had praktisch dezelfde problemen.

Met Bulldozer richtte ik me voornamelijk ook op ruwe performance. Ik had een paar benchmarks gezien dat met de security patches op Intel (en betere multicore support in applicaties/games), de Bulldozer chips (dus jaren later) ineens gelijke of zelfs hogere framerates wisten te behalen in games bv. Terwijl ze destijds tot ~20% achterliepen op Intel.

Concurrentie is heel goed geweest, hopelijk gaat Zhaoxin straks ook mee doen in de X86 race. Beter voor iedereen.
Natuurlijk wel Intel had alleen andere plannen voor 64bit namelijk itanium waar ze al in 1994 mee begonnen. En toen dat niet werkte heeft AmD zijn kans geroken en de x64 extensies ontwikkeld voor x86-32 .

En nog steeds is de enige reden dat amd die 64 bit versie van x86 kon ontwikkelen omdat Intel gedwongen werd in het kader van second source om x86 licenties aan amd te geven.

Even tussen 2 haakjes ik vind dit ook een goede zaak want anders was Intel waarschijnlijk veel meer monopolist geworden, maar laten we niet doen alsof AMD de grote innovator is in deze die rol lag en ligt nog steeds veel meer bij Intel .
AMD is due to launch the first dual-core PC versions of its 64-bit Opteron server processor on 21 April 2005, ahead of rival releases from Intel.
Amd is op veel vlakken voorloper geweest op intel.
Met pak minder rd budget intel sprong er natuurlijk altijd achteraan.
Pas waneer Amd met ryzen processors kwam dat intel eindelijk ook terug stapje vooruit deed.
Intel is quasi altijd al de grootste geweest sinds de 8080 en de daaropvolgende 8086 waarmee 16-bit cpu's en de roemruchte x86 instructieset hun opmarks maakten. Pas in de jaren 90 zijn southbridges met een videochip ernaast (de oorspronkelijke igpu ofte IGC) een ding geworden, toen die voornamelijk door andere leveranciers gemaakt werden zoals SIS en SGI.

hier een leuk stukje geschiedenis van de integrated graphics
Ook handig voor debugging als je problemen hebt met de grafische kaart.
Heb je nog steeds beeld om je debugging mee te doen
Lijkt mij niet dat er in de ryzen 7000 series een igpu zit die gelijkwaardig is als een mobile 3060.
Ze gaan denk ik echt niet in elke ryzen 7000 cpu een grote igpu stoppen, of je bedoeld de aankomende APU's op het am5 socket, dat lijkt mij aannemelijker.

Tomshardware spreekt over 4 compute units voor de igpu in de ryzen 7000 serie, met een maximale performance van 0.5 TFLOPs, de huidige Ryzen 6600HS ( APU) heeft 1.5 TFLOPs performance.

https://www.tomshardware....000-zen-4-cpus-rdna2-igpu

[Reactie gewijzigd door Vlizzjeffrey op 25 juli 2024 03:05]

Vier keer een halve teraflop lijkt mij anders ook 2 teraflops in totaal? :) Of ik volg jou even niet. ;)
Sorry, misschien niet duidelijk genoeg aangegeven, die 0.5 TFLOP's is voor de 4 compute units samen.
je verwijst naar een artikel uit februari toen er nog weinig bekend was over de nieuwe chips. Vergeet vooral deze zin niet uit dat artikel; "Komachi's next post in his thread states that he is merely guessing, so take this with more than a little bit of salt."

Inmiddels weten we meer: elke 7000-processor krijgt een igpu zoals je deze week al hebt kunnen lezen op tweakers.
De iGPU kan je bijvoorbeeld gebruiken voor het encoden van de video voor streaming. :)
of AMD link naar je krachtiger PC die twee verdieping hoger staat. :)
Voordeel van het hebben van een iGPU is omdat je een soort van backup GPU hebt.
Als er problemen zijn met je PCIE videokaart en die kan je mogelijk fixen vanuit windows, door bijvoorbeeld drivers of bios, dan kan je dus met je iGPU je PC gewoon gebruiken.
Anders moet je gelijk een andere videokaart in je systeem steken, die je dan ook maar net moet hebben liggen en de ruimte in de kast hebt.

En voor sommige use cases heb je geen GPU nodig. Als je bijvoorbeeld een dedicated PC hebt alleen voor CPU rendering. Dan kan het dus wel handig zijn. Of in een extreem kleine behuizing.

[Reactie gewijzigd door Modderhoop op 25 juli 2024 03:05]

Voor een databaseserver scheelt het weer een pcie slot waar je ssds in kan doen ;-)
krijgen allemaal een igpu
Wat heeft dat precies als toegevoegde waarde in de marketing 'world's most advanced gaming processors'?
Ze geven zelf aan dat dit vooral belangrijk is voor de zakelijke markt, waar in veel systemen een redelijk snelle CPU gewenst is, maar een snelle GPU niet nodig is.

Voor gamers geven ze aan dat het voordeel vooral bestaat uit het makkelijker kunnen oplossen van hardwareproblemen en het nog kunnen gebruiken van je systeem als de videokaart stuk gaat.
Ik ben nu opzoek naar een eenvoudige pc voor bij de tv. Een oudere ryzen valt nu meteen af want geen igp tenzij een g versie en die zijn belachelijk duur. Die igp heeft imho weldegelijk behoorlijke meerwaarde.
Toegevoegde waarde is kunnen starten zonder een GPU en dus is diagnostiek beter.
Daarnaast heeft het zeker ook toegevoegde waarde als accelerator. Die dingen kunnen vrijwel zeker zonder enig probleem AV1 decodering. Dat is weer lekker voor gamers die een filmpje op zetten tijdens hun relax games. Accelerators voorkomen dat de CPU het moet doen.
Ik heb gelezen dat de igpu van de Ryzen 7000's maar 4 CU's hebben(!)
Welliswaar RDNA2, maar heel veel minder dan een RX 6400 want die heeft er 12(!)
Dus als je wilt weten hoe dat speelt? Stop dus een RX 6400 in je PC en bedenk dat je dan heel veel meer kunt dan met een igpu van een Ryzen 7000!
Maar daar is die GPU ook helemaal niet voor. Die is voor mensen die 3D Rendering op de CPU doen of andere compute taken die dan vervolgens geen dGPU hoeven te kopen omdat er al een in zit. En nu moet je wel als je meer dan 8 cores wilt hebben.
Of bv zakelijke PC's daar heb je ook geen snelle GPU nodig dus zonde om daar dan een APU in te zetten met een hele grote GPU die nooit benut gaat worden.
Intel heeft ook op alle chips (behalve uitzonderingsmodellen die in lage volumes verkocht worden) een GPU.

Dit zijn echt minieme GPUs, veel kleiner dan AMD tot nu toe in hun APUs stopte (ze zitten op de IO-die en nemen echt heel weinig oppervlak in). Ik weet niet waar jij het idee haalt dat het een 3060 wordt maar dat is totaal niet het geval, deze igpus zijn bedoeld voor de desktop, niet gamen, zelfs niet op low.

Zelf vind ik het extreme handig: als zelfbouwer kan je nu makkelijker een probleem diagnosticeren (als je zwart beeld krijgt kan je even de igpu proberen om te zien of de gpu het probleem is), en als je enkel cpu power wilt kan dat nu bij amd zonder je blauw te betalen aan een losse gpu.
Er bestaan ook mensen die processor kracht nodig hebben maar geen grafische kracht, dus dan heb je genoeg aan een igpu.
IGPU ook altijd handig als je een systeempje zelf samenstelt. Hoe brak deze ook is. Ik heb wat moeten puzzelen met mijn AMD 5800X om deze aan de praat te krijgen op een moederbord dat ik nog moest flashen om deze werkende te krijgen (Is het mobo, is het processor, is het videokaart, ......)

Het moet geen gaming videokaart zijn, maar een basisvideokaart is voldoende.
Dat is ook puur marketing natuurlijk.
''Gaming'' verkoopt lekker onder de mensen met minder verstand van computers. Uiteindelijk maakt het natuurlijk geen zak uit wat je er mee doet. een CPU is een CPU.

Een iGPU hebben is altijd handig. Dat was naar mijn mening ook wel een groot minpunt van de CPUs van AMD. Een overgroot deel had geen iGPU.
Misschien stom argument maar een ingebouwde GPU maakt het voor mij een stuk makkelijker een nieuwe pc te bouwen.
De eerste keer opstarten is altijd spannend en dan een werkende HDMI hebben, zonder gelijk de veeltedure videokaart te plaatsen, is wel zo prettig.
En vergeet niet hoe moeilijk het kort geleden wa som überhaupt een GPU te kopen. Mensen vergeten extreeem snel.
Plus altijd handig mocht GPU defect raken, tijdens reparatietijd op iGPU is toch PC nog voor veel anders kunnen gebruiken...
Ik had heel graag een igpu op mijn 3600 gehad toen mijn 1080ti de geest gaf. Voortaan niet meer zonder.

Al is het puur voor diagnose, toch erg fijn om te hebben.
Ik game tegenwoordig via paperspace, en voor de rest van de dingen die ik doe, is igpu prima
Want jij denk dat, omdat AMDs marketing het zo noemt, niemand die serieus ermee wil werken deze CPU koopt?

Ik zou niet weten waarom het beter zou zijn als AMD 100 verschillende producten op de markt moet brengen om ze allemaal een eigen niche te kunnen noemen.

De beste voor video
De beste voor gaming
De beste voor CAD
De beste voor Excel en ga zo maar door.

Voor iedereen wordt het daardoor duurder en inhoudelijk aan de CPU verandert niets natuurlijk.

Ik weet nog van een autoreclame dat je op 1 tank diesel 1200KM naar Nice kon rijden. Dat was ook marketing, het maakte die fabrikant en d ekoper echt niets uit dat je e rook 1200KM mee naar Geneve kon rijden of alleen in Nederland bleef. Kom op zeg.
Ach marketing, dat moet je naast je neerleggen is onbelangrijk. Ik kijk en let nooit op marketing.
Ook voor gamers hebben iGPUs meerwaarde. Het zorgt ervoor dat je primaire GPU echt alleen met je game bezig is terwijl je op een tweede scherm een browser open hebt bijvoorbeeld. nVidia GPUs gaan erg slecht om met tweede schermen waardoor je allemaal framedrops krijgt (baggere drivers helaas). Ik was eigenlijk niet van plan AM5 early adopter te worden maar nu de iGPU bij AMD niet meer gepaard gaat met flinke prestatieverliezen laat ik het bezopen zooitje dat alder lake heet links liggen en ga ik gewoon AM5 halen eind van het jaar.
De 7000 desktop cpu krijgen igpu die in de IO-DIE zit en daar is maar 1 versie van. Maar die is zo minimalistisch dat ze die SKU als CPU marketen en niet onder APU.
APU krijgen een krachtige igpu
Zoals ik lees worden ze weggezet als gelijkwaardig aan de mobile 3060's, met het voordeel dat ze op mogelijk 15watt (60 over 45) lagere tdp zouden draaien
Dat heb je fout, deze IGP zijn geen APU's (AMD's woorden) wat inhoud dat deze IGP puur is voor het uitpoepen van max 4 beelden. de APU's waar jij mee in de war bent zullen game prestaties kunnen leveren
Jammer dat ze meegaan in hogere wattages. Wat dat betreft is Apple met z'n M1 toch wel beter bezig. Maar goed, hopelijk niet alleen maar verbeteringen die meer stroom vragen maar ook echte IPC verbeteringen. Zoals t er nu uitziet sla ik de komende generatie nog maar even over.
De M1 is alleen niet vergelijkbaar, die gebruikt een andere architectuur (ARM) dan de Ryzen (of Intel) CPU's doen (x86-64). Vergelijk het met motoren voor auto's, de een rijd benzine, de andere diesel.

[Reactie gewijzigd door CH4OS op 25 juli 2024 03:05]

Tja, AMD of Intel zou ook kunnen inzetten op Arm processors, met net zo'n goede emulatielaag er bij. Softwarebouwers gaan wel mee als ze dit groot genoeg krijgen. Of ze kunnen hun processoren meer optimaliseren voor laag verbruik.
Maar het is niet alleen het verschil tussen Arm en x64. Ook de GPU van de M1 is heel erg zuinig vergeleken met die van AMD of Nvidia.
Arm of X86 heeft niets vandoen met de efficientie van de core: intern werkt een x86 tegenwoordig ook eerder als een risc cpu met een vertaler ervoor om x86 om te zetten in micro-ops. Die vertaler beslaat een heel klein stukje van de chip. Dat doen ARM cores tegenwoordig ook voor een aantal instructies die eigenlijk te 'high level' zijn om direct op de ALU uit te voeren. Het verschil tussen M1 en Intel/AMD is dat Apple geen WIndows hoeft te ondersteunen (dat scheelt al een hoop overhead en inefficientie), geheugen op de CPU plakt (goed voor de latency) en met zijn power-profiel in een andere hoek van het speelveld zit: een 95w/105w Intel/AMD cpu maakt gehakt van die ARM voor de meeste taken, maar ja, er is geen 95w Apple M1 (en geen 14W 5950x). Dus appels met peren vergelijken. Voor onderweg heb ik niet zoveel rekenkracht nodig dus zou ik met een M1 uit de voeten kunnen. Voor het betere rekenwerk heeft een M1 schromelijk te weinig geheugen (zit met smart te wachten op 64Gb DDR5 modules om eindelijk over die 128Gb grens te gaan. Apple houd op bij 32Gb (of was het al 64Gb).
Nou M1 ultra 2x8c / 2x2c firestrom/icestrom cores.
Met een Zen4 16core vergelijkbaar
Beide op 5nm TSMC
125 tdp vs 170?
3.2ghz. Vs 5,5ghz
On soc fixed ram 400gb/s unified 64gb of 128gb dit is ook degelijk grote invloed op performance.

Waarbij m1 max 8+2 core in macbook pro 16” ook al throtled en dus ook niet meer hoogstaand ultra mobiel al niet meer is en m1-ultra al helemaal niet.

Een M1 is zeer mobiel maar dat is een 4/4 fire-/ice-storm vergelijkbaar met een 6core AMD mobile apu zodra die met 5nm beschikbaar komen.

Ik hoop dat apple silcon ook in review meegenomen wordt.
Macstudio vs intel AL en AMD Zen4

Ik heb mac mini x86 en TR zen1 systeem beide oudjes ondertussen.
En wanneer je naar workloads kijkt dan zie je dat er ook weer vele workloads zijn waarbij Apple met de M1 gewoon niet meekan met de concurentie. Je moet dus keuzes maken. En ik denk dat Intel recent al aangetoond heeft net hun 12de generatie dat zuinig zijn wel degelijk mogelijk is op x86 door ook daar het big.little principe te gaan toepassen.

En je wil vooral keuze. Je wil niet dat elke CPU zich focust op of performantie of zuinigheid. Niet iedereen wil hetzelfde.
Een m1 is 4+4 dus AL 4+4 of daar dichste in de buurt komt zal ook wel redelijk mobiel zijn. M1pro 6+2 of 8+2 wordt het al wat lastiger voor AL maar mischien niet voor Zen4 met 8core.
Even heel simpel gezegd, wat maakt de architectuur uit? Als het werkt en sneller is dan is dan is dat toch waarom het gaat?
Even heel simpel gezegd, veel. Uiteindelijk wordt alle programmeercode omgezet in machine code. En bij die architectuur hoort ook een instructieset. ARM is geen x86 net zoals Frans geen Engels is.
Daarom typte ik ook: 'als het werkt'. Of er nou een emulatie laag tussen zit of wat voor magie, als het sneller en zuiniger is (wellicht nog meer zoals goedkoper) dan is het alsnog beter.

Je kan werken met collega's die Engels spreken, misschien wel handiger maar stel dat je met een fransman moet samenwerken en alle opdrachten door een vertaalprogramma moet gooien. Dan kan die fransman nog steeds sneller/beter zijn.
Maar de architectuur is niet inherent zuinig of onzuinig.
Maar legacy heeft er grote invloed op.
Intel oorsprong server desktop en van daaruit laptop. Zo ook AMD desktop server laptop.
ARM legacy is oorsprong in embeded iot ultralowpower smartwatches mobieltjes.
En apple silicon breid dat al uit naar laptops en nu met Mac studio naar desktop met ook HEDT tegen hanger. M1-Ultra.

Waar intel ecore van stal haald Atom
En zen een dense core komt.
Heeft apple silicon dat al en ook performance cores. Ipv 2 firestrom in A14
4 in m1. 6 of 8 in pro en 8 in max en 16 in ultra.
En niet vergeten zen4 is de 1st x86 op vergelijkbare 5nm tsmc.
AL heeft intel7 handicap.
En m1max en ultra 200gb/s of 400gb/s voordeel.
De architectuur maakt niet veel uit, maar de workload die je erop doet wel, ARM is immers vooral voor mobile devices waar zuinigheid meer prio heeft dan in een desktop processor. Ik vatte dat wat te kort door de bocht door het op architectuur te gooien. ;)

[Reactie gewijzigd door CH4OS op 25 juli 2024 03:05]

Hoezo meer voor mobiele apparaten? Qua performance doen ze het prima in Macs. Dat zijn lang niet alleen Macbooks
Alleen is m1-max in macbook niet meer van ultra mobiele, die throthled ook al. Dikke macbookpro 16”
En m1 ultra wat 125 tdp heeft ook verre van mobiel.
Een bakbeest tov intel nuc.
Anoniem: 58485 @- peter -27 mei 2022 17:29
Tot op heden is alleen het top model 16 core 32 thread dat dat vermogen gebruikt. En intel verbruikt zelfs nog meer (244W). Je kunt het gewoon instellen met een handmatige PPT als energie zo'n probleem is.
Is niet jammer, wellicht gaan ze op het AM5 socket later nog wel tot 32 cores, dan heb je die extra wattage wel nodig om daar op voorbereid te zijn.

Zie het als een draagbalk die minimaal 1000kg belasting aan moet kunnen, dan ga je ook geen balk die maximaal 1050kg aan kan gebruiken, maar neem je er bijvoorbeeld één die maximaal 2000kg aan kan, mocht je in de toekomst nog wat zwaardere spullen kwijt moeten op de constructie.
Bij Apple verkopen ze dan een draagbalk van 950kg en wil je 1000kg moet je die van 2000kg kopen die 5 keer zo duur is.... 8)7
Verbruik zegt weinig, prestaties zijn belangrijker.

Als bijvoorbeeld het verbruik 20% stijgt maar de prestaties stijgen 60%, is dat dus belangrijker.
Dat moet je hier echt erin rammen, dit is echt de zoveelste discussie over dit onderwerp.
Inderdaad....blijft blijkbaar moeilijk ;) |:(
Verbruik zegt mij juist heel veel. Verbruik = onderdeel van de prijs. Daarnaast is verbruik ook warmte. nou kan je zeggen handig in de winter maar elektrische verwarming is inefficiënt in vergelijking mer gas (qua kosten) en in de zomer moet je dat weer kielen. Het was hier vorige week alweer 26 graden met 400 watts van de pc en het is nog niets eens zomer.

Dus als een pc met gelijke prestaties gemiddeld over mijn gebruik 75 watt per uur meer gebruikt over 6 uur per dag kom je over de gemiddeld 4 jaar dat ik er mee doe op 650 kwh uit. Met de huidige prijzen betekend dat 300 euro en met oude prijzen 135 euro. dat betekend dat als een ander platform 135 duurder is maar zuiniger dat een meer ideale keuze is doordat je geen airco nodig heb en efficiënter kan verwarmen met een cv waardoor je geld bespaard en je build dus goedkoper is.

Verbruik moet dus gewoon meegenomen worden. Verbruik is alleen irrelevant voor kids die nog niet zelf de rekening betalen. Wat je aangeeft isd ook wel een punt prestatie per watt. maar daarvoor kan je simpelweg eerst terugrekenen naar prestatie per watt en dan extra verbruik berekenen. Al is jou ervaring zo extreem dat dat nooit zo zal zijn. Prestatie verschillen zullen altijd wel onder de 20% zijn ()binnen zelfde segment) maar power draw kan hoger zijn.
Punt is juist dat de percentages net andersom liggen. Veel meer verbruik voor lage prestatietoename.
Heb je een link naar de benchmarks/reviews?
Het is neit helemaal vergelijkbaar want dit is in het geval wanneer de CPU qua kloksnelheid tot het absoluut uiterste gepushed wordt. Die laatste paar % laten het verbruik enorm stijgen. Doe je dan niet dan blijft het verbruik veel lager.
Jep ik vind dit soort producten dan ook uiterst onwenselijk. Mijn 6900XT gebruikt standaard 300 watt maar als ik de clocks limiteer naar 2250 Mhz en undervolt naar 1130mv gebruikt hij ineens nog maar 185 watt met minder als 5% lagere prestaties. Dus meer als 50% meer power draw voor 5% prestaties... Echt bizar.
Dat geld voor alle moderne cpi's en gpu's. Je hebt er zelf de controle over gelukkig.
True maar ergens is het absurd dat je moet underclocken en undervolten om een beetje een fatsoenlijke sweet spot te krijgen.
Dat ben ik met je eens, maar iedere fabrikant wil verkopen en zorgt dus dat hun product goed presteerd, (als het even kan net iets beter dan de concurrent) het interesseert ze weinig wat het verbruik is.
Ligt er aan hoe de lineup er uit ziet. Voor een top HALO product heb ik er geen problemen mee. Zolang er maar voldoende andere modellen zijn die in de 65-105 en 125 watt segmenten vallen. En daarvan heeft AMD ook aangegeven dat die blijven bestaan.
Het is ook nog niet gezegd dat de 7950X met 16 cores ook die volle 230watt gaan verbruiken. Kan nog steeds zijn dat dat een 125watt TDP chip is die 170 watt verbruikt. En dat ze die 230 watt als max voor het platform aangeven voor future products bv een 24 Core versie met een Zen4 CCD met 8 cores en een Zen4c CCD met 16 cores.

We gaan het in ieder geval wel zien.
De socket is niet meteen de CPU.
Het kan zijn dat dit voor future proofing is. Maar het is wel iets om in de gaten te houden. Zodra ze beginnen te klieren met hun TDP berekening weet je dat het berg afwaarts gaat.
Bijstoken met een elektrisch kacheltje in de wintermaanden hoeft niet meer :+
Daar heb je nu toch al de Intel cpu's voor, of de 3090ti gpu's :)
Zelfs met een 3700x voelt het nog niet alsof ik aan een upgrade toe ben. Maar ik ben benieuwd naar de specs van de nieuwe CPU's en de benchmarks.
Ik heb nog een i5 6600k. Werkt ook nog altijd prima. Zit wel een upgrade te overwegen maar dan staat een videokaart hoger op mijn lijst (nu nog een R9 380, die houdt het nu niet meer goed bij).

Blijft zonde eigenlijk, die CPU is nog helemaal tip top maar ja als je naar Windows 11 wilt is hij officieel niet meer ondersteund. Dus ik blijf in elk geval nog even op Windows 10. In elk geval tot de deze generatie CPU's uitkomt, DDR5 normaal geprijsd wordt. Die videokaart komt misschien wat eerder als de prijzen een beetje normaal zijn geworden.
Ja het ligt er natuurlijk aan wat je ermee doet en wilt doen. Voor gamen is m'n 3700x nog perfect, geen bottleneck, voor fotobewerken heb ik niet meer nodig dan dit, alle bewerkingen zijn direct zichtbaar en hetzelfde voor videobewerken waar de gpu meer nodig is dan de cpu.
Ik draai al sinds de eerste beta op W11 met een 6600K, gewoon in het bios tpm opgezet en gaan. Zo stabiel als een huis. Om te gamen maakt de cpu toch ook wel verschil als ik sommige youtube filmpjes mag geloven. Maar zit ook nog steeds te twijfelen over upgrades, eigenlijk draait alles nog op 1440p/60fps icm een GTX1070.

[Reactie gewijzigd door StGermain op 25 juli 2024 03:05]

Helemaal mee eens,Kan alles nog spelen op mijn 3600x met een 1070Ti. Waarom zou je in deze tijden hardware upgraden? MIsschien word't eens tijd voor een goed alternatief voor Windows. Elke 3 maanden na een installatie krijg ik terug komende bugs en glitches, performance wordt minder.
Zou het aardig zijn dat er net als bij apple MacBooks de interne grafische processor met een grafische kaart samen gebruikt kunnen worden? Zou dat middels de grafische driver ontsloten kunnen worden?
Leuk allemaal maar TDP, PPT het is allemaal niets waard als waarde. een 5950x heeft dus een ppt van 142 maar kan tegen de 200 watt trekken dus wat hebben we aan deze waardes? Niets.

Daarnaast zijn deze waardes niet eens hgarde limieten. Met een oevrclock kan je bijvoorbeeld een 5950x al naar 350 watt pushen. Waarom hebben we het dan over een socket power?

Uiteindelijk gaat het gewoon om de gaming power draw, max power draw en idle power draw en zijn TDP en PPT nietszeggende waardes en ruis specs die de consumenten verwarren.

[Reactie gewijzigd door computerjunky op 25 juli 2024 03:05]

Tja dalijk moet je voor een pc een generator hebben, die dingen slurpen meer stroom dan een heel huis houden
Ik dacht altijd dat TDP stond voor Thermal Design Power, en niet voor Thermal Dissipation Power?

Op dit item kan niet meer gereageerd worden.