AMD demonstreert Ryzen 7000-processor met Zen 4-cores die boost tot 5,5GHz

AMD heeft een Ryzen 7000-processor gedemonstreerd en details bekendgemaakt over de verbeteringen in de Zen 4-core. Volgens de chipontwerper liggen de multithreaded prestaties tot 31 procent hoger dan die van een Core i9-12900K. Alle Ryzen 7000-cpu's krijgen een igpu.

Het verbeteren van de prestaties en de prestaties per watt waren de belangrijkste doelen bij het ontwerp van de Zen 4-core, meldt AMD-ceo Lisa Su tijdens de Computex. De singlethreaded prestaties zouden ruim vijftien procent hoger uitvallen dan bij Zen 3, door een combinatie van een hogere ipc en hogere kloksnelheden.

De microarchitectuur zelf is onder meer verbeterd door de L2-cache per core te verdubbelen van 512kB naar 1MB, een aspect waaraan ook Intel sleutelde bij zijn Alder Lake-processors. De 'snelle core' van die chips, Golden Cove, heeft 1,25MB L2-cache per core. Tegelijk zou de turbokloksnelheid van de Ryzen 7000-processors voor desktops de 5GHz 'significant' moeten overschrijden; tijdens een demo in de game Ghostwire: Tokyo tikte een Zen 4-core de 5,5GHz aan.

Net als bij de Ryzen 5000-processors zullen de desktopvarianten bestaan uit diverse chiplets. De chiplets met cpu-cores worden geproduceerd op TSMC's 5nm-procedé en bevatten naar alle waarschijnlijkheid acht Zen 4-cores per stuk, wat betekent dat de Ryzen 7000-cpu's opnieuw maximaal zestien cores krijgen.

De i/o-die is ook vernieuwd en wordt geproduceerd op de iets minder efficiënte 6nm-node, al is de stap ten opzichte van de 12nm-i/o-die's in de Ryzen 5000-serie nog altijd groot. De grootste toevoeging ten opzichte van de vorige generatie Ryzen-processors, is een gpu-gedeelte op basis van de RDNA2-architectuur. Daarmee zal iedere Ryzen 7000-cpu een geïntegreerde gpu aan boord hebben, net zoals bij Intel gebruikelijk is. De igpu kan maximaal vier monitoren aansturen. Verder is de nieuwe i/o-die zuiniger en voorzien van DDR5- en PCIe 5.0-controllers.

AMD Ryzen 7000 en Zen 4

Met de Ryzen 7000-serie stapt AMD na vijf jaar over op een nieuwe socket, namelijk socket AM5. Die kan processors met een tdp van maximaal 170W huisvesten, en hoewel AMD dat niet met zoveel woorden zei, lijken in elk geval de topmodellen dus flink meer stroom te gaan verbruiken dan de huidige generatie. Ter vergelijking: de Ryzen 9 5950X heeft nog een tdp van 105W.

Bij een gelijkblijvend aantal cores maakt dat de weg vrij voor hogere all-coreboostkloksnelheden. Een Blender-demonstratie van een 16-core Ryzen 7000-cpu die AMD gaf, lijkt dat te bevestigen. Daarin was de nieuwe chip 31 procent sneller dan een Intel Core i9-12900K. Die Intel-chip is in de recentste test van Tweakers ongeveer even snel als de Ryzen 9 5950X.

Ook over het bijbehorende nieuwe platform deelde het Amerikaanse bedrijf tijdens zijn Computex-keynote de nodige details. Exacte specificaties en productnamen van Ryzen 7000-processors heeft AMD nog niet bekendgemaakt. Dergelijke informatie volgt in aanloop naar de release, die in de herfst zal plaatsvinden.

Door Tomas Hochstenbach

Redacteur

23-05-2022 • 08:30

122 Linkedin

Reacties (122)

Wijzig sortering
Die kan processors met een tdp van maximaal 170W huisvesten
Spreken we dan over het TDP op de base clocks, of het absolute maximum inclusief turbo?

De 12900K bij de concurrentie heeft bijvoorbeeld een TDP van 125W bij base clocks, maar doet bijna dubbel dat wanneer de boost voluit gaat. De 5950X doet max 105W bij base clocks, maar komt (mede door limitaties van AM4) niet boven de 140W uit inclusief boost.

Beide partijen houden, of in ieder geval hielden, er andere definities van TDP op aan wat weer extra onduidelijkheid schept.

[Reactie gewijzigd door D4NG3R op 23 mei 2022 08:51]

Ian Cutress heeft aan AMD gevraagd of het hier om TDP gaat zoals bij AM4 of dat het vergelijkbaar was met PPT (welke voor 105watt TDP CPU's 142 watt is mits de koeling en het bord dat aan kunnen).
Daar op kwam het antwoord dat die 170 watt PPT is. Nu hij ook weer 170 watt TDP op de slides zag staan vond hij dat wel raar en gaat het dubbel checken.
Maar het zou kunnen dat AMD TDP en PPT deze generatie gelijk trekt.

Moet ook haast wel want als het 170 watt TDP zou zijn en dus een 230 watt PPT zou de performance per watt ronduit slecht zijn voor een 5nm chip. met 170w PPT is het nog wel een mooie stap vooruit tov de huidige chips en die van de concurrentie met 230 watt echt niet.
Ik zie op de slide geen "TDP" staan maar alleen "170 W". Ik vind het zeer aannemelijk dat het om het maximaal ondersteunde vermogen gaat dat door de pinnetjes van het socket kan gaan. De TDP zal dus navenant lager liggen.

Hieronder noemde @Dennism ook "de 1,35 factor" van TDP vs max verbruik wat nu bij AM4 geldt. Als we die op de 170 W max toepassen kom je op 125W uit, wat mij een heel redelijke TDP lijkt voor een high-end CPU met IGP.
Dat gaat dus de vraag zijn, de slide is inderdaad niet 100% duidelijk, echter communiceert AMD normaliter alleen TDP waardes in marketing materiaal, de PPT waardes communiceren ze normaliter niet in marketing slides en zelfs niet in consumer facing technische data. Eigenlijk is die waarde voor de meeste consumenten heel goed verborgen tenzij je zelf op onderzoek uit gaat.

Wat dat betreft is het dus voor de hand liggend dat AMD hier wel het TDP bedoeld, al dan niet met een foute waarde, waar ze een lagere waarde hadden moeten publiceren, maar per ongeluk de PPT waarde vermeld hebben. Hopelijk komt AMD hier nog op terug de komende dagen, daar dit nu wel een 'heet' discussie punt aan het worden is, ook o.a. op Reddit en andere forums, waardoor het AMD er denk ik best aan gelegen is duidelijkheid te verschaffen.
Hardware Unboxed gaf aan dat het de absolute max is van de toekomstige processors.
Dat zou betekenen dat AMD breekt met hun standaard instellingen dat hun CPU's in multithread workloads 1,35x TDP mogen verbruiken (de zogenoemde PPT waarde). Hardware Unboxed geeft dit ook niet aan, tenzij er nog een ander filmpje is dan deze https://youtu.be/emkySX3hqBE?t=528, Hardware Unboxed geeft juist, terecht aan, dat TDP's normaal gesproken een slechte reflectie zijn van het verwerkelijke verbruik.

Immers bij gaming zit het verbruik normaliter ver onder de TDP waarde, terwijl bij multithread het verbruik normaliter vaak hoger is dat de opgegeven TDP waarde.
... Hardware Unboxed geeft juist, terecht aan, dat TDP's normaal gesproken een slechte reflectie zijn van het verwerkelijke verbruik.
...
En daarom is er sturing van de markt nodig (dit is het zoveelste voorbeeld). Uiteindelijk is TDP een getal. Dat getal zou de eindgebruiker moeten helpen. Baseer je de TDP op de absolute max wat een processor kan leveren, dan is dat handig: dat helpt de eindgebruiker een keuze te maken voor de juiste koeler, zonder met een systeem te zitten wat veel throttlet.

Een lagere TDP lijkt op papier gunstig: de processor impliceert minder stroom te verbruiken en er is een minder zware (goedkopere) chipkoeler nodig. Dus fabrikanten hebben baat bij reclameren van een lage TDP. Maar welk belang weegt nu hoger? Die van de consument (juiste chipkoeler) of die van de fabrikant (onrealistische voorstelling van de prestaties, om zodoende verkopen te stimuleren)?

Wat mij betreft is het ook prima om over een TDPm en TDPa (TDP max en TDP average) te spreken, maar aangezien de industrie daar de moeite niet in heeft gestoken, is het weer eens pijnlijk duidelijk waar de prioriteiten liggen. :Y)
AMD heeft zichzelf als doel gesteld energie zuiniger te worden op CPU gebied. TDP’s zullen de komende jaren mogelijk gelijk blijven met toenemende prestaties tov eerdere generaties. AMD laat die ambitie goed zien met de Zen 4 architectuur imho.

https://www.theregister.com/2022/05/04/amd_power_goal/

“In an update released Tuesday, CTO Mark Papermaster claimed the processor designer has already achieved a 6.79x efficiency gain in the eight months since the 30x25 initiative was announced.”

[Reactie gewijzigd door Ibidem op 23 mei 2022 13:27]

TDP’s zullen de komende jaren mogelijk gelijk blijven met toenemende prestaties tov eerdere generaties. AMD laat die ambitie goed zien met de Zen 4 architectuur imho.
Dat is nu juist net niet zo, AMD had altijd TDP's tot 105W in de consumenten markt en daar komen nu TDP's tot 170W bij. Tussen Zen 3 en Zen 4 gaat het maximale TDP dus met 62% omhoog.
Nou dat is met dank aan iNtel die de grens omhoog geduwd heeft tot 241Watt.
En dan is 170W stuk zuiniger.
Dat doet concurrentie.
Met bulldozer was intel 4core van 45nm tot 32nm 28nm 22nm tot 14nm zat ja die laatste gen is zuinig.
Maar ja met 16core concurrentie moet mee gaan.
En AMD gaat dus mee en heeft de luxe van efficientie dus hoeft niet voorbij de 200wat te gaan om in de buurt van intel te komen.
En AMD gaat dus mee en heeft de luxe van efficientie dus hoeft niet voorbij de 200wat te gaan om in de buurt van intel te komen.
Daar zou ik mijn hand nog niet voor in het vuur steken, vergeet immers niet dat bij AMD niet TDP, maar PPT het maximale stroomverbruik bepaald op stock bepaald (dus zonder PBO aan, met PBO gaat deze limiet het raam uit en mogen nog meer verbruiken). En bij AMD is voor de high end Sku's PPT altijd TDP x 1,35 (voor een 105W Sku als de 5800X, 5800X3D, 5900X en 5950X is dat dus 142W).

Als AMD diezelfde regel hier ook weer toepast, net als bij de voorgaande Ryzen 3000 en 5000 generaties, komt het PPT voor de 170W Sku's op 230W en dan zit AMD ineens heel dicht bij Intels 241W PL2 waarde. Hopelijk gaat AMD niet die kant op, maar zoals gezegd, ik ga mijn hand er, tot officiële berichtgeving van AMD dat ze dat inderdaad niet doen, niet voor in het vuur steken.

[Reactie gewijzigd door Dennism op 23 mei 2022 20:25]

“In an update released Tuesday, CTO Mark Papermaster claimed the processor designer has already achieved a 6.79x efficiency gain in the eight months since the 30x25 initiative was announced.”
Zelfs als de "x" in 6,79x een "%" was geweest, dan zou ik nog enigszins twijfelen.

Zonder er allerlei zaken bij te halen, denk ik dat je dit prima kan toetsen. Je kan namelijk vaststellen wat een gemiddeld verbruik van een (desktop)processor is. Niet (alleen) idle, niet (alleen) full load, maar een mix, afgestemd op hoe gebruikers de processor in de praktijk verbruiken.

Dan zou je dit ook moeten doen met Intel, omdat beiden praktisch de volledige (consumenten)desktopprocessormarkt in handen hebben. Dan zul je komen op dat desktopprocessoren gezamenlijk een X aantal gigawatt/uur verstoken per jaar. Dan kun je nog wat spelen met hoeveel desktopprocessoren er per gezin zijn, wat de meting beïnvloedt, maar stel je kan dat ook nog meenemen. Dan kun je een vrij reële inschatting maken op het totale verbruik wat processoren realiseren in de wereld. Ik verwacht dat er per tien jaar hooguit wat procentpunten gewonnen of verloren gaan worden.

Een meer valide reden om een processor zo zuinig mogelijk te maken, is ruimte vrij maken in je thermische pakket: stel dat een deel van de processor zorgt voor een 20% lagere TDP door het ontwerp, dan zou je een ander deel weer sneller kunnen maken om die 20% op te vullen. Uiteindelijk realiseer je dan een snellere (maar niet zuinigere) processor.

Dus: ja, ik geloof dat zuinigheid een doel is van een processor, maar met de intentie van performance, en niet milieu. Dat is hetzelfde als een BMW 3 serie met een 3 liter turbomotor promoten als zuinig. Relatief gezien ten opzichte van de vorige generatie zal dat kunnen kloppen, i.p.v. 1 op 8 rij je gemiddeld 1 op 9 bijvoorbeeld, waar een 1.4 liter downsize turbo 1 op 14 zou lopen. Plaats dit alsjeblieft in de juiste context, milieu is al een lastig onderwerp waar al enorm veel onzin over rondgaat. En milieu gaat steeds meer over onze toekomst, het lijkt me niet meer het moment milieu te verpakken in marketing ...
Baseer je de TDP op de absolute max wat een processor kan leveren, dan is dat handig: dat helpt de eindgebruiker een keuze te maken voor de juiste koeler, zonder met een systeem te zitten wat veel throttlet.
Sterker nog, als de koeler de absolute max warmte-productie kan afvoeren, dan heb je geen throttling.

Maar dat is dus voor de meeste toepassingen overkill. Omdat een CPU 99% van de tijd minder warmte produceert dan theoretisch denkbaar, kun je een lichtere, goedkopere koeler gebruiken. Als je tijdelijk even wat meer CPU nodig hebt, dan warmt je CPU een beetje op, en als de peak-load over is, dan koel je weer wat af. Throttling is een mechanisme om te zorgen dat je CPU niet té lang boven het vermogen van de cooler blijft werken.

"TDP" (Thermal Design Power) is een advies over een redelijk sizing van koelers, onder aannames van typische loads. Het is een advies, geen zwart/wit feit. Bij sommige Intel laptop CPU's zie je zelfs een "instelbare" TDP - Intel zegt daar expliciet dat er meerdere keuzes redelijk zijn.
Is de hogere TDP is niet voornamelijk een gevolg van het toevoegen de iGPU? AMD kan in principe de extra TDP ruimte gebruiken in cpu's zonder gpu, maar van 105W naar 170W voor een 5950X met interne GPU is helemaal niet gek?
Bij AMD is het PPT een budget dat gebruikt mag worden door de CCD('s) en de I/O die. Het toevoegen van een iGPU zal zeker, wanneer de iGPU gebruikt (en belast) wordt een deel van dat budget opsnoepen. Echter hoeft dit niet in alle gevallen zo te zijn, je kan bijv. een iGPU ook uitschakelen en dan kan dit budget voor andere delen van de chip beschikbaar worden.

Het kan dus zeker zo zijn dat het toevoegen de iGPU een deel van de TDP verhoging kan verklaren, echter verwacht ik niet dat het de volledige verklaring is, immers 65W is wel heel erg voor een iGPU met volgens de geruchten 4 CU's en een zeer lage kloksnelheid.

Ter vergelijking, een Radeon 6400XT met 12 CU's heeft een total board power van 53W, waar niet alleen 12 CU's van gevoed moeten worden, maar ook nog eens het geheugen en alle andere componenten op de kaart.

Dan is 65W voor een iGPU die volgens de geruchten 66% kleiner is, geen eigen geheugen heeft en ook nog eens geen al te hoge clocks zou krijgen niet heel erg waarschijnlijk.

Ik zie het bijvoorbeeld ook als mogelijk dat het PPT (en dus TDP) deels verhoogd wordt omdat AVX512 een optie zou gaan zijn, instructies die normaliter ook wel om wat power vragen wanneer je ze gebruikt.
En een deel zal mogelijk ook opgaan aan de vrij hoge boost frequenties die genoemd worden, zeker in multicore loads kosten die laatste paar megahertz aan all-core boost vaak onevenredig veel verbruik om te realiseren wanneer je ook maar iets buiten de optimale curve gaat.

[Reactie gewijzigd door Dennism op 23 mei 2022 12:51]

Het kan dus zeker zo zijn dat het toevoegen de iGPU een deel van de TDP verhoging kan verklaren, echter verwacht ik niet dat het de volledige verklaring is, immers 65W is wel heel erg voor een iGPU met volgens de geruchten 4 CU's en een zeer lage kloksnelheid.

Ter vergelijking, een Radeon 6400XT met 12 CU's heeft een total board power van 53W, waar niet alleen 12 CU's van gevoed moeten worden, maar ook nog eens het geheugen en alle andere componenten op de kaart.
4 CU's lijkt mij wel mager, zeker omdat de Ryzen 5 6600U er al 6 heeft, de Ryzen 7 6800U heeft er 12, en dat allemaal binnen een 28W TDP. Als ze de TDP voor desktop-cpu's verhogen van 105 naar laat ons zeggen 125W, moet een vergelijkbare igpu daar toch in passen? Ik kan me moeilijk voorstellen dat de CPU (Ryzen 7 6800U) zelf nog geen 8W trekt, en de igpu meer dan 20...
Dat zou betekenen dat AMD breekt met hun standaard instellingen dat hun CPU's in multithread workloads 1,35x TDP mogen verbruiken (de zogenoemde PPT waarde).
een cpu met 125w zou x1,35 toch ongeveer op 170w uitkomen toch ?
Klopt, echter heeft AMD geen cpu's met 125W TDP, het maximum nu is 105W (wat zorgt voor een PPT van 142W), en het nieuw gespecifieerde maximale TDP in de slides is is 170W, wat zou zorgen voor een PPT waarde van 230W als AMD doorgaat op dezelfde voet als nu.

Het kan natuurlijk altijd zijn dat bij de nieuwe cpu's ze PPT gelijkstellen aan het TDP, het kan ook zijn dat de demonstratie cpu geen 170W TDP exemplaar was. Of misschien is er wel een fout gemaakt in de slides (al zou dat wel heel slordig zijn). We weten helaas nog niet alle details en dus kunnen we enkel speculeren op basis van zaken die bij AMD gebruikelijk zijn.
Dat er nog geen cpu's zijn van 125w weet ik idd, maar die werken zowiezo niet op dit am5 platform.

Kan wellicht een indicatie zijn dat er wel 125w cpu's komen voor am5 ? Of idd met 230w max...of beide ?

Blijft idd speculeren :)
Daarmee dat ik ook graag wat vaker prestatie/watt tabellen terug zou zien. Want je mag dan wel een processor hebben die enkele procenten sneller is dan de concurrentie, als je daarvoor dubbel zoveel stroom verstookt, is het niet aangewezen voor het snellere model te gaan (in mijn ogen).
Sterker nog, in de TDP berekening van AMD komt vermogen niet eens voor!

https://www.gamersnexus.n...ler-manufacturer-opinions
In beide gevallen, lekker warm.
inmiddels is dit opgehelderd:
via tomshardware
"AMD would like to issue a correction to the socket power and TDP limits of the upcoming AMD Socket AM5. AMD Socket AM5 supports up to a 170W TDP with a PPT up to 230W. TDP*1.35 is the standard calculation for TDP v. PPT for AMD sockets in the “Zen” era, and the new 170W TDP group is no exception (170*1.35=229.5).

"This new TDP group will enable considerably more compute performance for high core count CPUs in heavy compute workloads, which will sit alongside the 65W and 105W TDP groups that Ryzen is known for today. AMD takes great pride in providing the enthusiast community with transparent and forthright product capabilities, and we want to take this opportunity to apologize for our error and any subsequent confusion we may have caused on this topic." -- AMD Representative to Tom's Hardware (emphasis added)
De iGPU lijkt mij overbodig.
kost het geen geld, en ruimte maar in de praktijk zie je dat de meeste mensen met, teminste een 7 serie, een dedicated gpu hebben?

of mis ik hier iets?
Ik heb een geinig klein systeempje gebouwd rond een 3400G waar nog prima (oudere) games mee te spelen zijn. De prestaties van een iGPU liggen zo rond een budget instapper (GTX*50) terwijl die kaart weer €150 kost en de CPU maar zeer beperkt meer ten opzichte van een non iGPU versie. Dat is de AMD G-serie.

Plus er ook zat mensen zijn die geen games spelen maar wel een filmpje of iets dergelijks willen kunnen kijken, waar nu ondersteuning voor is in elke CPU.
De goedkoopste GPU van een recente generatie zit al boven de 200 euro. Als je PC niet voor gamen gebouwd is is dat gewoon weggegooid geld. 2 RDNA2-cores zijn genoeg voor een beetje browsen en kantoorwerk op meerdere monitors.
Voor een programmeur kan ik het me nog voorstellen.
Die hebben graag extreem snelle CPU's voor het compilen.

Er schiet me niet 1,2,3 een andere use case te binnen waar extreem snelle CPU's praktisch zijn waar je geen GPU bij wil hebben.
Muziekproductie bijvoorbeeld.
Inderdaad, en daarmee kan amd nu ook beter concurreren door de hogere clocksnelheden (boven de 5 Ghz) wat eerst alleen voor Intel was weggelegd.
Zit jij toevallig in die branche? Ik ken maar een beperkt aantal relaties in die branche en bij die relaties doet AMD eigenlijk niet mee. 1 werkt volledig met Apple (M1 en Intel), en de andere 2 zweren ook bij Intel, zelfs in de jaren toen Intel nog matiger presteerde t.o.v. AMD dan nu het geval is.
Zit niet helemaal in die branche maar bouw pc's op bestelling via mijn eigen bedrijfje, zit dus in alle branches ;) van budget gaming/ office tot foto-video bewerking en 3D rendering workstations, en heb een aantal DAW systemen gebouwd, voornamelijk Intel maar pas ook 1 met 5950X die klant (studio productie) wou een snelle cpu, maar vooral veel cores icm een moederbord met snelle thunderbolt 4 aansluitingen (Asus B550 proart creator) en toen kwamen we daar op uit :)
Hij is er zeer tevreden mee en alles werkt gewoon goed en stabiel.
Misschien ook een geval van wat de boer niet kent...
Audio mensen zitten erg op de stabiliteit en veel mensen zweren dat Intel stabieler draait met audio software (wat vaak notoir is voor crashes e.d. om de gekste redenen). Een snellere CPU is natuurlijk waardeloos als je productie software er niet (goed) mee wilt werken.
Ik zit zelf in de live kant en niet in de studio, maar herken dit verhaal wel van collega's
AMD heeft met 5xx chipsets vooralsnog niet volledig opgeloste chipset issues met USB (ja echt, zoek maar op!) en geen / beperkte thunderbolt support.

Dus vooralsnog een no-go met USB audio interfaces en thunderbolt audio interfaces. Vandaar intel. Maar als als de usb issues zijn opgelost of er komen usb4 audio interfaces dan wordt AMD interessanter.

[Reactie gewijzigd door PjotterP op 23 mei 2022 13:48]

Eender wat niet grafisch is? Er is genoeg zware professionele software dat niets met de GPU doet.

En verder hebben we het niet alleen over de R9 modellen hier. Een R3 of R5 is een ideale CPU voor een vlotte thuis/kantoor computer. Dat is nu snel, met genoeg marge om nog een heel aantal jaar door te kunnen. Een grote Excel file kan serieus wat performance happen, daar wil je echt wel een respectabele CPU voor als je dat 8u/dag in werkt.
Voor het schrijven van code in gecompileerde talen als C++ is het fijn om een snelle CPU met veel cores te hebben zodat je code snel (en parallel) compileert, maar een snelle GPU heb je daarbij niet nodig.

Edit: ik zie dat dit precies is wat je al zei, excuses

[Reactie gewijzigd door TEMwave op 23 mei 2022 12:30]

Excel. Heb hier sheets die een doorlooptijd van meerdere minuten hebben na aanpassingen (nou is Excel wel bekend slecht op dit gebied en VBA is zeker geen snelheidsmonster, maar het wordt wel degelijk gebruikt en best vaak). Data transformaties doe ik ook nog wel eens en dan helpt single-core vaak beter (eenmalige conversie ga je niet op de GPU doen en ook niet optimaliseren voor multi-threaded gebruik). Ik ken genoeg redenen dus om een supersnelle CPU te willen en geen zier te geven om de GPU.
De iGPU lijkt mij overbodig.
kost het geen geld, en ruimte maar in de praktijk zie je dat de meeste mensen met, teminste een 7 serie, een dedicated gpu hebben?

of mis ik hier iets?
Er zijn genoeg applicaties die qua performance genoeg hebben aan de aan de geïntegreerde GPU en daarom geen externe GPU nodig hebben en daarmee ook flink besparen op de vermogensconsumptie. Dat was 'vroeger' vooral een issue voor laptopgebruik (accugebruik), maar wordt voor desktops ook steeds belangrijker, want de (beperking van overtollige) warmte- en geluidsproductie telt ook steeds vaker mee in een (arbotechnisch) prettige werkomgeving.

[Reactie gewijzigd door RRRobert op 23 mei 2022 09:08]

Een iGPU is een prima tussenoplossing voor als videokaarten slecht leverbaar zijn of ver boven MSRP de winkel verlaten. Je kan je PC dan bouwen en wachten op een goed moment om een kaart te kopen. Niet iedereen zal een kaart 'meenemen' vanuit een oude PC. Zeker ook niet als die PC verkocht gaat worden (een PC zonder dGPU verkopen zal je weinig op gaan leveren als videokaarten slecht leverbaar/duur zijn).

Edit: op de verkeerde persoon gereageerd. Moest een reactie zijn op Moortu. Excuus.

[Reactie gewijzigd door Korvaag op 23 mei 2022 09:58]

Maar is er dan ook pass-thru van de igpu naar de video-output van de dedicated gpu anders heb je er niet zoveel aan
Maar is er dan ook pass-thru van de igpu naar de video-output van de dedicated gpu anders heb je er niet zoveel aan
Bij een laptop met een dedicated GPU is dat zelfs in de bios gedefinieerd, meen ik me te herinneren. 't Is al een tijdje geleden dat ik hiermee heb gestoeid, trouwens.
gamen is maar een segment van de markt, niet de hele markt.
Wat je mist, is denk ik, dat de afgelopen periode de processorverkopen leden onder het tekort aan GPU's. Op deze manier bouwt men daar een verzekering tegen in.
Juist ideaal als je weet dat je pc ook werkt zonder dedicated gpu, mocht de gpu bv kapot gaan kan je nog wel je pc blijven gebruiken om bv een nieuwe gpu te bestellen.
Denk dat wanneer je naar de zakelijke markt kijkt, maar ook naar prebuild systemen, dat integrated graphics een enorme aanwinst zijn. Er zijn genoeg usecases te vinden waarbij men wel een krachtige CPU kan gebruiken, maar GPU kracht van ondergeschikt belang is. Heb je dan een iGPU die hierin volstaat, hoef je in al die systemen al geen dedicated GPU meer te stoppen. Dit bespaart niet alleen flink wat geld (100-150 euro voor een instap GPU van de nieuwste serie ben je zo kwijt), maar het betekent ook minder onderdelen die stuk kunnen gaan (makkelijker voor het beheer bij bedrijven), pc kast kan kleiner, voeding kan eenvoudiger (zonder PCIe connectoren) en je hebt netto waarschijnlijk minder stroomverbruik en minder warmte productie.

Als gemiddelde consument zullen bovenstaande zaken je niet veel boeien, maar een bedrijf die 500 pc's inkoopt voor hun medewerkers, welke ze moeten beheren/onderhouden en die daar stroom staan te verbruiken en warmte te produceren.. zo'n bedrijf interesseert dat wel. Al scheelt het per pc maar 25W aan verbruik (t.o.v. een dedicated GPU pc), dat is op 500 stuks toch 12.5kW ieder uur, per werkdag van 8 uur dus zo'n 100kWh. Met de huidige energieprijzen al snel weer 5000 tot 10000 euro besparing op jaarbasis.
Ja zeker, maar die zullen eerder budget cpu's aanschaffen zoals de Ryzen 3 of 5.
Daar kan ik me voorstellen dat een iGPU praktisch is.

Voor het 7 en 9 segment vraag ik me af of het echt veel nut heeft of dat het niche is.
En wat het verschil is voor stroom gebruik, hitte, ruimte gebruik en kosten voor het toevoegen van een iGPU.
Er zijn zat voorbeelden te noemen van usecases waar veel CPU kracht, maar vrijwel geen GPU, nodig is en bovenstaande voordelen van een iGPU gelden. Workstations voor developers die met grote software projecten werken en deze builden/testen, Linux kernels builden, daytraders/mensen die zich bezig houden met de aandelenmarkt, developers die veel met virtualisatie werken, wetenschappelijke modellen/programma's die fors leunen op de CPU en niet de GPU. Genoeg doeleinden waar een workstation met een krachtige CPU met iGPU wenselijk is.

Zijn dat niches? Wie zal het zeggen, indien je niet in zo'n branch werkt noem je het waarschijnlijk snel een niche, maar als zo'n hele branch al voordeel heeft van die bepaalde keuze kan het zeker een goede toevoeging zijn. Maar ook als consument vind ik het wel handig. Switch je van een AMD naar NVidia GPU of vice versa, of heb je problemen met de GPU (kaart mogelijk defect, driver issues) kan je met een iGPU daarop terugvallen en het probleem fixen. Komt niet vaak voor, maar is mij ook een paar keer gebeurd over de jaren. Toen ik destijds een Intel systeem had met een 3770k bood de iGPU uitkomst, eerste Ryzen systeem had dat niet en maakte het proces weer iets gecompliceerder.
Ja zeker, maar die zullen eerder budget cpu's aanschaffen zoals de Ryzen 3 of 5.
Daar kan ik me voorstellen dat een iGPU praktisch is.

Voor het 7 en 9 segment vraag ik me af of het echt veel nut heeft of dat het niche is.
Als AMD geen IGP in de Ryzen 3 en 5 zou zetten maar wel in de 7 en 9 betekent dat ze dus meerdere IO-die-varianten moeten maken (of in de huidige Ryzens meerdere chiplet-varianten). Dat terwijl de huidige architectuur je nou net toestaat om een geproduceerde chiplet en IO-die in een CPU naar keuze te stoppen, of dat nou een Ryzen 3 of Ryzen 9 is.
Kan ook zijn dat ze dit doen om de productie lineup te verkleinen, zodat je meer van dezelfde CPU's kan bakken. Nu hoeven ze niet 3 of 4 aparte CPU's te maken met een iGPU. En heb je mogelijk ook minder varianten met de mainboard chipsets.
Dat was precies wat ik me ook afvroeg. Maken ze tegenwoordig geen top-CPU's meer zonder GPU? Het lijkt me toch dat je die ruimte kunt gebruiken om je top nog ... topper te maken.
Ik denk dat je dit anders moet zien; meer als een strategische beslissing, in navolging van Intel. Die hebben allemaal standaard een iGPU aan boord en de afgelopen jaren heeft laten zien dat dat geen overbodige luxe is [voor cheap builds, at least].

Als je dan een I/O produceert op 6nm, dan heb je 2 keuzes:
Of je gaat voor 2 I/O designs, waarbij er 1 een iGPU heeft en 1 zonder iGPU (want dat is wel degelijk een gemis, al is het maar voor overklokken/self-build/BIOS-boots!)
Of je gaat voor 1 I/O, waarbij je naar believen de iGPU uitschakelt.

AMD heeft er een handje[klap] van Intels strategieen te volgen, waar nodig en/of wenselijk.
En ik zou het niet vreemd vinden als dit er één van is.

Tel daarbij op de prijs van een dGPU these days en ik kan me zo voorstellen dat mensen gaarne genoegen nemen met een iGPU.

[Reactie gewijzigd door Timoo.vanEsch op 23 mei 2022 23:40]

Ik ben heel erg benieuwd wat de performance van de iGPU gaat zijn. RDNA 2 icm DDR5 zou best nog wel eens prima framerates op 1080p kunnen leveren.
Dan zal je moeten wachten op de 7000G modellen die tot 12 RDNA 2 GPU cores hebben en waarmee icm DDR5 inderdaad goed op 1080p te spelen valt. De niet G-modellen, die als eerste op de markt zullen komen, hebben maar 2 tot 3 GPU cores. Net genoeg voor HTPC toepassingen en alles waar geen 3D komt bij kijken.
Dat wordt waarschijnlijk 6000G modellen, aangezien de mobiele chips met 12 RDNA 2 CU's hebben gebaseerd op Zen 3+ aka Ryzen 6000. Geruchten zijn dat die samen met Zen 4 als eerst op AM5 komen, en dat de mobiele Zen 4 chips pas na de mobiele launch als APU's op de desktop komen (dat kan nog wel even duren en weten wij ook vrijwel niks van).
Gezien de grote van de io die zou ik daar maar weinig van verwachten ik verwacht iets van 2-4 CU's zodat je gewoon beeld hebt zonder dat je een D gpu moet kopen.
Daarnaast hebben ze dan ook de de optie om de hardware aan boord te hebben om smart shift storage te benutten want Frank gaf al aan dat amd gpu's daar logic voor aan boord hebben.

Je moet denk ik geen RX6400 prestaties verwachten als je dat wil moet je wachten op de nieuwe Phoenix APU's.
Dit zal voor basic desktop zijn, voor mensen die alleen maar compute / desktop werk doen.

[Reactie gewijzigd door Astennu op 23 mei 2022 21:09]

Daarnaast hebben E dan ook de de optie om. De hardware aan boord te hebben om. Smart shift storage te benutten want Frank gaf al aan dat amd gpua daar logic voor aan boord hebben.
Wat? Ik snap dat t maandag is, maar toch..
Ja heel veel Typo's door dikke vinkers op een telefoon toetsenbord.
Ik heb ze gefixt.

Er werd in ieder geval gesuggereerd dat de amd gpus al decode hardware aan boord hebben of de decode gaan doen.
Heb dat niet eerder gehoord dat RDNA2 dat al heeft. Maar wellicht 3 wel of zat het er in 2 ook al in.
Dit zijn geen apu's, al zou je games als valorant er vast goed op kunnen spelen.
Mooie ontwikkeling, knap van AMD als ze echt weer zo'n stap in prestaties kunnen maken in de definitieve verkrijgbare producten. Al suggereert een 31% snellere Blender benchmark tov de 5950X tegen een 62% hogere TDP (170W tov 105) niet direct een enorme toename in efficiëntie.

Ik zit nog op een 8700K, maar weet gelukkig wel zeker dat als ik over een jaar of 2 een nieuw systeem in elkaar schroef dat een enorme prestatie winst gaat opleveren.
He tis alleen nog de vraag wat die nieuwe cpu daadwerkelijk gebruikt. In blender gebruikt een 5950X ook 140 watt net als de 5800X en 5900X.
Als die 170 watt nu netjes aangehouden wordt valt het mee. Als daar net als bij de huidige CPU's 35% meer verbruikt mag worden mits de koeling het toe laat valt het wel erg tegen.
Dat klopt niet geheel, ze mogen maximaal 142W verbruiken (PPT), maar verbruiken dat niet altijd.

Zo doet in GN's test een 5950X 120W in Blender, terwijl de 5900X 133W doet, dit zijn echter geen vaste waardes en zal ook verschillen met silicon kwaliteit. Wanneer jij een 5900X hebt, kan deze bijv. best 135W of 137W verbruiken. Zie hier de waardes van GN voor hun samples: https://youtu.be/fhI9tLOg-6I?t=1473

Ze hebben helaas hun 5800X niet opgenomen in deze grafiek.
Bij mijn eigen 5800x zie ik 160W Package Power en 136W CPU core power (prime95 max heat). Zou niet durven te zeggen wat precies mijn PBO instellingen zijn.

[Reactie gewijzigd door vanthome op 23 mei 2022 09:25]

Als je PBO aan hebt staan kan de stock waarde van 142W uiteraard het raam uit, die stock setting wordt dan inderdaad niet meer gerespecteerd en kan je inderdaad wel 160W package power zien.
Fair maar mijn CPU's deden dat altijd wel Misschien heeft dat met het moederbord / koeling / andere bios instellingen te maken. Bij CB R20 kon ik dat in ieder geval bijna continu halen.
Voor een dual CCD chip is 142 watt opzich ook niet heel gek. IO Die moet daar nog van af verbruikt ook snel 15-17 watt dan zit je op +- 65 per CCD en nog geen 10 watt per core.

[Reactie gewijzigd door Astennu op 23 mei 2022 09:24]

De genoemde 31% snellere Blender-benchmark is tegenover de 12900K, niet de 5950X. Verder is volgens AMD IR website is de koeling een gelijke 280-MM AIO tussen de twee systemen.
Dat maakt niet heel veel uit, een 5950X en een 12900K matchen elkaar normaliter in Blender qua performance. Als een 12900K dus +-31% langzamer is, zal een 5950X dat ook ongeveer zijn.
Wel even rekening mee houden dat er een IGP in de I/O die is toegevoegd. Als de IGP een beetje presteert (6400XT niveau wat 53W TDP heeft) dan is de toegenomen TDP wel te rechtvaardigen.
De geruchten gaan dat het 4 CU's betreft, dus +-66% minder CU's dan een 6400XT. Al hebben ze hier volgens mij geen duidelijkheid over gegeven in de presentatie en blijven het dus geruchten.
Dat is ook mijn update verwachting. Wachten tot DDR5 en PCI-E5 wat meer gemeengoed zijn geworden. Dan kan ik mijn X79 platform na 12 jaar vervangen. Waar ik nu nog 1 stap zou kunnen maken naar 1866mhz ipv 1600mhz ddr3. En van een 1650v2 naar een 1660v2 als deze te vinden is. Dan pers ik het allerlaatste beetje gaming performance eruit wat er nog inzit voor de komende 2 jaar.
105 watt is tdp bij base clock bij intel, die kan gerust het dubbele trekken :
https://www.techpowerup.c...-at-various-power-limits/

Het is dus 241 watt vs 170watt of amd die enorm veel efficienter is. (indien de benches kloppen natuurlijk)
Over jaar of 2 zal waarschijnlijk al Zen5 kunnen zijn.
Mooie aankondiging, al valt het wat tegen met de specs die de leakers de laatste tijd rond lieten gaan.
Die gingen uit van minimaal 15% IPC, waar dan de frequency uplift nog bij zou komen.

Die 15% ST is trouwens t.o.v. een 5950X, zie https://pbs.twimg.com/media/FTbE8z5WQAASFDP.jpg

Ik vraag me eigenlijk af of Zen 4 met zo'n geringe ST uplift hun eigen 5800X3D wel gaat verslaan in gaming en of ze hiermee wel ruim over Intel heen gaan.

We moeten het natuurlijk gaan zien, maar 15% en 31% uplift in respectievelijk ST en MT vind ik wat mager, en ik vraag me af of dat bijvoorbeeld voldoende zal zijn een Intel Raptor Lake afgetekend te verslaan op performance.

Verder moet ik voor deze claim:
Het verbeteren van de prestaties en de prestaties-per-watt waren de belangrijkste doelen bij het ontwerp van de Zen 4-core
Ook wat meer duiding zien, als de geteste cpu die 31% beter presteerde in Blender een 170W TDP Sku is kan het op het eerste gezicht maar zo zijn dat die cpu helemaal niet efficiënter is.

Een stock 5950X met een TDP van 105W verbruikt bijv. 120W in Gamers Nexus hun Blender test, wat redelijk normaal is, AMD Sku's verbruiken in zware MT workloads eigenlijk altijd meer dan hun TDP, en mogen tot 1,35x TDP verbruiken op stock settings in zulke workloads (142W PPT stock voor 105W TDP Sku's in de Ryzen 3000 en 5000 serie).

In de Gamers Nexus Blender test verbruikt de 5950X zoals gezegd 120W, dat is +-15% meer dan het TDP. Zou de getest AM5 Sku hier een 170W TDP versie zijn en een soort gelijk verbruik laten zien zou dat op 195W komen. Dan kom je op +-31% meer performance (want een 12900K presteert in de buurt van de 5950X in Blender) terwijl het verbruik met iets meer dan 62% stijgt.

Ergens hoop ik dus dan AMD niet alles uit de kast heeft getrokken voor deze presentatie en het geteste model in Blender een 105W TDP model is geweest (zodat je napkin math uit kan gaan van 31% meer performance tegen 0% meer verbruik), of dat AMD wel een 170W TDP meegeeft, maar af is gestapt van het stock PPT 1,35x hoger in te stellen dan het TDP, zodat de cpu's op maximale load niet meer kunnen verbruiken dan TDP. Anders kan het nog wel eens lastig worden efficiënter te zijn dan hun eigen voorgangers, al zullen ze wel efficiënter zijn dan in ieder geval Alder-Lake in zware MT workloads, maar goed, dat waren ze ook al ruim en die positie mogen ze m.i. ook echt niet verliezen, aangezien dat een mooi selling point is, ook al is er ook een deel van de gebruikers die niets om verbruik geven.
Ik mag hopen dat wat Lisa zei inderdaad niet klopt en dat die 15% IPC bij gelijke clocks is en niet samen met de hogere clocksnelheden. Want anders zouden alle andere verbeteringen maar goed zijn voor 5%. En dat zou dan betekenen dat de 5800X3D in sommige gaming gevallen nog wel eens sneller kan zijn als de nieuwe Ryzen 7000 CPU's terwijl je toch eigenlijk hoopt dat dat de 7000 CPU's in na genoeg alle gevallen veel sneller zullen zijn.

Nu kan het zijn dat CB waar dat +15% nummer over zou gaan niet veel baat heeft bij de aanpassingen die AMD gedaan heeft en vooral andere applicaties meer laten zien. Maar dan hadden ze dat denk ik wel gemeld.
Als het echt maar 15% is met de clocks gaat intel ze met Raptor lake voorbij en dat zou een slechte zaak zijn want Meteor Lake komt er ook aan.

Qua power lijkt het er op dat die 170 watt ook voor PPT geld wat meer te vergelijken is met de 142 watt die de CPU's nu met PPT mogen verbruiken ondanks hetTDP van 105 watt.
Ian Cutress had dat aan Robert Hallock gevraagd.

Edit: toeging over de +15% dat zou tov de 5800X3D zijn volgens Ian.
Als je +15% gaming performance zou hebben tpv de 5800X3D zou dat wel weer een mooie stap voorwaardes zijn.

[Reactie gewijzigd door Astennu op 24 mei 2022 01:15]

Ik mag hopen dat wat Lisa zei inderdaad niet klopt en dat die 15% IPC bij gelijke clocks is en niet samen met de hogere clocksnelheden.
"Single-Thread-Uplift*: >15%" is wat er staat. Dat is dus inderdaad *niet* >15% IPC.
Nee daarom en dat valt toch wel erg tegen moet ik zeggen.
Want dat betekend dat hij qua gaming performance +- gelijk zal zijn aan de 5800X3D. Soms wat sneller in games die van clocks houden en niets met veel extra cache doen (zie bv CS GO). En in enkele gevallen zal de X3D zelfs sneller blijven. Denk aan Stellaris/Factorio die vinden al die extra Cache geweldig.

Qua multi core prestaties ga je er wel lekker op vooruit met die hogere base en turbo clocks.
Maar het lijkt dat we toch op Zen5 moeten wachten voor de echt grote sprong.

Maar op deze manier geven ze de kroon wel heel makkelijk uit handen. Ik mag hopen dat Zen5 er heel snel achter aan gaat komen. Want dit lijkt een gevalletje we pakken Zen3 passen dingen aan zodat de clocks omhoog kunnen en tweaken een paar andere kleine dingen en we richten ons vooral op het nieuwe platform. Het lijkt er op dat de Zen architectuur in z'n huidige vorm uitontwikkeld is en het tijd is voor totaal nieuwe ALU's of meer in ieder geval. (het is wel de verwachting dat met Zen5 dat stuk flink op de schop zal gaan en dit weer een grotere sprong gaat worden).

Zo niet is Intel met gemak weer op kop zal zullen ze dat ook blijven.

In dat opzicht lijkt het er op dat 5800X3D eigenaren er niet zo verkeerd aan gedaan hebben qua gaming performance en je hoeft geen nieuw platform te kopen met dure nieuwe borden en geheugen.

Ik wacht de Zen4 reviews nog even af maar ik heb weinig hoop als ik deze presentatie zo zie. Ze kunnen Raptor lake misschien net aan maar maar meteor lake op deze manier niet.
Maar hopelijk valt het mee en brengt de Zen4 architectuur toch meer voor gaming / 2-4 thread workloads dan nu het geval lijkt te zijn.

Edit: toeging over de +15% dat zou tov de 5800X3D zijn volgens Ian.
Als je +15% gaming performance zou hebben tpv de 5800X3D zou dat wel weer een mooie stap voorwaardes zijn.

[Reactie gewijzigd door Astennu op 24 mei 2022 01:16]

In 31% minder tijd een workload afronden, daarvoor moet je grofweg 50% sneller zijn.

Dus vb: in 40 seconden of 60 seconden.

Het betreft niet een 31% hogere score.
Daar heb je een punt.
MLID denkt dat AMD ook een beetje aan het Sandbaggen is.
Die gedachte ging ook wel even door mijn hoofd toen ik die presentatie zag. Bij de RX6000 serie hebben ze dat ook gedaan door de 6800XT te laten zien als zijnde Big Navi.
Vervolgens bleek later dat ze ook nog een 6900XT hadden die 8-10% sneller was.

Zo iets kan hier natuurlijk ook gaande zijn. En dat de uiteindelijke prestaties toch wel vergelijkbaar zijn met de stap van Zen2 naar Zen3.
Ik denk dat die demo er inderdaad een van het soort "alles-uit-de-kast-trekken" is. Leuk voor AMD dat hij sneller is dan intel's snelste optie, maar niet tegen dat verbruik. Overklokken schijnt nu eenmaal altijd inefficient te zijn. We gaan het meemaken, maar buikgevoel zegt 10-15% winst op IPC, wat overigens een heel gezonde prestatietoename is en de rest op overclocking. Sterker nog: een goed inzet van je CPU kan zijn een te sterke CPU kopen en deze middels undervolting, underclocking voor weinig Watt veel prestaties te laten leveren.
Als je efficiëntie wilt zijn er altijd betere modellen te krijgen.
Zie bij Intel de 12700K en bij AMD nu de 5700X. Beide leveren 90-95% van de prestaties maar met een veel lager verbruik. Beetje zonde om daar een 12900K voor te kopen en die dan te underclocken. In het geval van de 5800X helemaal want die is verder 1:1 gelijk aan de 5700X waar de 12900K nog meer Cache en cores heeft.
Je hebt waarschijnlijk in veel gevallen gelijk. Maar zoals je zelf aangeeft krijg je soms wat meer cache/cores. Zelfs waar het niet zo is, zoals bij de 5800X, zijn dat vaak de betere cores, zoals voor over- als ook voor underclocking/volting. Of dat de soms werkelijk extreme meerprijs waard is is nog een ander ding. Het topmodel uit een range is meestal bedoeld voor mensen die per se het beste willen hebben en voor 5-10% extra performance of zelfs voor de pure patsfactor graag het dubbele uitgeven... dat soort mensen zijn dan na een half jaartje weer teleurgesteld als er weer een snellere uitkomt.
Er zit een iGPU in. Die zal ook ergens zijn vermogen vandaan moeten halen. Die 170w gaat over de socket, niet zozeer enkel de cores.
Het is inderdaad een totaal budget, dat is nu ook al het geval tussen CCD en I/O die en zal dus ook niet veranderen aangezien de iGPU in de I/O die zit. Samen mogen die verbruiken wat de PPT limiet aangeeft. Normaal gesproken is die limiet bij AMD 1,35x de TDP waarde.

de iGPU zal daar weinig aan veranderen, wat wel het geval zal zijn is wanneer de iGPU belast wordt dat deze inderdaad een deel van het budget opsnoept waardoor bijv. de cores het wat rustiger aan moeten doen. Wordt de GPU echter niet gebruikt (omdat deze is uitgeschakeld) of niet belast (omdat er een dGPU aanwezig is) hoort dat budget vrij te komen voor andere delen van de chip in de CCD's (o.a. de cores) of de I/O die.

[Reactie gewijzigd door Dennism op 23 mei 2022 10:22]

Lijkt me sterk dat iets opgewaardeerde cores op een zuiniger proces, en een I/O die ook op een zuiniger proces zomaar 65 Watt meer power budget gaan gebruiken wanneer dat vrij komt.

Als je hardware toevoegt moet je daar budget voor vrijmaken als je alles tegelijk vol wilt laten lopen, maar dat betekent niet dat wanneer bv de iGPU niet zijn deel gebruikt dat de CPU de rest dan Moet gebruiken.

Het is een max, niet een min.
Besef dat die +31% MT in Blender is vergeleken met de 12900K, waar de 5950X nu al een stuk sneller is dan de 12900K. De 7950X is dus zo’n 10/15% sneller in MT, valt tegen dus.
Oké, ik gebruikte een andere review, prestaties lijken te verschillen. Ben benieuwd naar een echte review.

Hier had ik de data vandaan: https://www.guru3d.com/ar...e-i9-12900k-review,9.html
Alder Lake zullen ze gemakkelijk paseren, maar Raptor Lake zal gemakkelijk over de 7950x vliegen, want ook al gaat Raptor Lake zijn IPC maar omhoog met 10% gemiddeld, dan zullen ze nog ver boven AMD blijven, zeker als ze hun E cores verdubbelen naar 16.
Fijn om te horen dat er weer een iGPU aan boord komt. Ik dacht eerder ook dat die vrij overbodig was, maar in praktijk was dat toch vaak onhandig.
Komt dat door de dure GPU prijzen, zodat zelfs een simpele heel vrij duur is? Of vind je er wat anders onhandig aan?
Even snel systemen testen. Dode videokaarten kunnen troubleshooten. Je videokaart kunnen verkopen zonder een 2e systeem nodig te hebben om uberhaupt je computer te gebruiken. Zo een handjevol toepassingen.
Als elke processor straks een iGPU heeft. Dan gaan game-ontwikkelaars misschien _eindelijk_ eens gebruik maken van de MultiGPU features in DX12.
Het blijft natuurlijk een niche. Los van dat ik me afvraag hoe het schaalt om twee compleet verschillende GPU's aan te spreken, en of het daarmee überhaupt wel veel noemenswaardige prestatiewinst geeft, zit je ook met twee GPU's waarvan de discrete GPU waarschijnlijk veel sneller is dan de IGP. Dus zelfs met 100% schaling is de winst niet zo spetterend.

Natuurlijk kan het wel wat toevoegen, bijvoorbeeld met een 6800H-APU met 12 IGP-cores met een mobiele discrete GPU ernaast, maar dan heb je het vooralsnog over zo'n klein deel van de markt dat geen ontwikkelaar daar moeite voor gaat doen.

[Reactie gewijzigd door bwerg op 23 mei 2022 09:25]

Het is wat afhankelijk van hoe het ingezet wordt. Maar je kunt bepaalde bewerkingen dan offloaden van de main GPU en als het goed ingezet wordt is het dan gewoon iGPU+GPU aan totale performance.

Het is vooralsnog een klein deel van de markt, omdat vooral gaming desktops veelal geen iGPU hebben. Maar als AMD het standaard toe gaat voegen en Intel gaat deze route ook volgen. Dan heb je binnen enkele jaren een behoorlijk deel van de markt te pakken. Wat het de moeite waard kan maken.
En in het ergste geval zullen videos en plaatjes in je browser door de iGPU opgepikt kunnen worden neem ik aan? Dus voor multitasking krijgen we al een flinke prestatiewinst zonder dat devs er iets voor hoeven te doen.

Maar ik heb geen idee of dat ook daadwerkelijk zo werkt.
Dan kan nu ook al. Ik heb een laptop met een Intel iGPU en een GTX 1060. In de NVIDIA configuratiescherm kan ik per programma instellen welke GPU gebruikt moet worden en daar maak ik dankbaar gebruik van.
Top, zelf al heel lang geen laptop/intel meer aangeraakt dus wist niet goed hoe dit zat. Dank je.
Dat zullen ze niet doen, omdat SLI en xfire al voornamelijk door nvidia en AMD via de drivers werd gedaan. En het dus uitgerold wordt door hardware firma’s. Nu moeten de devs dat zelf vanuit de game engine zelf regelen.
Nou dat doen ze niet. Je kan hopen op paar uitzonderingen.
Verschillende gpu en vooral ook merken is wat geavanceerde form van multi gpu en dat vergt wat meer werk ook hoe je de last gaat verdelen. En hoe je dat in game engine implementeerd.

Ik zou de igpu intensief gebruiken voor gpgpu compute.
Ze gaan dit vooral gebruiken om hun prijzen met gemiddeld $50-75 omhoog te trekken.
Ben benieuwd hoeveel lanes van welke generatie de chipset interconnect heeft.
Daarnaast hoop ik dat 5.0 x16 (gpu) en x4( m.²) gelijktijdig ondersteund worden en niet zoals bij z690 dat je dan x8 en X4 hebt wanneer je de m.2 op gen 5.0 wilt draaien
De X670E zal dat zeker kunnen.
En de X670 denk ik ook.

Van wat ik uit leaks heb begrepen hebben ze een chipset. Maar combineren ze er twee om een X670/X670E bord mogelijk te maken.

Er zijn ook geruchten dat er mogelijk een B650E gaat komen die ook PCI-E 5.0 voor de gpu en ssd brengt.

Aan de ene kant fijn dat er segmentering is om goedkopere moederborden mogelijk te maken. Maar aan de andere kant moet je wel erg opletten welke je moet kopen om te zorgen dat je alle features aan boord hebt die jij wilt gaan gebruiken (zoals een pcie 5.0 gpu).
Dat wordt flink kliederen met koelpasta als de heatspreader echt deze vorm krijgt :)
Of speciale koelblokken die die notches weer opvullen :P .
Lijkt mij vrij simpel op te lossen door net genoeg koelpasta en zo niet dan een simpele borstel/wattenstaafje ;)
Het is wel te hopen dat DDR5 goedkoper gaat worden in aankomende maanden. Als het zoals nu grofweg 2x zo duur blijft dan zal dat de adoptie van het AM5 platform niet ten goede komen.
De prijs van ddr5 is al best wel behoorlijk gezakt. Nog even afwachten en met een beetje geluk zit de prijs in 2023 net boven de prijs van ddr4. Net zoals videokaarten beginnen er steeds meer voorraden te komen .
Een Blender-demonstratie van een 16-core Ryzen 7000-cpu die AMD gaf, lijkt dat te bevestigen. Daarin was de nieuwe chip 31 procent sneller dan een Intel Core i9-12900K.
Ik vind dat eigenlijk niet helemaal een eerlijke vergelijking. De 12900K heeft 8 efficiency en 8 performance cores. Het is een big.Little ontwerp. Daarvan zie ik niets terug bij AMD. Tja, dan kan je wel een keer beter uit de bus komen. Het zou ernstig zijn als de performance identiek was, dan zou de performance van zo'n Ryzen 7000 core tussen een efficiency en een performance core inzitten.

Maar goed, voor mij zou het wel een reden zijn om over te stappen op AMD. Bij mijn desktop zijn efficiency cores niet zo enorm relevant. Dat zijn voor mij gewoon slechtere cores. Ik heb daar weinig baat bij. Het is voor mij beter om volle performance te hebben. Misschien dat Intel wel beter zou zijn voor mijn server, want die doet niet altijd zoveel werk. Dan zijn efficiency cores wel weer nuttig. En natuurlijk is het leuk voor laptops.

Ach ja, het is mooi dat we keuze hebben. Welk merk beter is, is nu afhankelijk van toepassing. En dat is niet slecht.

Op dit item kan niet meer gereageerd worden.


Nintendo Switch (OLED model) Apple iPhone SE (2022) LG G1 Google Pixel 6 Call of Duty: Vanguard Samsung Galaxy S22 Garmin fēnix 7 Nintendo Switch Lite

Tweakers vormt samen met Hardware Info, AutoTrack, Gaspedaal.nl, Nationale Vacaturebank, Intermediair en Independer DPG Online Services B.V.
Alle rechten voorbehouden © 1998 - 2022 Hosting door True

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee