AMD: RDNA 3 biedt 50 procent verbetering in prestaties per watt versus RDNA 2

AMD's RDNA 3-architectuur verschijnt dit jaar met de komst van Navi 3-gpu's en biedt dan een verbetering van 50 procent wat prestaties per watt betreft tegenover RDNA 2, volgens het bedrijf. RDNA 4 verschijnt vervolgens in 2024.

AMD noemt de prestaties-per-wattverbetering van 50 procent van RDNA 3 op een slide die het presenteerde tijdens zijn jaarlijkse Analyst Day, maar de fabrikant gaf verder geen details. Het gaat volgens AMD om 'voorlopige schattingen' op basis van engineeringsamples. In de praktijk zal de verbetering sterk afhangen van de gekozen scenario's. AMD beloofde bij RDNA 2 ook een verbetering van 50 procent bij de prestaties per watt.

De chipontwerper laat de gpu's op basis van de komende architectuur op 5nm produceren, waarschijnlijk door TSMC. AMD bouwt de gpu's op rond chiplets, wat het bedrijf waarschijnlijk de nodige flexibiliteit geeft om met gpu's voor verschillende doelgroepen op de markt te komen. AMD spreekt verder van een nieuwe generatie Infinity Cache voor RDNA 3, maar nog niet duidelijk is of het dan om een simpelweg grotere geheugenbuffer gaat of dat er andere verbeteringen zijn doorgevoerd. Wat de compute-units betreft claimt AMD de architectuur geoptimaliseerd te hebben.

Volgens het bedrijf komt RDNA 3 met Navi 3-graphics nog dit jaar. Op de roadmap staat ook al RDNA 4 met Navi 4-gpu's. Die zouden dan in 2024 moeten verschijnen. AMD laat deze op een 'geavanceerde node' produceren, wat dan een 3nm-procedé kan zijn.

Door Olaf van Miltenburg

Nieuwscoördinator

10-06-2022 • 07:58

67 Linkedin

Submitter: LongBowNL

Reacties (67)

67
67
49
5
0
13
Wijzig sortering
Het grote nieuws is hier echt wel dat RDNA3 chiplets gebruikt!

GPUs, zeker de topmodellen, zijn voornamelijk duur omdat ze zo enorm groot zijn, wat lagere yields oplevert: de kans op defecten stijgt exponentieel met de oppervlakte, en dus ook de kosten.
Chiplets lossen dit probleem in zijn geheel op: een 4x grotere GPU was vroeger exponentieel duurder dan het kleine model, terwijl het nu gewoon 4x meer kost. (Dan heb ik het natuurlijk enkel over de productiekosten: uiteindelijk zullen deze GPUs kosten wat men ervoor wil geven)

Ik ben echt enorm benieuwd.

[Reactie gewijzigd door kiang op 10 juni 2022 08:14]

Was in de laatste leaks niet gesproken over vooral cache via chiplets en niet 2 GPU’s zoals iedereen hoopt.
Oh, dat weet ik niet. Dat zou minder revolutionair zijn inderdaad.

Langs de andere kant: Apple toont aan met de M1 Ultra dat je een GPU (en CPU) 'aan elkaar kan plakken' op een manier die transparant is voor de software en geen performance penalty heeft.

Ik kan dat fout begrepen hebben natuurlijk, maar ik hoop echt dat dat mogelijk wordt want het zou betekenen dat GPUs een stuk schaalbaarder worden qua productie, wat prijs en beschikbaarheid ten goede komen.
Nou apple silicon solution is een parallel zeer brede interchip connect tussen twee socs dmv gehele zijkant van chip. Korte verbinding.
Waarmee je dus die DIE stuk directer aanmekaar maakt. En geen brug interconnect waar je nog protocol vertaalslag of multi serieel. Low latency mede daardoor ziet apps en os het als 1 cpu zonder numa gehannes.
Het ziet er naar uit dat apple silicon verlijmen van die stuk geavanceerder is dan chiplets op fpga assembly aanmekaar knopen . Beide hebben hun voor en nadelen.
Apple is directer minder flexible AMD kan vrijer chiplets combineren.
Het is even wachten op de uiteindelijke release. Maar zelfs als AMD verschillende onderdelen van de architectuur met verschillende chiplets plaatst heeft dit voordelen, zolang ze de latency van de communicatie onder controle houden.
Het zou in ieder geval positief kunnen zijn voor warmte productie, maar ook qua defecten in de productie, als een defect op een cruciaal punt van de chip zit dan is de hele chip onbruikbaar, door dit wat meer te spreiden en kleinere chips te maken kun je potentieel meer bruikbare chips uit een wafer halen.

Anyway, rustig wachten op de officiele specs, de eerste reviews en de prijzen, maar het belooft een interessante strijd te worden tussen AMD en Nvidia.
Volgens de leaks is er een enkele compute-die op 5 nm en dan meerdere dies met zowel IO en cache op 6 nm (tenminste, voor Navi 31 en 32, 33 wordt monolitisch op 6 nm).

Het voordeel van deze opzet is dat ze heel veel cache kunnen toevoegen, zonder dat dit ten koste gaat van de productiecapaciteit op 5 nm en zonder dat dit de productie op 5nm verlaagd door defecten. Bovendien is het vrij makkelijk om te schalen, laat 1 van de io/cache dies weg en je kunt een product uitbrengen met wat minder geheugenbandbreedte en wat minder cache, zonder een nieuwe chip te hoeven ontwerpen.
Als AMD met een chiplet ontwerp komt en Nvidia niet, Dan heeft Nvidia zeker een probleem met de huidige energie prijzen.

Ik heb zelf een 3080 laatste 10 jaar alleen maar Nvidia gehad. :*)
Het zijn niet perse de chiplets die bij AMD zorgen voor het lagere energie verbruik t.o.v. Intel bij de cpu's. Sterker nog, juist omdat ze chiplets gebruiken is het idle verbruik vaak hoger, omdat het fabric tussen de chiplets relatief veel verbruikt in die low power situaties. Dit is o.a. een van de redenen die AMD heeft aangegeven waarom ze voor laptop cpu's bijvoorbeeld (nog) geen chiplets gebruiken, maar monolitische cpu's.

De efficiëntie komt meer uit de architectuur en het productie proces, waar AMD (via TSMC in dit geval) zeker op gebied van productie proces een flink voordeel heeft t.o.v. Intel. Dat voordeel hebben ze niet t.o.v. Nvidia omdat ze beide bij TSMC produceren voor de komende generatie.

Neemt niet weg dat AMD nog steeds een (flink) efficiëntie voordeel kan hebben t.o.v. Nvidia, al zijn de geruchten daarover momenteel zo vloeibaar dat het nog niet duidelijk is wat het gaan worden, anders dan dat de verwachting is dat AMD en Nvidia beide een flinke stap maken qua efficiëntie, maar ook dat in beide gevallen de top modellen flink meer gaan verbruiken dan de huidige top modellen. Maar of dat 450W gaat worden zoals sommige geruchten geven voor AMD en Nvidia, of 450W voor AMD en 600W voor Nvidia, of iets compleet anders er tussenin is nog niet duidelijk.

[Reactie gewijzigd door Dennism op 10 juni 2022 09:14]

Het lijkt er gewoon op dat AMD een Ryzen sprong gaat maken met een chiplet ontwerp op GPU gebied.
En zoals jezelf zegt Dennis dat kunnen ze veel goedkoper doen dan NVIDIA. ;)
Hoeft niet perse. Mijn pc staat zon 14 uur per dag aan maar een paar uur daarvan is gaming. Als het idle verbruik hoger uit valt zoals bij de AMD cpu's kan dat gemiddelde best wel eens niet heel veel uit maken. Als je 8 a 10 uur per dag meer idle verbruik heb maar 2 a 4 uur minder piek verbruik kom je onder de streep niet echt beter/slechter uit.

Nou geeft mijn 6900XT een idle verbruik aan van 5 watt maar dit is niet correct. De hele gpu gebruikt flink meer in idle (22 watt) door de pcb en alles wat daarop nog verbruikt. (Gemeten door de kaart uit de pc te trekken).
Ik weet echter niet wat een Nvidia kaart van de huidige generatie gebruikt maar weet dat mijn 1070 hiervoor idle 11 watt was.
Idle doet mijn 3090 ook zo rond de 21W(bij 28C en de fans draaien dan ook niet). Is wel sterk afhankelijk van de resolutie en vooral ook refreshrate. Bij 60Hz valt ie bij 5120x1440 terug naar ca 16w.
Klinkt misschien sarcastisch, maar zou ons stroomnet straks wel al deze apparaten wel aankunnen? Misschien wordt straks al deze high end computers verboden in Nederland...gezien al die energieproblemen.
Voor zover ik weet is de trend voor de meeste producten juist dat ze steeds wat zuiniger worden. En daarnaast wordt ook steeds meer draadloos waardoor de verbruikspieken door een accu worden geleverd die daarna doorgaans in een relatief traag tempo opgeladen wordt.

Dat zal vast grotendeels teniet worden gedaan doordat er ook steeds meer apparaten gebruikt worden. En dan wellicht ook door de sinds kort omgekeerde trend dat (high-end) gpu's (en cpu's) juist weer ieder jaar meer lijken te gaan gebruiken.
Dat laatste bedoel ik precies. Off topic misschien, de 12900 van Intel verbruiken ruim boven de 100 watt, exclusief de rest van een systeem..het is afwachten hoeveel deze gpu gaat verbruiken.
Zo breed kan je dat niet stellen, bij bepaalde workloads kan een 12900K inderdaad veel verbruiken, tot wel 241W, maar het is erg workload afhankelijk was deze daadwerkelijk verbruikt. De fout die vaak gemaakt wordt is dat consumenten (maar ook reviewers) enkel kijken naar maximaal verbruik en daar conclusies aan verbinden. Terwijl je eigenlijk het verbruik moet meten in de workload die je daadwerkelijk gaat uitvoeren om te bepalen welke cpu het meest efficient is.

Zie bijv. deze review van Igor https://www.igorslab.de/e...d-really-frugal-part-1/9/ , waar het verbruik in alleen gaming getest wordt. Ineens zie je dat de 12900K, 12700K en 12600K, die vaak te boek staan als 'groot verbruikers'in reviews en comments van mensen die alleen kijken naar maximaal verbruik ineens helemaal niet zoveel verbruiken in deze workloads en zelfs vaak (flink) efficiënter is dan de AMD tegenhangers, die normaliter als erg efficient gezien worden wanneer je kijkt naar maximaal verbruik.

[Reactie gewijzigd door Dennism op 10 juni 2022 11:07]

klopt, maar dan ga je er ook vanuit dat meer fps altijd beter is of nodig zijn...
Voor een computer is dat verbruik best veel, voor andere apparatuur in huis is het peanuts. Een beetje kookplaat doet een veelvoud, of heb je nog nooit op het label van een zonnebank of wasdroger gekeken? En de auto hier op de oprit trekt gewoon 11kW uit de muur. Daar kun je een kleine 100 12900's van laten draaien, als ik die 100 watt zoals voorgesteld, mag geloven. En die 11kW staat gewoon 5 uur lang "aan".
Het verschil zit hem hier in de gebruiksduur per dag. Ik denk dat mijn zoon op zijn super game notebook met los 32" scherm op een gemiddelde dag meer verbruikt dan alle apparatuur in onze keuken op een gemiddelde dag. Koken is meestal binnen een half uurtje klaar en dan staan ook de kookzones ook nog het meest van de tijd op 25% te draaien. Gamen neemt veelal 4 uur per dag in beslag en dan reken ik de weekenden en vrije dagen niet mee.
Maar het gemiddeld verbruik van de 14KW warmtepomp over een jaar lag in 2021 met 12KW per dag toch nog wat hoger. Gelukkig wekken onze zonnepanelen genoeg op voor beiden met gemiddeld 16KW per dag.
Zo gauw er een betaalbaar 20KW of meer home accupakket beschikbaar is lossen wij ook het probleem op dat wij de meeste stroom in de avond en nachturen verbruiken.
Behalve dan in de 4 winter maanden dat je niet genoeg zonne energie opwekt om je verbruik te dekken. Die periode heb je weinig aan je home accupakket. Die periode zul je toch de grid nodig hebben...
We hebben al sinds 2012 een nieuwe accu techniek. Waarom deze nog steeds niet gebruikt wordt, geen idee.

Dit (was) een nederlandse startup
https://www.store-dot.com/

Daarnaast heb je ook grafeen accu's.
https://www.kijkmagazine....echniek-supercondensator/

De prioriteiten zijn helaas nog steeds niet veranderd. Schijnbaar moet er eerst bedacht worden hoe we de burger gaan belasten.
In plaats van een complottheorie ("we moeten de burger belasten", trouwens, wat heeft de gemene overheid ermee te maken als een product niet uitkomt) kun je beter denken aan wat het verschil is tussen een idee en iets wat in het lab werkt, en een inzetbare technologie.

Misschien zijn die geweldige accu's niet stabiel over temperatuur. Of je hebt veel goud nodig om ze te maken. Of het vermogen is hoog, maar de energiedichtheid laag of andersom.
In persmededelingen worden altijd één of twee geweldige aspecten genoemd en de rest verzwegen of onder "dat lossen we binnen een jaar wel op" weggezet. Terwijl sommige problemen dan helemaal niet op te lossen zijn.
Ik neem aan dat je kWh (kilowattuur) bedoelt overal waar "KW" staat (met uitzondering van de warmtepomp, daar bedoel je kW).

KW betekent kelvin watt en dat is denk ik niet wat je bedoelt.
kW (kilowatt) is een eenheid van vermogen.
kWh (kilowattuur) is een eenheid van energie: 12 kWh per dag komt overeen met een gemiddeld vermogen van 0.5 kW, vergelijkbaar met gamen op een dikke game pc.

[Reactie gewijzigd door josh-hill op 10 juni 2022 21:51]

Ik ga mij nog wat distanciëren van enkel elektricitiet. Hier in BE is het netwerk zeker nog niet in staat om welke transitie dan ook op te vangen. Dus ik laat mezelf ook niet vangen.
Voor gaming gebruikt die helemaal niet ruim boven de 100 watt maar eronder. En dat is toch juist waar hij het meest voor gebruikt wordt.
Ook idle is hij zuiniger als een 5950x.
En met veel productiviteit workloads gebruikt hij wel meer (tot 245 watt) maar is hij sneller klaar dus per workload gebruikt hij dan weer niets meer als de 5950x.

Het lijken meer schokkende cijfers als je alle context overboord gooit maar onder de streep kan een intel 12900k afhankelijk van de workload zelfs zuiniger zijn.
over het algemeen wel eens met je punten. Bhealve dan dat de intel onder workload net zo zuinig is omdat hij sneller klaar is.
Als hij inderdaad 245 watt gebruikt onder full load dan kan ik me dat moeilijk voorstellen. Mijn 5950x is 140 watt onder full load en de workloads zijn meerdere uren. 8 uur zeg maar. De intel is echt niet 40% sneller.
Dat ligt aan de workload. In cinebench workloads is hij 55% sneller. Daarnaast kan je hem ook limiteren op 125 watt en verliest hij maar 5-10% prestaties en dan is hij dus nog efficiënter.
Maar er zijn ook workloads waar de 12900k gewoon trager is.

Het is dus erg lastig te zeggen zonder jouw specifieke workload te testen.
in welke cinebench workloads is hij 55% sneller? Het meeste wat ik kan vinden spant het erom en zijn ze min of meer gelijkwaardig kwa multicore score. Single core is hij inderdaad wel een kleine 20% sneller.

Als je veel fully load worloads hebt en een klein beetje "stroombewust" wilt zijn loont het zich inderdaad om de cpu een beetje te limiteren. Bij Intel maar ook bij Amd. Je verleest een beetje performace tegen een groter verschil in gebruik.
het is echt niet uniek of nieuw dat er CPU's zijn die meer dan 100 watt gebruiken hoor. Ook niet 150 watt.
Denk dat uiteindelijk alles relatief zal zijn. De nieuwe spullen zullen wellicht transistor/procedé-niveau efficienter zijn door het gebruik van het nieuwe TSMC 5nm proces maar dat wil niet zeggen dat als ze er meer op een chip plaatsen de boel inderdaad minder zal gaan verbruiken.

Als ik even een stukje van TechRadar mag aanhalen:
We do expect the new chips to offer a big boost in efficiency. Switching to a small manufacturing process will play a part in that. And AMD’s Executive Vice President, Rick Bergman, even before the launch of RDNA 2, said that RDNA 3 would offer a similar leap in performance-per-watt, which should mean they’ll be 50% more efficient than RDNA 2. That doesn’t mean they won’t still be power hungry, though, as RedGamingTech suggests Navi 31 cards should consume about 375W of power but could go as high as 450W.

We’ll have to wait and see how much of this turns out to be true.
Dat kan met de huidige energie-prijzen wellicht toch wat pijn in de portomonee doen :9
Je bedoelt die paar high end gaming pc's die in iedere woonwijk staan? Je doet nu net of iedereen er een heeft. 's Avonds knalt iedereen rond dezelfde tijd de elektrische kookplaat of oven aan, die heeft ook niet iedereen, maar daar zijn er magnitudes meer van en een oven/kookplaat trekt al gauw 2000-3000 watt per stuk als ze op een hoge stand staan. Gaat elke dag weer goed.
Gaming PC's zijn echt maar een klein druppeltje in piekverbruik.

Besef je ook dat de die grote zware videokaarten waar je zo over zit te stressen meestal 500+ euro kosten. Zelfs onder de gamers zijn ze heel, heel erg zeldzaam. Dat realiseer je je niet omdat ze veel in het nieuws komen op tweakers en youtube enzo, maar kijk eens naar de steam hardware survey. De gemiddelde gamer heeft een sub 150 watt videokaart.

Bovendien worden de meeste andere elektrische apparaten tegenwoordig zuiniger. Stofzuigers zijn een aantal jaar geleden begrensd, wasmachines en drogers zijn de afgelopen jaren sterk verbeterd in efficientie. Mensen gebruiken steeds vaker spaarlampen of ledlampen en er wordt steeds meer gedaan op mobile devices in plaats van desktops, wat ook veel efficienter is.

De kans dat game pc's verboden worden in nederland acht ik echt nihil. Hooguit komt er na een flink aantal jaar sudderen een wetsvoorstel vanuit de EU dat pc's ook een vermogenslimiet moeten krijgen zoals stofzuigers die hebben. Sinds europa een grote markt is, gaat het videokaart verbruik dan gewoon weer omlaag.

tl;dr
Je moet je wel blijven beseffen dat 800 watt, een flinke game pc eigenlijk helemaal niks is als je het over het elektriciteitsnet hebt.
Het is maar de helft van de traditionele grootverbruikers in huis en bijvoorbeeld een EV lader of frituurpan of kookplaat of oven trekt al jaren het vijfvoudige.
Een lasagna in de oven voor 45 minuten verbruikt net zo veel energie als een 500 watt gamepc die 5,5 uur vol aan het gamen is

[Reactie gewijzigd door youridv1 op 10 juni 2022 09:03]

dan kunnnen we allemaal massaal gpu's importeren omdat die unlocked zijn LOL
De fabrikanten hoeven dan alleen maar omlaag geklokte kaarten te verkopen, waarna de consument die meteen weer overclocked zodra de kaart in de PC zit.
fabrikant zal eerder omlaag klokken en het overklocken tegenhouden zodat ze hetzelfde product ook unlocked kunnen verkopen ;-)
Dat kunnen ze nu toch ook al doen, dus ik begrijp je niet helemaal.

Deze thread gaat toch over de situatie dat ze zelf geen inefficiënte GPUs meer mogen verkopen van de EU. De logische consequentie is dan dat ze de kaarten overclocked verkopen in de VS en elders, en hier underclocken met een grote knop waarmee je de kaart zelf weer overclocked.

Ze kunnen dan dezelfde prijs vragen, wat ze niet kunnen doen als ze kaarten verkopen die gelocked zijn op een lagere snelheid.
Voorlopig hebben consumenten helemaal geen energieproblemen mbt gebruik, enkel met teruglevering, zolang GPU's niet terug leveren zie ik voor consumenten dus helemaal geen problemen.
Definieer een high end computer...

Een 6800U (8 core CPU) met RDNA2 graphics trekt 20-25% van wat een PS5 trekt (max). Ik verwacht dat een theoretische 7800U met RDNA3 graphics ook zo weinig zal trekken. Mijn oude i7-5820K met GTX970 trekt toch echt meer dan dat.

En wil je dat ook verbieden voor het bedrijfsleven? Een doorsnee kantoor PC kan over het algemeen uit de voeten met een vrij zuinige machine, maar vaak staan daar nog behoorlijke energie slurpers. Een architect of engineer die niet fatsoenlijk met zijn CAD software kan werken lijkt mij ook een enorm issue...

Als energie consumptie zo een hekel issue wordt verwacht ik: a.) torenhoge energieprijzen (hoger dan dan de al hoge zestig cent per KW) en b.) dat ze eerder crypto mining verbieden dan 'high end PCs'...
Als het al verboden wordt, dan schuift het probleem op naar de Cloud (dichtsbijzijnde datacenter). Cloudgaming is inmiddels ook een grote business aan het worden. Dus, dan gaat het dichtsbijzijnde datacenter meer stroom verbruiken. Denk niet dat je dit soort ontwikkelingen kunt/wilt tegenhouden.
Het voordeel daar is dan centralisatie. Een datacenter is veel beter bereid op stroomverbruik dan een woonhuis. De meeste DCs die ik ken hebben 2 separate stroomaansluitingen van 2 aanbieders plus een aantal aggregaten als back-up. Bovendien is het veel makkelijker in te schatten wat het verbruik van een DC is (en hoe dat gaat groeien) dan van een woonwijk, dus dat is ook veel makkelijker voor een energieleverancier om op te anticiperen.
Hier in NL niet in de USA waar ze op een lager voltage werken wel. Daar kan een 3090TI systeem niet samen met bv een airco op dezelfde groep zitten want dan klapt die beveiliging er uit. Met de 4090 Ti wordt dat nog meer een ding. Hier in Nl gaat dat tot nut toe wel je kan 3500 watt aan een groep hangen.
Klopt, al is dat ook hier normaliter geen best practise. Ook hier wordt aangeraden om de zwaardere verbruikers op een eigen groep te zetten, denk aan ovens, wasmachines, airco's e.d.
mja, ik draai mijn 3090 ti op max 250 watt (underclocked en undervolted) Super efficient want veel cuda cores die op relatief lage frequentie draaien
Zo kan je dat inderdaad wel oplossen maar stock vreten ze aardig wat.
Ik heb mijn 6800XT ook undervolted maar wel iets overclocked.
Als ze oude GPU's vervangen, en het verbruik van deze GPU's niet per se hoger zijn dan de oude GPU's, dan verandert er niks aan het verbruik natuurlijk.

Daarnaast is het verbruik van game PC's, op het totale energie verbruik van Nederland, echt heel klein. Dus al zouden de nieuwe 2x zoveel verbruiken, dan doet dat alsnog vrijwel niks op het totale energieverbruik.
Het percentage gamers wat een high end gpu heeft is extreem klein. Steam geeft af en toe wat statistieken weer over hoeveel procent van hun gebruikers een nvidia/amd gpu heeft, welk type etc. De gebruikers met een 2080ti/3080/3090 is slechts een paar procent. Ik woon zelf in een rustig dorpje waarvan ik vermoed dat ik de enige ben met een high end GPU. Al zou dat 5x zoveel zijn dan is dat nog geen belasting op het energienet.
Vergeleken een inductie kookplaat is een high end game pc een lachertje.
Niet alleen inductieplaat, maar ook Wasmachine, droger, afwasmachine en stofzuiger. En vergeet bij een hoop mensen de verwarming niet of de airco.
De consumentenhuishoudens zullen nooit het probleem zijn in de energiecrisis, dat zijn altijd de grootverbruikers. Of dat nu over stroom, gas, uitstoot, of autobrandstof gaat, de consumenten zijn daarin een dusdanige kleine groep dat die nooit het grootverschil maken.

Maar stel dat zou wel zo zijn, dan is het doorgaans zo dat -zoals anderen al zeiden- er al jaren een grote push is op zuinigheid (gestuurd door politieke en publieke druk, uiteraard), en het consumentengebruik dus in het ergste geval gelijk zal blijven, zo niet zal dalen. Praktijkvoorbeeld van mijzelf, sinds Februari is mijn stroomverbruik gedaald van 160kWh naar 125kWh per maand, wat is er in de laatste week van Januari veranderd? Ik heb een 24/7 Mac Mini thuisserver uit 2018 (Intel Core i5) vervangen door een Mac Mini met M1-processor. Dat een GPU onder piekbelasting misschien een hoger verbruik zal hebben kan makkelijk gecompenseerd worden met een CPU met "efficiency cores." etc.

Hoe dan ook, voor het stroomnet zal een kWh hier meer en daar minder netto niks gaan uitmaken.

[Reactie gewijzigd door Aiii op 10 juni 2022 09:48]

Een high end GPU verbruikt nog steeds een stuk minder dan de meeste huishoudapparatuur, dus zolang je nog mag koken en wassen, hoef je geen paniek te zaaien over PC's.
Met de transitie naar (hybride) warmtepompen en laadpalen voor EV's, zijn gpu's natuurlijk maar een schijntje van het gebruik.

Met een vermogen van 3-12 kW voor warmtepompen en 11kW voor laadpalen, is 500W voor een gpu niet zo heel veel.
Er zijn geruchten dat Ryzen 7000 APUs met RDNA3 uit gaan komen. Ik ben erg benieuwd wat hier de performance van gaat zijn.
Denk dat je van APU's niet meer echt kan spreken als een onderscheid. Alle Ryzen 7000-series zullen namelijk een GPU aanboord gaan hebben net als de Intels dat hebben (tenzij je heel bewust voor een F-sku kiest).

Meeste geruchten die ik heb gehoord hebben het over een RDNA2 dat uit 2 ComputeUnits zou bestaan. Dit zou voor de Mendocino-APUs en ook voor de Ryzen 7000-series het geval zijn. De APU in de Steamdeck is goed voor 8 ComputeUnits. De performance hiervan zal dus minder zijn dan een Steamdeck.

Zie ook: Tweaktown - AMD RDNA2 GPU 'is standard' on ALL next-gen Ryzen 7000 series CPUs

Wat ik misschien nog wel zie gebeuren is dat ze op een gegeven moment een refresh uitbrengen die RDNA3 ipv RDNA2 gebruikt.
Het idee daarvan was volgens mij dat ze een igpu integreren puur voor simpele image output. Daarnaast komen als het goed is ook nog 'apu's' uit, die een fatsoenlijke igpu hebben waarmee je simpel kunt gamen, a la de 5600g/5700g.
Inderdaad, Raphael en Dragon Range zijn twee verschillende producten.
Denk dat je van APU's niet meer echt kan spreken als een onderscheid. Alle Ryzen 7000-series zullen namelijk een GPU aanboord gaan hebben net als de Intels dat hebben (tenzij je heel bewust voor een F-sku kiest).
Er is nog wel duidelijk een onderscheid, de eerste desktop-GPU's hebben de GPU in de IO-die zitten, terwijl de GPU bij de huidige APU's (5600G, 5700G en alle mobiele APU's) een extra chiplet is. In de IO-die wil je niet al te veel ruimte verspillen aan niet-cruciale zaken en daar zie je dus inderdaad maar 2 CU's, terwijl de mobiele Ryzen 6000 (Rembrandt) al 12 CU's heeft.

Ik zou dus verwachten dat we eerst desktop-CPU's zien met 2 CU's in de IO-die, en dat een tijdje later de mobiele CPU's volgen met 12 (of zelfs meer) CU's. En misschien nog later diezelfde CPU's op een desktop-socket, net zoals de 5700G. Al is dat laatste bij de afgelopen ryzen-generaties een beetje een onvoorspelbare bonus, zeker nu andere CPU's op desktop ook al IGP's lijken te krijgen en er dus minder noodzaak is voor een extra APU-lijn voor desktops.
Het is niet omdat AMD nu al hun CPU's uitrust met een paar CU's, dat AMD geen CPU's meer gaat uitbrengen op termijn die meer op graphics zijn gericht met meer CU's (wat tot nu dan APU's waren).

Want de 7000 serie CPU's met die 2 RDNA2 CU's, worden op vlak van graphics echt wel een achteruitgang ten opzichte van de 5000 serie APU's met 7/8 Vega CU's, ook al is dat een oudere architectuur. Zeker voor laptops heb je toch echt nog CPU's nodig met meer geïntegreerde grafische kracht.

Ik hoop het in elk geval, gebruik momenteel een Ryzen APU in mijn HTPC en sta niet te springen om een dedicated GPU nodig te hebben voor wat basic gaming.
Denk dat je van APU's niet meer echt kan spreken als een onderscheid. Alle Ryzen 7000-series zullen namelijk een GPU aanboord gaan hebben net als de Intels dat hebben (tenzij je heel bewust voor een F-sku kiest).
Er is zeker wel onderscheid.

- Ryzen 7000 'Raphael' is een chiplet-design met een langzame iGPU in de I/O die
- Ryzen 7000 'Dragon Range' is een monolithisch APU design met snelle RDNA2 graphics

Qua gaming power zijn het twee verschillende producten.

Die laatste zal in eerste instantie in laptops gebruikt worden, maar kan later ook nog naar de desktop komen. Dat is best wel gebruikelijk bij AMD.

[Reactie gewijzigd door XWB op 10 juni 2022 13:08]

Afhankelijk van het aantal Compute Units waarschijnlijk goed vergelijkbaar met de grafische prestaties van de Steam Deck, maar krachtiger wat betreft CPU. De Steam Deck heeft een APU gebaseerd op Zen 2 met 8 RDNA 3, nee RDNA 2 Computer Units.

edit: oeps, Steam Deck is nog gebaseerd op RDNA 2. Prestaties van een Ryzen 7000 APU met RDNA 3 zouden dus nog wel eens flink beter kunnen zijn. Ruim voldoende voor 1080p gaming met redelijke settings lijkt me.

[Reactie gewijzigd door rbr320 op 10 juni 2022 10:54]

Dat gerucht gaat alleen over de Phoenix variant, Raphael krijgt RDNA2 graphics (aldus AMD).

[Reactie gewijzigd door XWB op 10 juni 2022 13:16]

AMD heeft al aangegeven dat dit niet geschikt is voor gamen. Logischerwijs is dit vooral bedoelt voor de zakelijke markt, waar iGPUs heel belangrijk zijn.
Uiteindelijk ligt de toekomst meer bij de dlss achtige ontwikkeling.

Videokaarten qua kracht is leuk, maar dlss en amd’s variant en eventuele andere varianten gaan het verschil bepalen.

Als je ziet hoe nvidia dat tot een ding heeft gemaakt waarmee je ook echt minder kracht nodig hebt met sterk verbeterde prestaties zonder verlies van grafische kwaliteit en soms zelfs vooruitgang, is ongelooflijk.

AI heeft de toekomst en niet zozeer nog krachtigere videokaarten.
niet helemaal. DLSS is nodig o.a. om meer (voldoende) FPS te genereren op machines die t normaal niet trekken. Als je een videokaart zou hebben die gewoon een stuk sneller is, heb je geen DLSS nodig.

Omdat het een upscaling techniek is zul je altijd kwaliteit verliezen.

Ik vind t altijd mooi als men in de 'klassieke' manier 3d technieken vergelijkt zo van op t linker plaatje heb je zonder feature X en rechts met feature X, vervolgens zie je amper verschil maar t kost wel 20fps ofzo. Maar met DLSS upscaling zie je nog veel meer verschil maar dan opeens vind iedereen t prima.
Omdat het een upscaling techniek is zul je altijd kwaliteit verliezen.
Dat is niet waar, de kwaliteit kan verbeteren. Native renderen zorgt meestal voor serieuze aliasing en voor een acceptabel beeld moeten we meestal al een reparatie uitvoeren, namelijk anti-aliasing. DLSS is sterk vergelijkbaar met temporal anti-aliasing en kan de kwaliteit dus verbeteren ten opzichte van native. Het kan ook vervelende moire-effecten tegengaan en daarmee voor een mooier beeld zorgen.

De hoogste kwaliteitsinstelling van DLSS/FSR 2 kan meestal gewoon concurreren met native.
Als je een videokaart zou hebben die gewoon een stuk sneller is
Dat is pas waar als je een videokaart hebt die zo snel is dat hij ook daadwerkelijk levensecht kan renderen in real time. Daar zijn we nog lang niet.

Op dit moment is er sprake van een beperkt render-budget en binnen die beperking gebruiken we verschillende trucs om een zo mooi mogelijk beeld te renderen en toch een hoge FPS te halen. Binnen dat budget kan het gebruik van DLSS/FSR 2 voor een beter resultaat zorgen dan 'native' (wat feitelijk helemaal niet levensecht is, maar slechts een benadering met wat trucs).

Dat het nog veel mooier kan als je 1 frame per 10 minuten rendert is totaal niet relevant, want dat is niet speelbaar. Het enige dat relevant is hoe je het beste resultaat haalt bij een acceptabele FPS.
Dat we dankzij Nvidia nu upscaling hebben is een feit maar ik zie beide FSR en DLSS in huidige vorm niet als een volwaardige optie.

Het valt of staat namelijk compleet bij implementatie en dat lijkt nog lang niet een standaard iets gezien dat het gros van de nieuwe games die uit komen het nog altijd niet hebben.

Dus wat upscaling vind ik momenteel RSR de enige waardevolle toevoeging. Met wat custom resoluties is het de enige upscaling techniek die op ALLE games werkt. NIS is qua beeldkwaliteit een te grote stap terug maar RSR geeft wel behoefte aan custom resoluties want van 1080p naar 1440p is een onacceptabel grote stap. 1224p/1296p zijn echter meer acceptabele schaling resoluties.

Kortom ze zullen beide wat met de implementatie moeten doen. Of dat game implementatie bypassen is of meer samenwerking met game makers maakt niet uit maar zolang ze niet breed geïmplementeerd worden vind ik het geen belangrijke meerwaarde meer.
Als AMD met een goed chiplet ontwerp komt is dat misschien ook de reden dat :z NVIDIA zo hoog inzet op een hoog stroomverbruik want ze weten dan dat ze niet kunnen winnen.
Winnen? Volgens mij heb jij de laatste paar jaar geslapen.

[Reactie gewijzigd door sowieso123 op 10 juni 2022 08:48]

Wat met intel gebeurde kan ook met nvidia gebeuren.
Ja, ik las niet goed. 8)7

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee