AMD bevestigt dat RDNA 4-gpu's begin 2025 uitkomen

AMD heeft bevestigd dat het van plan is om de eerste gpu's met RDNA 4-architectuur begin 2025 uit te brengen. Daarbij gaat het waarschijnlijk om de Radeon RX 8000-serie. Eerder meldde Tweakers al dat AMD die dit jaar niet meer zou gaan uitbrengen.

AMD-directeur Lisa Su zei tijdens de bespreking van de kwartaalcijfers dat het 'op schema ligt om RDNA 4 begin 2025 uit te brengen'. De gpu's moeten volgens AMD betere prestaties bieden op het gebied van raytracing en bovendien nieuwe mogelijkheden bieden op het gebied van AI. Welke dat zijn, zegt AMD nu nog niet. Tweakers schreef al in juni dat de RDNA 4-gpu's dit jaar niet meer zouden verschijnen.

AMD haalde een 18 procent hogere omzet en die kwam uit op 7,8 miljard dollar. Het netto-inkomen steeg 158 procent en kwam uit op 771 miljoen dollar. Vooral op gebied van datacenters ging het goed, zo meldt AMD. De omzet uit gaming daalde fors, mede door gedaalde leveringen aan Sony en Microsoft voor PlayStation en Xbox.

Door Arnoud Wokke

Redacteur Tweakers

30-10-2024 • 08:49

79

Reacties (79)

79
79
35
2
0
34
Wijzig sortering
Ik ben ook wel benieuwd, zit nu met de 7900 xt, maar met wukong baalde ik wel van de mindere raytracing van deze kaart, hopelijk wordt het de 8900 xt(x) mn opvolger :-)
@polord1 Ik begrijp je punt, maar de 7900XT is een beest van een kaart en trekt Wukong voor de volle 100%. Ja, Raytracing is een dingetje, maar zoals Majestici hierboven al stelt, dat is echt miereneukerij over 1% winst. Het verschil is nagenoeg niet te zien, hoe groot/goed/snel je beeldscherm ook is.

Ik heb het spel gespeeld met een RTX4090, i9-14900k en 128gb DDR5 (ik heb het ook niet verzonnen, maar zij heeft het werkgeheugen nodig voor haar werk in Catia). Raytracing voor de volle 100% aan en ik zie nagenoeg tot geen verschil met een 7900XT. Ook zij niet, terwijl zij een hoog opgeleide is in de wereld van de grafische toepassingen. En ze gebruikt een 49 incher SuperUltraWide. Dus tja. Ik zou, afgezien van het ding of je het geld ervoor (over) hebt of niet, het gewoon bij de 7900 XT houden.
Nou, ik heb die benchmarktool gedraaid vele keren(wukong). en bij het beginpunt vd bench nadat je onder de brug aankomt zie je rechts bomen bij zon rots, zonder rr zijn de schaduw blurrig, maar met rr aan die je de schaduwen vd takjes bladeren supermooi. Vanaf dat moment had ik toch gehoopt op betere rr bij de amd kaarten in de toekomst

Maaar het ziet met de 7900 xt nog steeds mooi uit hoor ;-)

[Reactie gewijzigd door polord1 op 30 oktober 2024 11:39]

Tim van Hardware Unboxed had laatst een hele video over de verschillen van Raytracing. Nou je zat soms echt te pixel-peepen om het verschil te zien, en dan nog was niet altijd duidelijk of het verschil beter was. Techniek is er zeker nog niet om je keus op te bepalen.

[Reactie gewijzigd door Majestici op 30 oktober 2024 09:30]

Voor mensen die geinterreseerd zijn, de video in kwestie: YouTube: Is Ray Tracing Good?

Voor mensen die niet 43 minuten willen kijken, hier de timestamp (37:00) van de resultaten.

TL;DW is een beetje: Games waar RT omheen gebouwd is (Cyberpunk 2077, Alan Wake 2, Control, Metro Exodus: Enhanced, Wukong) zijn het meest gebaat bij raytracing.
Maar een zeer groot scala aan games hebben weinig, geen, of zelfs een verslechtering van de kwaliteit omdat heel veel developers gewoon geen tijd/resources gaan besteden aan het invoeren van path tracing, ook omdat het gewoon zelfs op de meeste Nvidia kaarten een gigantische resource hog is, en daarbij je een groot deel aan gamers die AMD gebruiken (en console gamers) in de kou laat staan.

Een Cyberpunk 2077 RTX Overdrive is super cool en mindblowing om te zien, maar dan moet je ook echt een kaart van 2 ruggen hebben om het ook met een beetje lekkere framerate te draaien.

Op dit moment, naast die aangegeven games die gebouwd zijn op path tracing, is klassieke rasterization nog steeds de leidende technologie.

[Reactie gewijzigd door deknegt op 30 oktober 2024 09:54]

Heb ik gezien maar in het geval van Wukong werd er gesteld dat RT wel degelijk uitmaakte, al was het in sommige scenes minder te zien.
Je moet niet alles geloven wat er gezegd wordt is mijn ervaring. Nu ben ik wat ouder en zie de verschillen misschien al minder daarom laat raytracing mij eerlijk gezegd koud, en bovendien kost het dan ook nog teveel rekenkracht/Stroomverbruik. En dus fps wat ik persoonlijk in games nog wel zie en dus belangrijker vind.
Ik heb die beelden natuurlijk zelf ook gezien en in sommige gevallen zien de games er echt een stuk beter uit, iets als Cyberpunk met RT Overdrive is van een heel ander niveau.

Maar eerlijk gezegd heb ik met veel games al moeite om het verschil tussen medium graphics en ultra graphics te zien tenzij er echt grote verschillen zijn. Eenmaal in de game zelf let ik er helemaal niet meer op tenzij de graphics zo slecht zijn dat het gaat storen.

RT is er voor de long run. Nu trekt Nvidia de kar op pc waardoor het relatief langzaam gaat. In de toekomst zal het alleen maar meer worden.
Lang leven de lage standaarden, maakt het leven een stuk goedkoper :Y) .
Pas wanneer je 2 schermen naast elkaar zet ga je een verschil zien.
Met 1 scherm ben je binnen paar seconde gewent en weet je niet beter.
Lage standaarden voor een hoogwaardig leven :D

Ik heb nog gegamed op Atari's, die dingen hadden een resolutie van 8x2, een negatief aantal kleuren en 60 frames per jaar. Als ik destijds had geweten dat ik tegenwoordig "zoek de verschillen" speel op een 4x zoom van een 4K beeld, pfff.
Ik ben zelf overgestapt van 7900XT > 7900XTX > 4080S

RTX kan me gestolen worden.

Nvidia undervolted verbruikt echter ZOVEEL minder stroom dan die XTX.

~250 watt op 1440p maxed vs XTX die constant 360 (of 420 als je gaat tweaken ;)) aantikt. Ook in lagere powerstages is het verschil groot (bijv 50-60% gebruik). In de paar games die ik zelf getest heb is mijn FPS hetzelfde voor aanzienlijk minder stroomverbruik. Benchmarks geven de XTX vaak de upper hand in puur raster, maar merk er zelf weinig van.

Ook stock verbruikt het duidelijk minder al zal de 4080S dan ook sporadisch 300+ aantikken

Normaal zou je dit op lossen met een undervolt @ AMD. Dit ging ook prima met de 6000 serie...

echter;
Met het nieuwe boost algoritme zijn de amd kaarten niet meer te echt undervolten voor stroom vebruik. Ja, je kan wel een lager voltage instellen maar dan boost de kaart gewoon harder omdat meer power/heat budget beschikbaar. Het werk net zoals de Ryzens eigenlijk. Hij wil altijd maximaal.

Je kan TDP hardlimiten (ook maar beperkt tot 290-300watt minimaal in de radeon software) maar dan verlies je echt performance en hij verbruikt alsnog meer dan de groene meneer.

Tel daarbij op de vele gevallen van paste pumpout en hoge hotpots door de vorm van de XT en XTX chip.. maar daar kom je ook pas achter als je de kaart een tijdje hebt.

Maw: RTX is imo niet de enige reden om voor Nvidia te gaan. Ben er zelf ook geen fan van hun praktijken en heb eigenlijk al jaren AMD. Maar die viel me toch tegen dit keer.


Ik hoop van harte dat AMD met echt iets goeds komt in de midrange en iedereen kan profiteren :)

[Reactie gewijzigd door junneh op 30 oktober 2024 16:32]

Dat dus. Met vergelijkingsmateriaal en stilstaand beeld zie je de verschillen vaak prima. Maar zodra ik me weer focus op de gameplay en de beelden met hoog tempo voorbijvliegen, vallen al die verschillen mij in ieder geval al nauwelijks meer op. Zeker raytracing niet. Resolutie valt me nog wel op en zaken als draw distance irt detail. Maar verder..? Dat is ook de reden dat ik al jaren op midrange spul game, meer heb ik gewoonweg niet nodig. Voor het verschil in prijs kan ik wat extra's doen op een mooie vakantie ofzo 😀. Dat blijft me veel langer bij :)
Hij zegt dat hij het ziet en dat het uit maakt. Moet hij zijn ogen niet geloven?

Ik sta niet op raytracing, maar soms is het wel zonde dat het er niet is. Voor titels als GTFO, Inside, daar waar het draait om schaduw en licht, daar heeft het vind ik de meeste meerwaarde en zou het goed werken (zeker gezien de bugs met licht die GTFO bijvoorbeeld nog heeft en die niet echt op te lossen zijn). In Cyberpunk is het een duidelijke upgrade.

Voor iets als Limbo, Jumpdrive, Hue, Nebulous, Payday, daar maakt de stijl het minder gepast en zie ik 0,0 meerwaarde.
Zelfs side by side zie ik het simpelweg niet, zelfs niet als ik er op let. Laat staan tijdens gameplay. Mijn 6800XT draait gewoon nog alles wat ik er tegenaan gooi op 1440p.

[Reactie gewijzigd door iqcgubon op 30 oktober 2024 10:33]

Die video van hierboven had ik de A-B vergelijken wel allemaal goed, maar nogmaals verschil =/= beter of extra dieptegang in de game. Tevens worden er in de game via rasterization bepaalde scenes gemaakt die met accuratere belichting te donker of te licht worden. Je moet de game dan echt van de grond op maken met gebruik van GI/Raytracing om het echt te laten werken. En dan nog kan het zo zijn dat je een hoop extra resources moet gebruiken om dezelfde scene te creeeren.

En heb zelf ook 6800XT, zodra ik geen RT aanzet draait alles prima op UWHD
Dat snap ik nooit. "Ik zie het verschil niet. Het is er niet."

Ik zie heel duidelijk het verschil in titels als Wukong, CP2077, Alan Wake. Doet mij denken aan iedereen, ook op tweakers, die beweert: Tussen harde schijf en ssd merk ik niks, er is geen verschil.
Ik zeg toch niet dat het er niet is? "IK zie het niet" is een persoonlijke observatie. Maar als mensen hun fps compleet de grond in willen drijven voor wat mooiere lichtjes moeten ze dat zeker doen. Ik disable het gewoon en geniet zo wel van het spel
Helaas heeft AMD aangegeven zich momenteel niet op de high-end te focussen...
Ik heb dezelfde kaart maar ik ben bang dat als we komend jaar willen upgraden dat we naar Nvidia uit moeten wijken :|
Opzich is de 7900 xt wel krachtig (we blijven wel voorlopig wel op de 4k max). Enkel als rr een flinke boost krijgt met de 8000 serie, zou mooi zijn. Wel zullen zien :-)
Een 7900XT(X) variant met betere ray tracing, 20/24gb Vram, minder energie slurpend (2x6 pins in plaats van 3x6), tegen een zachtere prijs.

Prima. Kom maar op. Voor 1440p zou het een beest zijn.

Dat ze niet voor high-end gaan, betekend nog niet dat ze niet op de 7900XTX zullen verbeteren. Maar niet met 20-30%
Er komt van deze generatie geen flagship uit. AMD gaat zich focussen (althans voor deze generatie) op het midden segment. Dus 8700 en misschien (en dat verwacht ik niet) 8800 als maximum. Ze gaan waarschijnlijk wel een stukje sneller en efficiënter zijn, ook in Raytracing, maar de 8700 zal ongeveer presteren als een 7900 XT ofzo.

Ansich ook wel te begrijpen. Flagships zijn duur (zowel om te maken als te ontwerpen) en worden niet zo veel verkocht. De echte winst zit in het midden segment. Daar kan AMD ook het meeste groeien. Mochten ze daar een hit scoren? (Efficiëntie, prijs en prestatie) dan hebben ze het meeste te winnen.

https://www.tomshardware....trategy-for-gaming-market
Ik ben ook wel benieuwd, zit nu met de 7900 xt, maar met wukong baalde ik wel van de mindere raytracing van deze kaart, hopelijk wordt het de 8900 xt(x) mn opvolger :-)
Amd ging deze generatie niet met top end kaarten komen zeggen ze. Ik verwacht geen echte upgrade van een 7900xt van AMD
Wat ik toch zo fantastisch vind aan de mensheid is dat wij elk jaar hardware sneller en beter kunnen maken alsof er geen limit is.
20 jaar geleden had je tussen generatie 50 - 100% snelheidswinst, tegenwoordig is het 5-20% snelheidswinst...
Toen zaten we ook op de 200 nm (pakweg). Nu is het wat minder makkelijker om kleiner te gaan denk ik
Ja de enorme prestatiewinsten van toen zijn verdwenen voor de CPU's. We moeten nu blij zijn met 10 - 20% verbetering tov de vorige generatie. Dat is onvoldoende om de mensen over de streep te trekken om een nieuwe systeem aan te schaffen.
In plaats van revoluties zijn het nu allemaal 'beetjes' geworden. Iets meer cores, iets sneller geheugen, iets hogere kloksnelheid, misschien iets minder verbruik, etc, etc. Al die beetjes zorgen op den duur wel tot veel snellere systemen maar van de ene generatie op de andere maakt het niet zoveel uit.
Waar nog wel enige progressie in zit zijn videokaarten. Daar is nog veel prestatiewinst te behalen door veel meer cores, inwendige optimalisaties, meer geheugen en dan vooral sneller geheugen.
Of 0% zoals bij de 7800XT
Omdat in deze kapitalistische maatschappij consumerism heerst.
Maar we mogen niet vergeten dat we nog steeds stappen vooruit maken op vlak van technologie, en die moet ook gewoon gefinancierd worden.
Maar als doorsnee consument voel je dit heel goed aan de stijgende prijzen.
Ik ben ontzettend benieuwd welke GPU's er gaan komen. Een 8800xt met vergelijkbare prestaties als een 7900xtx zou mooi zijn, maar dan een stuk efficienter, en goedkoper. Al ben ik bang dat het meer op een 7900xt gaat lijken qua prestaties.

ik denk dat ik binnenkort de 7900xtx maar bestel, die kan alles op 1440P makkelijk hebben de komende jaren, en ze beginnen al mooi in prijs te dalen.

[Reactie gewijzigd door Sanderbofficial op 30 oktober 2024 10:40]

Waarom ben je daar bang voor? Meestal is het verschil echt gigantisch tussen generaties...
Verschil tussen generaties is al een tijdje niet zo heel groot meer.
Zowel bij Nvidia als AMD lopen ze nu tegen grenzen aan, dus gigantische verbeteringen hoef je niet te verwachten. Daarbij komt heeft AMD al aangegeven dat ze zich niet meer op de highend markt gaan richten. Als ze enorme prestatiewinsten zouden kunnen halen dan zou het niet logisch zijn om de highend markt achter zich te laten.
Er is wel degelijk nog sprake van flinke sprongen per generatie (kijk maar naar de 3090 -> 4090), echter is dit tegenwoordig voorberhouden aan de absulute high-end kaarten die aanzienlijk meer kosten dan een generatie geleden.

De 3000-serie is de laatste die echt een flinke sprong heeft gemaakt en waar je voor €500 (adviesprijs) een kaart had die zich kon meten met de beste kaart (2080ti) van de generatie daarvoor.

Ik denk dat de reden dat AMD de high-end markt laat zitten een heel eenvoudige reden heeft: ze kunnen geen concurrerend product tegenover de 5090 zetten. En als ze dat al doen dan gaat nvidia op prijs concurreren waardoor het voor AMD waarschijnlijk een verliesgevend verhaal gaat worden.
Grote sprongen ja zeker, maar niet vanwege een gigantische sprong in efficiëntie.
De grote sprongen die gemaakt worden (en dat is eigenlijk met name alleen bij de 3090-4090) is vooral door het maken van veel grotere chips met een veel hoger verbruik als gevolg. Dat is waar ik op reageerde.

Het feit dat AMD afziet van de highend markt zegt dat zij niet mee willen in de trend van grotere chips met veel hoger verbruik en dus zie ik geen grote jump in prestaties tegen een zelfde of minder vebruik in de volgende generatie. Ik hoop dat ik het mis heb, want het verbruik loopt echt de spuigaten uit.
AMD wordt op GPU gebied een steeds kleinere speler. Een blik op de steam hardware survey laat dit duidelijk zien. Diezelfde survey laat ook zien dat het gros nog steeds mid-end gpu's heeft en daar het meeste geld in zit. Laat dit nu net het segement zijn waar AMD (nog) wel concurrerend is.

AMD moet natuurlijk een reden verzinnen om niet mee te doen met high-end en ze zullen nooit zeggen dat ze nvidia niet bij kunnen benen.
De reden is dat beleid van productie efficiëntie.
Prestige top kaart is dure investering. Maar als die de kroon niet pakt en of lager gepositioneerd wordt. Zijn de marges laag. Dan blijft pro sector over.
Naast dat in dark ages radeon afdeling gekanabaliseerd werd.
Alle resources in de Zen poging. Dat geeft een zeer breed gebied achterstand waar je heel moeilijk uitkomt. Om daar uit te komen moet enorme kapitaal investeren en vele jaren duren eer dat ook weer terug verdiend. Intel liet zien met ARC dat zo stap aanzienlijk is
Plus het feit dat nvidia enorm veel resources heeft die ze primair in AI accelerators kunnen stoppen zoals hun GB200 en H100/H200 kaarten. De Geforce (en Quadro) kaarten zijn daar weer een afgeleide van.
Kort door de bocht liggen een AI-accelerator en GPU zoals de Geforce veel dichter bij elkaar dan een AI-accelerator.

AMD heeft die luxe die nvidia heeft niet waardoor ze heel veel resources in een, zoals je zelf al zegt, "prestige" kaart moeten steken waarbij het nog maar de vraag is of ze het gaat lukken. Mocht het al lukken dan verlaagd nvidia simpelweg hun prijs om alleen op prijs al (flink) concurrerend te zijn.

En Intel heeft op dit moment praktisch geen enkel product echt goed voor elkaar. ARC kan denk ik wel gezien worden als een flop en ook op het gebied van CPU's zijn ze inmiddels flink ingehaald door AMD.
Denk dat vergist nv gebruikt de nieuwste en duurste nodes dat geeft grotere kansen om met bigchip kroon te pakken en betere mobiel gpu.
Goedkopere nodes kan kroon vergeten en mobiel onzuinig
En er is geen voeding die de AMD kaart kan voorzien van stroom :+ .
Als de 5090 al 600 wat gaat verbruiken dan zit de AMD van het zelfde kaliber daar dik boven
Ik denk dat de reden dat AMD de high-end markt laat zitten een heel eenvoudige reden heeft: ze kunnen geen concurrerend product tegenover de 5090 zetten.
Ik denk dat als AMD zou willen ze echt wel een concurrerend product op de markt kunnen brengen tegenover nVdia's 5090, het is gewoon meer cores toevoegen. De reden zal eerder ergens anders liggen, bv verbruik of minimale omzet uit die kaarten.
Zo makkelijk is het niet. Kijk naar hun ray tracing performance. Die ligt gewoon 2 generaties achter. Ook is DLSS (flink) superieur aan FSR.
Nee nv gebruikt duurdere nodes meet tranistors die kan toewijzen aan rt tensor hardware. Hoop nv software stack leund daarop.
AMD mist dat dus gelijke kaart kwa hardware moeten ze al lager prijzen
Goedkopere node maakt onzuiniger minder transistor density.

Nv heeft 1 architectuur voor pro en gamen. Voor gamen wordt de prostuf ook gebruikt software features. AMD mist dat
Het verschil tussen de 6800XT en 7800XT is marginaal en soms zelfs minder. Zo ook bij de NVIDIA Super uitvoeringen die altijd later komen. Minimale verschillen qua performance.
Dat komt vooral omdat de 7800XT onderhevig is aan upselling door AMD. Technisch gezien was het passender geweest had men deze chip als 7700XT uitgebracht. Hetzelfde met de 7900XT als 7800XT.

Door de huidige positionering heeft men de GPU's echter duurder in de markt kunnen zetten, met als negatief gevolg dat de prestatiewinst van kaarten op hetzelfde niveau, maar dan een generatie nieuwer, minimaal was.

De vraag is dus wat AMD met de nieuwe generatie gaat doen. Het is namelijk afwachten in hoeverre AMD een concrete winst weet te realiseren door technische verbeteringen. Aan de andere kant lijkt het me sterk dat men een chip die je in het verlengde van een 6700XT zou kunnen plaatsen straks in een 8900XT zult gaan vinden. Dat zou namelijk een uitholling zijn van hun imago.

Ik hoop eerder op een RX480 ervaring, waar men met een decente hogere midrange chip, die niet door z'n naamgeving niet in te lossen verwachtingen schept, een leuke upgrade weet te bieden voor degenen die nu nog op een 6000 serie zitten of een midrange Nvidia kaart hebben.
De 7800XT is 4,6% sneller dan de 6800XT. De 7900XTX is 33% sneller dan de 6950XT. De 7600 is 5% sneller dan de 6650XT (zelfde prijs of goedkoper). Het verschilt dus een beetje waar in de lineup je kijkt. De highend modellen maakten afgelopen generatie nog wel een stap, maar in het 250-600 euro segment heeft AMD al 4 jaar bijna niets verbeterd.

Het is te hopen dat de 8800XT minimaal rond de 7900XT zit. Dat zou een 28% verbetering zijn, wat in dezelfde orde van grote zit als de stap tussen de topmodellen van 6000 naar 7000.
Of hij moet erg scherp geprijsd worden in verhouding, want voor 700 euro heb je al een 7900XT. Dus ze kunnen niet echt zoals bij de 6800XT 650 gaan vragen in het begin als ze de 7900Xt niet kunnen overtreffen.

Zo somber als @Arjant2 zie ik het niet in. Ik denk niet dat de rek er uit is bij Nvidia. De 4090 is 35-50% sneller dan de 3090Ti afhankelijk van de resolutie en game. Met standaard instellingen ook nog eens 15% efficiënter en je kunt bij de 4090 eenvoudig de vermogenslimiet significant verlagen zonder significant performance te verliezen.
Ze hebben alleen momenteel gewoon geen concurrentie. Nvidia heeft volgens de steam hardware survey 78% van de GPU markt in handen en daar zit geen dalende trend in. Bij Intel zag je hetzelfde fenomeen toen AMD geen conurrentie bood in het bulldozer tijdperk. Tussen Sandy Bridge en Kaby Lake zaten ook maar kleine stappen.

[Reactie gewijzigd door youridv1 op 30 oktober 2024 09:44]

Ja precies, ik moet je eerlijk zeggen.. ik ben een nvidia man, al jaren. En ik vind dat de stappen daar nog wel behoorlijk waren. Zoals jij ook bevestigd. Ik was even vergeten dat AMD inderdaad had gezegd uit de high end markt te stappen, dus in die lijn valt wel te verwachten dan prestaties tegen gaan vallen.
Een degelijke dieshrink is de grootste oorzaak van performance bump.
Dus als nv de nieuwste node kiest dan is er ruimte voor meer performance en hogere tdp.
Amd kiest niet meer voor de laatste node want die is duur en met lagere ASP kunnen ze redelijk mee. Maar oudere goedkope node geeft bij gelijke die en gelijke of gelijke performance meer tdp. Dus minder voor mobiel dgpu.
Het verschil tussen de RX6000- en RX7000-serie viel anders vies tegen. Zeker in het low-end segment zijn de RX66xx's vaak nog steeds aantrekkelijker, en de prestaties per Watt verschillen ook nauwelijks.

Wat dat betreft is het duidelijk dat er bij de RX7000-serie gewoon wat mis is gegaan in het ontwerp, want met de transitie van 7nm naar 5/6nm had er gewoon al meer prestatiewinst moeten zijn. Mijn hoop is dat AMD die prestatiewinst alsnog weet te behalen en dat we daarmee een mooie sprong in prestaties zien (per Watt en per euro). Maar aan de andere kant gaat AMD de kant van raytracing en AI op, dat betekent een verschuiving van pure rasterization-prestaties. Dus hopelijk heeft iemand die niet in raytracing en AI geïnteresseerd is daar geen inefficiëntere kaart door.

[Reactie gewijzigd door bwerg op 30 oktober 2024 09:56]

AMD heeft al aangegeven dat ze geen topmodel zullen maken. Het maximum zal dus ergens bij de huidige 7900-snelheid liggen.

De RDNA4-techniek waar de nieuwe kaarten op gebaseerd zijn, zijn vooral een zuinigere en in Raytracing snellere opvolger van de RDNA3. Er zitten wat fixes in tov de RDNA3-serie die een bottleneck bleken.

“RDNA5” of hoe het ook moge gaan heten, zou een totaal nieuw ontworpen techniek zijn en kaarten daarvoor zouden in 2026 moeten uitkomen:

https://wccftech.com/amd-...a-3-improves-ray-tracing/
Ik hoop dat ze ook meteen de midrange kaarten lanceren. Want, die highend meuk interesseert toch niet. Als, hét klopt wat ze beweren dat ze voor marktaandeel gaan voor deze generatie. Dan hoop ik dat je met een Rx8600, Rx7700/7800 prestaties krijgt voor €269,- dan gaat AMD marktaandeel winnen, anders is hét weer een tegenvallende launch.
De massa is kassa, dat vergeten grote bedrijven vaak, want die kijken alleen naar de winstmarge per verkochte unit.
1 unit à €1000 met 50% winst verkopen = €500
20 units à €250 met 15% winst verkopen = €750
Denk je dat nu echt?
Het zijn geen koekenbakkers hoor.
Daar worden echt genoeg analyses gemaakt over de meest optimale prijs en daar wordt echt niet alleen naar de marge per product gekeken.

De werkelijkheid is natuurlijk veel ingewikkelder. Zo moet je bijvoorbeeld capaciteit vooraf inkopen om een product te laten fabriceren, daar zit een risico aan vast. Je moet vooraf een inschatting maken van de hoeveelheid die je kan verkopen tegen welke prijs. Daarnaast ben je niet de enige speler in de markt, immers je moet een inschatting maken wat je concurrenten aan producten uitbrengt tegen welke prijs en hoe je eigen product presteert tegenover die concurrende producten terwijl sommigen van die producten nog niet eens uit zijn. En zo zijn er nog veel meer factoren die meespelen.

[Reactie gewijzigd door Arjant2 op 30 oktober 2024 11:06]

Eigenlijk wél, als je naar de launch van RDNA3 kijkt, daar heeft AMD te hoog ingezet qua prijs en zich eigenlijk uit de markt geprijsd. De te snelle prijsdalingen wekten het vermoeden bij de consument dat de kaarten niet verkopen, en dus niet 'goed' zijn....De prijs van de NVIDIA kaarten bleef stabiel of steeg zelfs. Het ontbreken van goede features (scaling, framegeneration) op software gebied hielp natuurlijk ook niet mee.
Anekdotisch; Mijn vrouw werkte bij DE, daar waren de managers gefocused op het halen van de targets; dagelijks een aantal leads bellen. Maar, als je een koffieautomaat verkocht, en langer met een klant aan de telefoon zat, waardoor je je targets niet haalde. Dan, werd je daar op aangesproken. Terwijl het om de verkoop van de koffieautomaten gaat, en niet het bellen van een x aantal leads.... 8)7
Dus, denk ik dat er bij multinationals idd koekenbakkers zitten die gefocused zijn op het halen van bepaalde targets. Die, niet perse iets te maken hebben met het winnen van marktaandeel.

[Reactie gewijzigd door EMR77 op 30 oktober 2024 11:30]

En toch blijkt maar weer het tegenover gestelde.
Als AMD goedkoper is voor dezelfde prestaties in de midrange, dan zou Nvidia volgens bovenstaande discussie niet moeten verkopen. PUNT.
Echter dat doet het wel. Dat geeft daarmee maar aan dat het niet zo eenvoudig is om te zeggen ow we verkopen 5x zoveel als we de winstmarge per product halveren.
Het is niet zwart-wit en altijd te modeleren. Was het leven maar zo simpel.

Er zullen zeker overal managers wel zitten die focussen op de verkeerde targets, maar je kan er vanuit gaan dat de top van dit soort bedrijven echt geen domme jongens zijn. De concurrentie is moordend en geen enkele manager daar neemt in zijn eentje een beslissing over hoe een bepaald product te marketen en de analyses die plaatsvinden gebeuren tevens niet op de achterkant van een sigarendoosje zoals sommige mensen hier blijkbaar denken.

En het feit dat een product heel snel zakt in prijs kan aan veel factoren liggen. Een verkeerde inschatting van de prestaties t.o.v. de concurrent bijvoorbeeld, een inzakkende markt, een bewust hoge introductieprijs, een verkeerde marketingstrategie of juist een concurrent die een grote reclamecampagne launched net als jij je product uitbrengt etc etc. Er zijn legio zaken die een rol spelen en de situatie zoals @DropjesLover schetste (daar reageerde ik immers op) is niet zo zwart-wit of zo simplistisch.

[Reactie gewijzigd door Arjant2 op 30 oktober 2024 11:45]

Echt de domste stelling deze ochtend, het zijn maar de grootste tech bedrijven ter wereld, die zullen inderdaad geen idee hebben van wat er verkoopt.
Je ziet het in de ondergang van Philips, HTC en zat andere bedrijven die alleen voor de hoge marge gingen en ten onder aan het gaan zijn. Apple idem, maar heeft het tegen alle verwachtingen in toch gered.
Ah, als we breder kijken klopt het inderdaad meer, al komt er ook bij dat de kwaliteit van die merken niet mee ging met het prijskaartje.

Maar in de context van grafische hardware komt het er op neer dat ze alles verkopen wat ze kunnen produceren tegen de prijs die ze vragen. Ze weten precies wat ze doen, en de volgende generatie wordt gewoon weer duurder.

Wat ze niet aan de consument slijten schuiven ze wel naar de profis.
Jup en dat is ook het enige prijssegment waar ze kunnen winnen van NVIDIA.
Maak een 5060 killer en 75% van de steam gebruikers koopt er 1.
Mijn setup is nog een 5900X met een 3080 gpu.
Is al bekend of RDNA 4 nog PCIe 4 heeft?

Want volgens mij is een 5080 PCIe 5 en kan ik die niet gebruiken op een 4 mobo.
Dat je die niet zou kunnen gebruiken is sowieso niet waar, want PCIe is backwards compatible, en het verschil in bandbreedte is zelden een probleem.

[Reactie gewijzigd door bwerg op 30 oktober 2024 09:59]

Dat is niet hoe dat werkt. PCIe is backwards compatible. Als je een PCIe device in een PCIe slot steekt, gaat de verbinding werken op de hoogste versie die zowel het bord als de kaart ondersteunen.
PCIe5.0 kaart in een PCIe2.0 bord werkt en een PCIe2.0 kaart in een PCIe5.0 bord werkt ook.

Precies zoals met USB. Een USB3 apparaat werkt prima in een USB2 poort en vice versa.

[Reactie gewijzigd door youridv1 op 30 oktober 2024 10:56]

Nitpick: het is eigenlijk forward compatibility (moederbord met oude standaard werkt ook met toekomstige producten op nieuwere standaard), en niet backward compatibility (moederbord met nieuwe standaard kan ook legacy hardware gebruiken). PCIe is dan dus beide. Overigens ben ik er niet zeker van dat forward compatibility gegarandeerd is tussen alle PCIe versies vanaf 1.0.
Maar is dan het moederbord forward compatible, of het toekomstig product backwards compatible (of waarschijnlijk beiden?) :)
Grappig. Origineel stond er in mijn comment "PCIe is backwards en forwards compatible" maar dat heb ik weggehaald omdat ik dacht dat beide scenario's backwards zouden zijn. Maar je hebt gelijk, het is inderdaad zowel backwards als forwards.
Overigens ben ik er niet zeker van dat forward compatibility gegarandeerd is tussen alle PCIe versies vanaf 1.0.
Ergens in dit document staat van wel https://download.intel.co...h-Gen-Intel-Core-PCIe.pdf

[Reactie gewijzigd door youridv1 op 30 oktober 2024 15:03]

Gedacht aan backward compatibility? Kan je gewoon gebruiken, hoor.

[Reactie gewijzigd door Ves op 30 oktober 2024 10:00]

Ik ben niet helemaal in de wereld van GPU's, maar zou AMD niet het zelfde trucje kunnen uithalen zoals met de RyZen CPU's -> chiplets 3D V-cache on Die?

Las in het verleden dat AMD daar wel over nadacht, maar tot nu toe heb ik niks meer hierover op Tweakers gelezen.

In mijn PC zit ik nog met een oude build RyZen 3900x samen met een RX580 8GB voor 4K TV.
Game zo wat niet op mijn PC en meer op mijn laptop waar ik van een RTX 3070 ben geupgrade naar een RTX 4070.

Ben van plan om 2025 een top Mid-end of een High-end videokaart wil halen afhankelijk wat de prestatie prijs verhouding is.
Neig om AMD weer te kiezen omdat ik ook wil overstappen naar de 9950x of 9950X3D.

Iemand die mij een beetje op weg kan helpen of het veel verschil uit zou maken op een 86" 4K120Hz TV gamen vanaf een AMD of Nvidia Mid-end kaart?
Wat zou ik gamen:
- Xbox catalogus (Black Ops6, Diablo 4, Shooter, Flight Simulator)
- Sony Playstation+
- Black WuKong
Ik ben net overgestapt naar een 8700xt , werkt prima ;)
ik ga m gauw genoeg ook in een full amd built stoppen . zelf kan ik het verschil niet echt merken met ps5/vs mn 8700xt .. van een afstand op de tv als je het hebt over grafische pracht (fps uitgezonderd) ;) monitors zijn een ander verhaal.

t enigste voordeel aan een amd cpu/GPU is linux compabiliteit . en de cpu/gpu software zit allemaal in een applicatie

[Reactie gewijzigd door Metallize op 30 oktober 2024 12:24]

Ik ben net overgestapt naar een 8700xt , werkt prima ;)
Knap, want die kaart bestaat niet ;)

[Reactie gewijzigd door youridv1 op 30 oktober 2024 15:04]

Iemand die mij een beetje op weg kan helpen of het veel verschil uit zou maken op een 86" 4K120Hz TV gamen vanaf een AMD of Nvidia Mid-end kaart?
Wat zou ik gamen:
- Xbox catalogus (Black Ops6, Diablo 4, Shooter, Flight Simulator)
- Sony Playstation+
- Black WuKong
Daar hebben we een compleet forum voor. forum: Desktop koopadvies
Ben van plan om 2025 een top Mid-end of een High-end videokaart wil halen afhankelijk wat de prestatie prijs verhouding is.
Neig om AMD weer te kiezen omdat ik ook wil overstappen naar de 9950x of 9950X3D.
Er zitten geen inherente voordelen aan het combineren van een AMD CPU met een AMD GPU. Dat boeit gewoon niet. Dus je videokaart merk keuze kun je onafhankelijk van je CPU merk keuze maken.
Ik ben niet helemaal in de wereld van GPU's, maar zou AMD niet het zelfde trucje kunnen uithalen zoals met de RyZen CPU's -> chiplets 3D V-cache on Die?

Las in het verleden dat AMD daar wel over nadacht, maar tot nu toe heb ik niks meer hierover op Tweakers gelezen.
GPU's verrichten heel ander soort rekenwerk. Het is maar de vraag of meer L3 cache daadwerkelijk een grote prestatieverbetering op zou leveren.
Je ziet bij de cpu's ook dat al die cache eigenlijk alleen bij gaming echt wat oplevert.

[Reactie gewijzigd door youridv1 op 30 oktober 2024 11:02]

NVIDIA doet dit ook om bij de 4060 de 128bits bus een boost te geven. De xbox heeft volgens mij ook wat Sram erin zitten voor een boost.

Het zou wel een kosten ding zijn waarom het niet meer gebruikt wordt.
Ik ben niet helemaal in de wereld van GPU's, maar zou AMD niet het zelfde trucje kunnen uithalen zoals met de RyZen CPU's -> chiplets 3D V-cache on Die?
Sinds RDNA2 hebben AMD GPU's Infinity Cache [1] (cache geheugen met veel hogere bandbreedte dan de GDDR op de kaart), en AMD was ook al van plan om GPU's te maken op basis van chiplets (meerdere GPU's aan elkaar plakken voor high-end). Dus ze hebben er inderdaad aan gedacht. :+

Het GPU chiplet verhaal hebben we al een tijdje niks meer van gehoord dus misschien valt het in de praktijk tegen, of misschien gaan we het in de toekomst nog zien als AMD alsnog ook weer high-end kaarten wil produceren.

[1] Wikipedia: RDNA 2
Ontwerp van chips kost meestal jaren, deze architectuur is wellicht 4 jaar geleden al in de stijgers gezet, dus ik verwacht op AI vlak niet veel spannends. Zeker geen speciale genAI features.
Zoals gebruikelijk zal prijs een grote rol spelen. Hoop dat AMD daar ook bewust van is. €20-50 gaat niet voor een verschuiving zorgen.
Maar €100-150 ten opzichte van de concurrent geeft een grotere kans.

Kwa prestaties vraag ik mij af of ze voor een langere prijs (750/800) gaan met prestaties van een 7900XTX. Of toch net er onder om de 7900XTX toch wat leven te geven. Het laatste zou dan wel meer als een refresh aanvoelen, net als wat we zagen met de 6000 series naar de 7000 GPU.
Zit nog met mn 5 jaar oude build (3700x, 5700xt), werkt nog goed, maar de hoge framerates haal je gewoon niet meer met de nieuwste games op high-quality en 1440p.
Erg veel zin om met de nieuwe generatie CPU & GPU te gaan stoeien. Hoop dat het niet als te lang duurt voordat deze nieuwe kaarten uit komen.
Tja, tussen de eerdere geruchten, de hit en mis driver roulette en de Idle problemen die bij 7000 nog steeds niet opgelost zijn denk ik alleen niet dat nog veel mensen geïnteresseerd is in een AMD gpu.

Ze zullen echt heel hard aan hun features, drivers en hardware moeten werken om weer consumenten vertrouwen te kweken. (of simpelweg de snelste zijn)

Op dit item kan niet meer gereageerd worden.