AMD gaat gpu-architecturen voor gaming- en datacenter-gpu's samenvoegen

AMD gaat zijn RDNA- en CDNA-architecturen voor gpu's op termijn samenvoegen. Momenteel zijn dat twee losse architecturen, respectievelijk voor gaming- en datacenter-gpu's. In de toekomst wil het bedrijf overstappen op een verenigde architectuur, genaamd UDNA.

AMD bevestigt het samenvoegen van RDNA en CDNA tot een enkele architectuur tijdens de IFA in Berlijn, schrijft ook Tom's Hardware. Dat vertelt Jack Huynh, seniorvicepresident van AMD's Computing and Graphics-bedrijfstak. De overstap naar UDNA moet het makkelijker maken voor ontwikkelaars om hun software te optimaliseren voor AMD-gpu's.

De chipmaker biedt sinds 2020 twee losse gpu-architecturen aan, toen het afstapte van GCN. RDNA was specifiek ontworpen voor de gamingmarkt en AMD's Radeon-videokaarten, terwijl CDNA juist was ontworpen voor AI- en hpc-workloads met de Instinct-datacenter-gpu's van het bedrijf. Beide architecturen hebben specifieke optimalisaties voor hun bedoelde publiek. Door de gpu-architectuur te versimpelen, hoeven ontwikkelaars zich voortaan op slechts één ecosysteem te richten.

Het bedrijf wil met de overstap beter kunnen concurreren met Nvidia's CUDA-ecosysteem. Dat onderliggende platform vormt de basis voor zowel Nvidia's GeForce-gpu's voor consumenten, als de hpc- en AI-chips van het bedrijf. Volgens Huynh heeft CUDA vier miljoen ontwikkelaars en AMD wil naar eigen zeggen soortgelijk succes bereiken. Het bedrijf maakt gebruik van de opensource-ROCm-softwarestack, maar die is nog altijd minder populair dan CUDA.

AMD wilde overigens nog niet vertellen wanneer het de overstap naar UDNA precies wil maken. Het is dan ook niet bekend vanaf welke generatie de architecturen worden samengevoegd. Begin volgend jaar introduceert het bedrijf waarschijnlijk zijn eerste RDNA 4-gpu's, maar die zullen naar verwachting nog niet zijn samengevoegd met CDNA. De overstap wordt dus vermoedelijk op zijn vroegst bij RDNA 5 uitgevoerd, of mogelijk nog later.

AMD RDNA en CDNA
Afbeelding: AMD

Door Daan van Monsjou

Nieuwsredacteur

10-09-2024 • 10:40

84

Lees meer

Reacties (84)

84
84
36
5
0
32
Wijzig sortering

Sorteer op:

Weergave:

Gaming en datacenter GPUs liggen niet heel ver uit elkaar.
Bovendien heeft AMD de chiplet technologie, waarmee ze redelijk makkelijk een chip kunnen samenstellen uit bouwblokken.
Ik zie een datacenter GPU dan meer als een extra grote gaming GPU, met extra chiplets en bijvoorbeeld HBM geheugen ipv GDDR
Dit zal vermoedelijk de way to go zijn, op een single die zal het te veel verschillen vermoed ik maar met chiplets kan je de hele kaart zodanig aanpassen dat deze in dc-omgevingen presteert zoals de klant wenst. Ik verwacht dan wel veel chiplets op een enkele kaart die lager geclockt is om performance/watt te kunnen opschroeven, dat is een van de dingen die veelal telt.
Dat AMD dit uberhaupt overweegt komt waarschijnlijk omdat ze niet meer zo heel ver uit elkaar liggen.

De vraag is dan waar de verschillen nu nog in liggen.
In het verleden zag je wel dat een Gaming GPU meer bandbreedte naar het geheugen nodig heeft dan een datacenter GPU die meer op de Tflops gericht is.
Maar wellicht dat dat met de huidige datacenter workloads (AI) minder het geval is, en dat het daardoor aantrekkelijk kan worden om één GPGPU te maken.
Applaus, of zo.

Serieus, dit was long overdue. AMD's softwarestack voor compute op consumentenhardware is ronduit een drama. Heel veel dingen werken alleen maar op AMD's eigen, gezegende Instinct hardware (de serverkaarten). Nou komt dat soms ook gewoon omdat de hardware anders is (niet alle instructies worden op alle kaarten ondersteund, natuurlijk), maar dan nog wordt er vaak niet eens een alternatief geboden, zelfs als het langzamer is. Wil je met flash attention aan de slag op een consumentenkaart? Veel geluk.

Op zich logisch, want aan de serverkant zit het grote geld, maar wat er bij AMD maar niet in leek te gaan is dat je de hearts & minds van developers en consumenten nodig hebt voor je dezelfde mensen die bij die bedrijven werken zo gek krijgt om met AMD in zee te gaan. Voor AI is het op dit moment gewoon nog "nobody ever got fired for buying Nvidia", en als AMD dat wil doorbreken moeten ze op alle punten hun zaakjes piekfijn op orde hebben. Dat hun hardware goedkoper is en hun drivers open source zijn is mooi, maar bij lange na niet voldoende. Hun hardware haalt op papier indrukwekkende prestaties in termen van FLOPS, maar de software weet die er zelden uit te persen. Dat is niet volledig AMD's schuld omdat mensen nu eenmaal eerder optimaliseren voor Nvidia en AMD er maar zo'n beetje bij doen, maar dat is wel waar ze rekening mee moeten houden.

AMD hobbelt noodgedwongen achter Nvidia aan, tot aan CUDA moeten emuleren aan toe. Als ze willen concurreren moeten ze echt gaan voor een drop-in replacement die op prijs kan concurreren. Dat laatste lukt ze al wel, maar aan dat "drop-in" stukje kleven nog teveel haken en ogen. Als eigenaar van AMD hardware wens ik ze overigens alle succes van de wereld, maar het mag van mij allemaal wel wat sneller gaan. :P
Dat werkt zo niet een pro architectuur houd in dat transistor budget verspilt in de gaming markt aan pro features die games niet gebruiken als chips klein zijn blijft er niet veel over.
Een chip die volledig gebruikt kan worden presteert dan beter.
Tja dan heb duur klein HBM vram
Met chip die het biet saturated.

Ik denk dat de situatie veranderd is. En moderne pro featured ook door game api gebruikt kunnen worden zoals wat goed is voor AI en RT.
Zo werkt wat niet? Uiteraard is de hardware tussen "pro" en "games" wel anders en dat heeft weer zijn weerslag op het transistorbudget, maar wat het een niet ondersteunt kun je met software opvangen. Je levert dan performance in, maar dat is niet vergelijkbaar met de boel helemaal niet kunnen draaien en alles over de CPU moeten gooien. Op dat punt laat AMD gewoon steken vallen en zijn er dingen die helemaal niet willen draaien voor de consumentenhardware, ook niet als het dan wat langzamer gaat, terwijl dat in principe wel kan.

Nvidia heeft natuurlijk ook zulke dingen, maar dan gaat het vooral om de pro-features als geheugen delen over de interne bussen en natuurlijk de bandbreedte enorm opkrikken -- dingen die de boel enorm versnellen als je ze hebt, maar geen beletsel vormen om de software te draaien als je het niet hebt.
Je hoeft toch niet gelijk alles uit te rusten met HBM? Als de architechtuur nou gewoon beide ondersteunt (zijn daar werkelijk zoveel extra transistors voor nodig? indicatie?) kan je voor de gamer kaarten GDDR blijven gebruiken en voor de professionele tak HBM. Zolang de featureset van de GPU maar gelijk is. Er zal altijd een groot prijs verschil zijn tussen de segmenten, al is het alleen maar vanwege ondersteuning.
Ik denk het juist dat CUDA emuleren een grote fout was. Als de echte groten de hardware interessant vinden dan passen ze zich wel aan en dat kan dan met trickle down terecht komen bij de kleinere, maar dan moet je wel een universele stack hebben die niet versnippert is. Jammer genoeg is alles bij AMD nu versnippert.

De flash attention die de grote jongens gebruiken draait op MLIR, niet HIP.
Nvidia had de coup met tensors die behoorlijk goed bleken voor AI loads (en aan de gamingkant een beetje geforceerd ingezet worden voor RT en DLSS). AMD heeft daar helaas gewoon een beetje de boot gemist, en ik denk dat ze CUDA noodgedwongen hebben moeten achterna hobbelen puur om mensen nog interesse te laten houden. AMD had mooie plannen voor een universele stack met GCN/OpenCL, maar ze zijn door de praktijk ingehaald omdat de killer apps eerst op Nvidia draaiden. HIP is een beetje een noodgreep, maar wel een noodzakelijke.

Flash attention is ook aan de consumentenkant gewoon nuttig om VRAM te besparen. Het is juist een van de problemen van AMD en een van de voordelen van Nvidia dat die laatste een veel beter verhaal heeft over software draaien op de consumentenhardware, wat zich op meerdere manieren terugbetaalt (mindset, developers kweken, privacy-minded toepassingen die lokaal draaien). Ja, als je een AI startup met miljoenen wil verleiden dan kun je wel wat budget opzij laten zetten om specifiek voor jouw hardware te optimaliseren, maar dan moet je wel al de betere kaarten hebben qua hardware (pardon the pun) en die heeft AMD op het moment niet.

[Reactie gewijzigd door MneoreJ op 10 september 2024 12:20]

MI300x verkoopt als een trein, maar de flash attention die daar op werkt is MLIR en niet HIP. Dus wat was de waarde van HIP?
Jij hebt het over zakelijke hardware. HIP heeft inderdaad geen waarde als je denkt dat het een goede strategie is om alleen serverhardware te verkopen en de consumentenhardware te laten zitten, maar ik denk dat het een hele slechte strategie is om consumenten en developers op te voeden met het idee dat als je aan AI denkt, je Nvidia producten moet kopen.
Als Nod AI meteen met UDNA had kunnen werken had de MLIR gebaseerde software waarschijnlijk betrouwbaarder geweest (Shark SD en MLC-LLM). Denk niet dat dan veel mensen CUDA compilatie had kunnen schelen.

Door HIP hebben ze ook OpenCL afgekapt, dat heeft ze een hoop mindshare gekost van academici. Terwijl HIP ze nooit echt iets heeft opgeleverd.

[Reactie gewijzigd door Pinkys Brain op 10 september 2024 13:53]

voor AI loads (en aan de gamingkant een beetje geforceerd ingezet worden voor RT)
Gegeven dat beeldbewerking dé gebruikerscasus is voor moderne "ai" vind ik geforceerd een ietwat misplaatst woord.

Bovendien zijn de meeste ai toepassingen in spellen, ondanks dat ze juist handig zijn als rt aanstaat, niet rt-specifiek.
Ik mis de relatie tussen beeldbewerking en ray tracing? Ik bedoelde juist dat RT/DLSS aanprijzen als de grote killer feature een beetje een opportunistische manier was om hardware te gebruiken die voor andere zaken veel beter tot z'n recht komt.

Uiteraard kun je veel andere dingen met AI in spellen, maar zo is het oorspronkelijk niet in de markt gezet en dat begint nu pas een beetje te komen.
Jij hebt er wel verstand van. Maar ja, als AMD gebruiker merkte ik dit ook al een beetje. Ga je bijvoorbeeld spelen met AI, dan merk je echt wel (al helemaal op een consumentenkaart) dat het het niet echt is. Het is gewoon ronduit traag, veel dingen zijn ook echt gemaakt voor CUDA. AMD is echt een nagedachte. En ik moet zeggen dat dit eigenlijk al sinds de introductie van CUDA al zo is, zo niet eerder. AMD zat maar wat te kloten met OpenCL, en nu dus met dingen zoals ROCm, terwijl Nvidia echt heel serieus bezig was. Het is maar de vraag of alles met AI ooit had kunnen gebeuren als er geen CUDA was. Tegenwoordig heb je wel alternatieven, zoals TensorFlow (maar dat is ook eigenlijk alleen maar voor AI, terwijl CUDA breder inzetbaar is), maar CUDA heeft wel het fundament gelegd.

Je hebt zeker niet gelogen toen je zei dat het long overdue was. CUDA bestaat al sinds 2007. AMD loopt al sinds die tijd gruwelijk achter. CUDA is inmiddels al bijna oud genoeg om te mogen drinken.
Na het deprimerende bericht van geen high end kaarten voor de volgende generatie is dit toch een lichtpuntje voor op de lange termijn. Of ben ik aan het wensdenken?
Persoonlijk vind ik het een slecht idee. Dat zag je ook met VEGA dat was een datacenter first architectuur en daar werkte die best prima maar voor gaming was de Front en backend niet toereikend om alle ALU's aan het werk te houden.

Voor datacenter zal deze zet waarschijnlijk niet slecht zijn maar ik vermoed dat de gaming kaarten weer minder FPS per mm2 zullen gaan leveren tov een dedicated architectuur.

De stap is wel logisch het marktaandeel is amper gestegen en gaat sinds RDNA3 weer flink omlaag omdat die kaarten niet goed genoeg presteren en een relatief hoog verbruik hebben tov de concurrentie. Waar het bij RNDA2 andersom was maar toen bleven veel mensen ook voor nVidia gaan. GPU shortage heeft er toen voor gezorgd dat AMD nog best veel kon verkopen maar anders hadden mensen toch liever een nVidia kaart gehad. Ze zijn gewoon zo gewend aan dat merk en horen dat het het beste is dus willen dat dan. Beetje net als Intel in de Pentium jaren.

Overall denk ik dat de stap gezien wat AMD wil doen logisch is maar voor ons gamers/tweakers zal het wellicht niet de beste keuze op de korte termijn zijn. Lange termijn zal het betekenen dat AMD op die manier langer Desktop gaming GPU's kan maken zonder te veel extra ontwikkel kosten voor de chips. Waar er anders wellicht minder geld zou zijn omdat het marktaandeel te klein is en een losse architectuur te weinig oplevert.

Gezien de verschillen tussen CDNA en RDNA nu was het heel goed om het op te splitsen want de workloads zijn heel specifiek in ieder segment.
Ik zie AI nog niet snel genoeg in games toegevoegd worden op een schaal dat je daar heel veel compute power voor nodig hebt. En RT hardware is niet zo nuttig in het datacenter.
Dit laat mij toch duidelijk zien dat AMD Datacenter / AI Workstation first gaat en gaming wordt weer een bijzaak. Dat is bij nVidia ook gaande dus in dat opzicht is de keuze niet gek.
Lang verhaal kort; het lijkt er op dat AMD zich verder terug aan het trekken is van de gaming gpu markt. Ze hadden al geen halo producten (RTX 4090 etc), daarna gaven ze recent aan aan uit de bovenste 10% van de markt te stappen (4070 Ti en hoger). Daar komt nu bij dat er geen aparte gaming architectuur meer komt. Aangezien het geld vooral vanaf datacenter komt lijkt het mij logisch dat die architectuur zal toegespitsts zijn op datacenter en niet op gaming.

Persoonlijk zie ik liever dat AMD radeon loslaat en het afsplits in een zelfstandig bedrijf want op deze manier is het binnen 10 jaar voorbij.
Met RDNA2 kwamen ze dichtbij de RX6900XT kon zich redelijk met de 3090 meten. Maar RDNA3 viel tegen AMD heeft z'n eigen targets daar ook niet gehaald en lag toen weer achter.
Die bovenste 10% van de markt niet willen bedienen is inderdaad prima en niet perse een nadeel. Dat geeft je wel de kans een hele goede midrange GPU te ontwikkelen. Dat hebben ze eerder ook al eens laten zien met in de tijd van ATI met de HD4850 en 4870 (RV770 chip). Die was relatief klein en goedkoop te produceren door relatief hoge clocks en toen voor het eerst GDDR5 was het een relatie snelle maar betaalbare kaart ondanks z'n 256Bit bus.

Het samenvoegen van de architectuur is wel zorgelijk. Het enige echt positieve is dat AMD so far de console markt en vooral Sony met de PlayStation bediend en daar samen met Sony werkt aan de ontwikkeling van de architectuur (Xbox raakt steeds verder achter vraag me af of die nog een next gen alla PS6 concurrent gaan uitbrengen en zo wel heb ik nog meer twijfel bij een PS7 concurrent).
Uit die samenwerken komen toch positieve dingen. Maar voor de rest verwacht ik in ieder geval veel meer focus op datacenter en AI dat zie je ook al bij Zen5. Voor servers is het een leuke vooruitgang voor desktop cpu's is het verschil erg klein en so far niet de moeite tov Zen4.

Ik denk dat een zelfstandig bedrijf voor gaming kaarten het niet meer red in deze tijd tenzij je nVidia heet. En als je dat al doet moet je ook zorgen dat je de Pro en AI markt wel een beetje aanspreekt om je marges te pakken. De markt voor gaming PC's is denk ik te klein gezien het overgrote merendeel niet eens een ander merk dan nVidia zal overwegen. Ik weet niet wat nVidia zou moeten doen om dat vertrouwen te verliezen ik zie die situatie ook niet snel veranderen.
Als je al ziet hoeveel moeite Intel heeft zie ik het niet snel gebeuren dat een afsplitsing het heel lang vol gaat houden in deze markt. Maar ik krijg graag ongelijk. Ik vraag me af of ATI nog had bestaan als het niet samengevoegd was geweest met AMD. ATi heeft net na de overnamen ook moeilijke jaren gehad omdat de R600 architectuur flopte de HD2900XT werd erg heet verbruikte veel en de prestaties waren niet super. met de HD3870 werd het verbruik beter maar de prestaties bleven gelijk en pas bij de HD5800 serie dezen ze weer goed mee echter had nVidia toen al veel meer marktaandeel en dat zijn ze sindsdien ook niet meer kwijt geraakt.
Ik denk dat een zelfstandig bedrijf voor gaming kaarten het niet meer red in deze tijd tenzij je nVidia heet. En als je dat al doet moet je ook zorgen dat je de Pro en AI markt wel een beetje aanspreekt om je marges te pakken. De markt voor gaming PC's is denk ik te klein gezien het overgrote merendeel niet eens een ander merk dan nVidia zal overwegen. Ik weet niet wat nVidia zou moeten doen om dat vertrouwen te verliezen ik zie die situatie ook niet snel veranderen.
Er zit IMO geld genoeg in de markt. Nvidia boekt 10447 miljoen, dus 10 miljard, omzet op gaming. In het laatste jaar van Ati deden ze ongeveer 2 miljard omzet. Daarnaast is er eigenlijk altijd wel een reden waarom men niet massaal overstapt op AMD Radeon. Bijvoorbeeld de slechte leverbaarheid van de producten wanneer ze gunstig geprijsd zijn (RX 480).

Daarnaast produceren ze niet zelf, 'iedereen' kan een ontwerp maken en laten produceren bij TSMC. Wat je nodig hebt zijn de patenten, maar die heeft Radeon natuurlijk aanwezig. Iemand met diepe zakken kan er best een succes van maken.
Ik vraag me af of ATI nog had bestaan als het niet samengevoegd was geweest met AMD. ATi heeft net na de overnamen ook moeilijke jaren gehad omdat de R600 architectuur flopte de HD2900XT werd erg heet verbruikte veel en de prestaties waren niet super. met de HD3870 werd het verbruik beter maar de prestaties bleven gelijk en pas bij de HD5800 serie dezen ze weer goed mee echter had nVidia toen al veel meer marktaandeel en dat zijn ze sindsdien ook niet meer kwijt geraakt.
Tja AMD heeft miljarden verliezen geleden dus an sich betekent jaren lang verlies draaien niet automatisch einde verhaal voor beursgenoteerde bedrijven dus in die zin verwacht ik dat niet. Radeon heeft er simpelweg last van gehad dat AMD het volledige R&D budget heeft gehalveerd en het er ook op lijkt dat mensen van Radeon op het APU project zijn gezet. Het duurde niet heel lang voor ze geen volledige line-up konden releasen.
Dat zeiden ze 15 jaar geleden ook, toch is die samenwerking een mooie stap gezien hoe zwaar goed hun enterprise concept gemigreerd is naar de consumentenwereld met de Ryzens.
Dat zeiden ze 15 jaar geleden ook, toch is die samenwerking een mooie stap gezien hoe zwaar goed hun enterprise concept gemigreerd is naar de consumentenwereld met de Ryzens.
Huh wat? Ik begrijp je niet zo goed. Ryzen zijn nu juist cpu's zonder IGP dus AMD heeft letterlijk het hele APU concept overboord gegooid om maar weer succesvol te zijn met hun cpu producten. Het concept waarvoor ze Ati overkochten a 5.4 miljard.

[Reactie gewijzigd door sdk1985 op 10 september 2024 17:07]

Ryzen architectuur is een directe overname van de enterprise line.
Hmm dan moet ik misschien een losse gpu gaan kopen voor mijn R9 7950X 3D gezien die volgens jou geen gpu heeft, toch raar dat ik nu beeld heb :+ .

Het klopt niet echt wat je zegt, elke desktop generatie Ryzen heeft wel aantal cpu's gehad met een gpu erop die sterker is dan een normale IGP. Met Zen 4 heeft AMD er voor gekozen om elke cpu van een IGP te voorzien die voornamelijk is bedoelt voor het accelereren van content en het tonen van beeld en dus ook niet echt snel is.
AMD verdient juist veel geld met custom chips wat voornamelijk APU's zijn. Zie de consoles en nu ook allerlei handhelds. Ik durf zelfs te stellen dat als AMD niet de Xbox en Playstation consoles had dat ze failliet waren gegaan.

Als je nu had gezegd dat het niet de focus was geweest voor Ryzen desktop processoren dan was het een andere verhaal.
Ryzen kwam uit zonder IGP. Zie ook
Daarmee kan AMD het volledige desktopspectrum beslaan, van eenvoudige instapsystemen tot het hedt-segment. Belangrijker: Raven Ridge heeft iets wat de in 2017 geïntroduceerde processors niet hebben: een ingebouwde gpu.

Daarmee kan AMD eindelijk concurreren met Intel op de markt voor eenvoudige pc's zonder losse videokaart. Want hoewel AMD al Ryzen Pro-producten had voor de zakelijke markt, hadden ook de eenvoudigste daarvan een losse videokaart nodig. En waarom zou een bedrijf voor een office-pc een losse videokaart willen aanschaffen?
De verkoop van modellen met IGP, die later kwamen, is tevens beperkt gebleven. Het succes lag echt in de modellen zonder IGP. Dat is de positieve omslag geweest. Het negatieve kantelpunt kwam juist bij de eerste APU modellen, die hadden een relatief grote IGP waardoor de cpu prestaties achterbleven en tegelijkertijd de prijzen wel hoog lagen. Die verkochten totaal niet. Zodra de IGP eruit ging nam de verkoop toe.
Ik durf zelfs te stellen dat als AMD niet de Xbox en Playstation consoles had dat ze failliet waren gegaan.
Je mag het in stelling brengen maar het is daarmee geen waarheid. AMD heeft in de 20 jaar vóór Ryzen bij elkaar opgeteld een miljardenverlies gedraaid. AMD maakte vaker minder omzet dan Intel winst maakte. Ook zonder de inkomsten van semi-custom had AMD het wel uit kunnen zitten.

Het was de APU strategie die AMD bijna de nek om heeft gedraaid. Zie de APU's in deze review; review: AMD Richland: A10-6800K getest . Zelfs met advies prijzen richting de 100 euro werd het geen commercieel succes. AMD koos ervoor om de cpu prestaties te beperken in ruil voor een sterkere IGP. In plaats van dat klanten hiervoor meer gingen betaalde bleek men het juist niet te willen. Bij AMD ging hierdoor de ASP omlaag (average selling price) terwijl de kosten stegen. Je gaat als AMD dus meer kosten maken terwijl je de prijs van je product moet verlagen. Dat kost je marge en dus winstgevendheid.

Aan de cpu kant is de winstgevendheid pas goed gekomen toen AMD de APU volledig liet gaan.

Ondertussen zitten er inderdaad weer standaard IGP's in Ryzen. Heb je ook naar de marge van AMD gekeken? Ze maken nauwelijks nog winst, het succes van ryzen 1,2,3 en 5 is volledig verdampt ze zijn gezakt van bijna 4 miljard naar circa 800 miljoen zie https://www.macrotrends.n.../AMD/amd/operating-income.

[Reactie gewijzigd door sdk1985 op 11 september 2024 00:14]

AMD is pas weer winstgevend geworden doordat ze met Ryzen een goed presterend product hebben neergezet. Voor die tijd kocht ik ook gewoon net zoals de rest Intel.
Door een goede cpu architectuur is AMD dus winstgevend geworden, niet doordat ze APU's hebben laten vallen. De marge op APU's die ze op consoles krijgen is laag, maar het heeft ze in de Bulldozer periode wel in leven gehouden.
Dat was een tijdje geleden toevallig ook in het nieuws, twee bronnen van AMD lijkt mij genoeg:
https://wccftech.com/ps4-amd-avoid-bankrupt/
Ondertussen zitten er inderdaad weer standaard IGP's in Ryzen. Heb je ook naar de marge van AMD gekeken? Ze maken nauwelijks nog winst, het succes van ryzen 1,2,3 en 5 is volledig verdampt ze zijn gezakt van bijna 4 miljard naar circa 800 miljoen zie https://www.macrotrends.n.../AMD/amd/operating-income.
Dat komt vast door de IGPs! Ik kijk er vast over heen, maar waar in je bron kan je de winst per afdeling zien, dus gpu/cpu/semi custom etc. Ik snap niet hoe conclusie kan komen zonder een bron die dat aantoont.
AMD is pas weer winstgevend geworden doordat ze met Ryzen een goed presterend product hebben neergezet. Voor die tijd kocht ik ook gewoon net zoals de rest Intel.
Door een goede cpu architectuur is AMD dus winstgevend geworden, niet doordat ze APU's hebben laten vallen.
Je leest over de technische achtergrond heen. Het APU concept van AMD zorge ervoor dat een groot deel van de cpu oppervlakte werd gebruikt voor de IGP. Vervolgens was er minder ruimte voor de cpu en was die daardoor zwakker. AMD dacht echter dat ze dit concept voor meer geld konden verkopen doordat men dan geen losse videokaart meer nodig had. In de praktijk bleek dat ze juist de prijs moesten verlagen omdat de consument de meerwaarde niet zag. De ASP (average selling price) ging dus omlaag toen ze met de APU's begonnen. Tegelijkertijd werde de cpu's duurder om te produceren. Ondertussen hadden ze hiervoor 5.4 miljard uitgegeven en was er geen geld meer over om de R&D voort te zetten.

Met Ryzen hebben ze dit overboord gegooid. De cpu was weer 100% een cpu waardoor deze sneller was en daarnaast ook wat voordeliger was om te produceren. Pas later zijn ze weer modellen met IGP gaan uitbrengen.

Bij die G modellen zie je direct de pijnpunten van het APU concept. Want zo'n 5600G is in gaming 15% trager terwijl de adviesprijs met $259 een stuk hoger lag dan de $199 van de 5600. Je krijgt dus minder voor meer.
Dat komt vast door de IGPs! Ik kijk er vast over heen, maar waar in je bron kan je de winst per afdeling zien, dus gpu/cpu/semi custom etc. Ik snap niet hoe conclusie kan komen zonder een bron die dat aantoont.
Form 10-K is wat je zoekt; https://ir.amd.com/sec-filings/filter/annual-filings ik kijk al een jaar of 20 elk jaar naar die cijfers. In die rapporten worden ook oorzaken genoemd. Bijvoorbeeld teksten dat ze meer hadden kunnen verkopen wanneer ze wat meer productiecapaciteit hadden ingekocht. Dat heeft een jaar of 10 structureel in elk rapport gestaan. Interessant zijn bijvoorbeeld 2006/2007 waar de videokaart afdeling apart wordt vermeld (met heel erg tevenvallende cijfers overigens).

[Reactie gewijzigd door sdk1985 op 11 september 2024 17:23]

Het heeft alleen wel erg lang geduurd voordat er iets uit die samenwerking kwam. De eerste APU's waren niet echt indrukwekkend qua GPU prestaties tov de Intel IGPU. Ja ze waren een stuk sneller maar het CPU gedeelte was weer een stukje trager. En voor games waren ze ook niet snel genoeg.
Ik heb het idee dat de IGPU's nu met DDR5 pas een beetje de prestaties beginnen te krijgen om mee te kunnen gamen op lagere quality settings en 1080p.
Waar heeft AMD gezegd dat ze uit die markt stappen?

Ze hebben gezegd dat ze zich niet focussen op de snelste kaart produceren. Dat is heel wat anders.
Dat hebben ze niet gezegd, ze hebben gezegd niet de bovenste 10% van de markt te willen bedienen. De snelste kaart is enkele procenten, 10% omvat ook de prijspunten van de 4080 en mogelijk de 4070 ti. High-end dus. Het is een misverstand dat ze alleen geen RTX 5090 concurrent gaan maken, dat deden ze al niet. Ze gaan nu verder snijden in de bovenkant; nieuws: Topman AMD: focus bedrijf ligt niet meer op ontwikkeling van high-end....
Ik stel voor dat je zelf opnieuw je eigen link gaat lezen en waar dat artikel naar verwijst, want dat sluit precies aan bij wat ik zeg. En komt totaal niet overeen met wat jij beweert.

Jij denkt blijkbaar dat focus betekent, alleen dat en niks anders. Maar dat is niet wat focus betekent.
Hij geeft ook specifiek aan dat ze interessante dingen voor de enthusiast markt gaan maken.

Maar als je een nieuwe GPU gaat maken, dan kun je je focussen op de allerbeste GPU/kaart. En dan een afgeleide simpeler versie maken voor de midrange waar de grote massa verkoop zit.
Of je kunt je focussen op de allerbeste midrange GPU/kaart maken voor de massa verkoopt en dan een afgeleide krachtiger kaart maken voor een enthusiast kaart.

In elke ontwerp worden compromissen gesloten. Als je de beste midrange kaart maakt, dan kan dat betekenen dat je enthusiast kaart 5% minder krachtig word. (maar veel efficienter zoals bij de midrange kaart) Als je de beste high-end kaart maakt, dan kan dat nadelige effecten hebben voor je midrange kaart. De vraag is waar je dan voor kiest.

Dat is wat niet meer focussen op een high end kaart betekent.
Het zou kunnen zijn dat een focus op de midrange kaarten betekent dat er helemaal geen interessante enthusiast kaart gemaakt kan worden, maar dat hoeft totaal niet het geval te zijn.
Het ligt er maar net aan wat de keuzes in het ontwerp voor de midrange kaart betekenen voor de highend kaart.
Ik heb dit gelezen:
So, my number one priority right now is to build scale, to get us to 40 to 50 percent of the market faster. Do I want to go after 10% of the TAM [Total Addressable Market] or 80%? I’m an 80% kind of guy because I don’t want AMD to be the company that only people who can afford Porsches and Ferraris can buy. We want to build gaming systems for millions of users.

Yes, we will have great, great, great products. But we tried that strategy [King of the Hill] — it hasn't really grown. ATI has tried this King of the Hill strategy, and the market share has kind of been...the market share
Hij wil dus niet voor de bovenste 10% gaan en in plaats daarvan zich op 80% richten. Daarnaast geeft hij specifiek aan niet de king of the hill strategie te willen volgen wat simpelweg niet anders opgevat kan worden dat je niet mee doet met het uitbrengen van de snelste kaart.

Verder niks schokkends. AMD heeft dit al eerder gedaan, de RX480 was met polaris de top kaart en die zat rond het prestatie niveau van een GTX 1060. De RX 580 was een refresh en dat was hetzelfde verhaal. AMD heeft toen een aantal jaar geen high-end model gehad. Enthusiast kaarten maken ze overigens al een tijdje niet meer.
Je hebt totaal niet gelezen wat ik heb geschreven, of er totaal niks van begrepen.
wat simpelweg niet anders opgevat kan worden dat je niet mee doet met het uitbrengen van de snelste kaart.
Niet de "snelste" kaart" nee.
Maar dat is heel wat anders dan beweren dat er geen "highend" kaart meer komt.
Een kaart die 3% langzamer is dan de Nvidia "snelste" kaart maar veel goedkoper en zuiniger is nog steeds een heel interessante highend kaart.
Dat volgt uit de 80%. Het zijn dus twee dingen

1) ze gaan geen king of de hill strategie volgen dus geen rtx 5090 concurrent maken, dat is nu ook al het geval
2) ze gaan voor 80% van de TAM*, dus geen high-end, dit is nieuw

*De TAM is de omzet die je zou halen wanneer je 100% van de markt zou bedienen. De TAM gaat dus niet over aantallen, maar over omzet. Alsnog ga je dat niet redden door alleen niet mee te doen met het enthusiast segment, je moet dan meer schrappen.

[Reactie gewijzigd door sdk1985 op 11 september 2024 17:07]

Ik herhaal maar weer, want anders schijn je het niet te begrijpen.

Als je je pijlen richt op de 80% markt, dan betekent dat niet noodzakelijk dat je helemaal niets doet voor de rest. En in het interview geeft ie ook duidelijk dat ie zich niet uitsluitend op die markt richt.
Ik snap dus niet waarom jij steeds blijft doen alsof dat wel zo zou zijn, want in de informatie waar je zelf naar linkt blijkt heel duidelijk dat dat niet het geval is.
Dat is omdat game de pro features en hardware logic niet gebruiken. Dus toen NV de tensor en RT cores verzon moest games dat gaan gebruiken RTX.
Vega is meer pro gericht verdwaald bij de gamers.
Gpgpu physics was door intel gekilled havokFX
Nvidia ging agressief Cg later Cuda en hele softwarestack promoten cq opdringen.
ATI later AMD ging daar te last in mee.
Nv pakt de duurste nodes big godzilla chips om de kroon te garanderen. AMD beleid is nu productie efficiëntie. Werkt zeer goed in pro tak. Minder client side.
AMD die stopt met high end kaarten te ontwikkelen is nochtans een zeer gezond antwoord op de "ik koop sowiso nvidia" gedachte die heerst bij alle desktop gamers nu. Minder geld verkwisten op een vraag die al beantwoord is voor dat ze gesteld is.
Ik verbaas mij er altijd in hoeveel mensen een nVidia kaart willen omdat de GTX4090 de snelste is.
Maar om terug een auto analogie boven te halen, blijkbaar verkoopt Mercedes meer auto's als hun F1 team het goed doet. Voor mij is dat een vreemde vaststelling, maar ik zal wel een vreemd geval zijn.
Maar ook met lower end kaarten loopt AMD consistent twee jaar achter met hun featureset. Ray tracing - twee jaar later. Mesh shaders - twee jaar later. En dit speelt al heel lang. Minstens sinds 2010 is Nvidia steevast twee jaar eerder met het ondersteunen van nieuwe shader models.

En Nvidia's marketing focust zich op deze nieuwe technologie. Vooral DLSS en ray tracing. Waardoor AMD als achterlopend B-merk word gezien.
Maar ook met lower end kaarten loopt AMD consistent twee jaar achter met hun featureset.
Hoe belangrijk is een futureset op low end kaarten? naar mijn mening totaal niet want Raytracing bijvoorbeeld is niet fatsoenlijk te doen op low end.. ook niet op die van nVidia

Raytracing is op de wat lower end kaarten ook vaak gelijk aan prestaties bij nVidia en AMD

in de Low end is juist AMD vaak het betere product, aangezien die vaak betere prestaties bieden voor minder geld, in de high end is dat wel echt nVidia

Mindset is wat echt het grootste probleem voor AMD imo, en dat is heel lastig te veranderen

[Reactie gewijzigd door Sinester op 10 september 2024 12:38]

RayTracing is ook op Nvidia nog steeds ruk, ook 5 jaar later. Zie 40 fps op RayTraced Cyberpunk...op een 4090.

En laten we niet beginnen over de onzin dat AMD achterloopt, hoe oud is DX12 ondersteuning op AMD? En op Nvidia? Oooooooh ja, daar zit bijna 4 jaar verschil in, en Nvidia ondersteunde het ook half half op veel kaarten.

Hoeveel VRAM hebben AMD en Nvidia kaarten en hoe goed verjaren die kaarten? Oh ja, AMD verjaart zoveel beter door die featureset. De ene keer dat Nvidia dit door had, kregen we de GTX 1080 Ti en meteen: GOAT.

Jij focust, net als Nvidia, op de mooie, maar achteraf compleet irrelevante marketing.

AMD heeft nu ook FG die jonger dan DLSS3 is, maar surprise mothefucker, werkt op alle spellen via driver! Waar is die feature support van Nvidia?

Je comment is onzin, AMD ondersteunt genoeg features, alleen gieten ze geen miljarden in marketing om jou te vertellen wat jij moet vinden, dus denk je niet aan ze als een A merk.
Om het over Mantle / Vulkan maar niet te hebben, DX10.1 met vrijwel gratis AA, of hoe ze met Truform de eerste stappen naar tesselation wisten te zetten.

Het grootste probleem van AMD is hun marketing en communicatie.
Maar ook met lower end kaarten loopt AMD consistent twee jaar achter met hun featureset. Ray tracing - twee jaar later. Mesh shaders - twee jaar later. En dit speelt al heel lang. Minstens sinds 2010 is Nvidia steevast twee jaar eerder met het ondersteunen van nieuwe shader models.
En hoe erg is dat ? Buiten een paar show case games en een paar uitslovers is er de eerste 3 jaar nauwelijks iets dat uitkomt met die technieken in gedachten.
De rest is er meestal vlug bij gepatched om te kunnen zeggen dat het er in zit.
Er zijn wel een paar redenenen die ik kan bedenken om een 4090 te halen

- je wilt op 4k gamen en dikwijls hoger dan 60 halen
- je wilt gewoon maximale uit een game halen met alle pracht (op eender welke resolutie)
- ik koop een videokaart en wil er vele jaren mee doen
- e-peen value

Ik heb zelf een 4k scherm, wel maar 60hz. Mijn 2060 super had het toch wel wat moeilijk met sommige titels. Ik kan gerust een 4090 betalen, maar gaming is bij mij 5 tot 10% maximaal van pc gebruik, de rest is werk. Ik nam vroeger altijd een 60 reeks omdat dit toch wel 4 jaar kan volhouden. Het maximale aan pracht & praal hoeft ook niet voor mij. Daarbij ik speel meestal alleen Wow/Diablo/Hearthstone. Soms eens een shooter. Dat zijn nu niet de games waar je echt een 4090 voor nodig hebt. Maar deze keer ben ik toch maar voor een 4070 super gegaan. Ik koop een nieuwe pc om de 4 jaar. En die videokaart ga ik ook niet vervangen tussendoor. Maar ik snap best dat mensen zeggen ik ga die videokaart 5-6 jaar gebruiken of zelfs langer, en dan eenmalig een investering doen. Het is maar wat je er wilt aan uitgeven en wat je er hoopt uit te halen.
Dat is zijn vraag niet; zijn vraag is waarom ze elke andere Nvidia kaart kopen omdat de 4090 en dus Nvidia op dat moment het snelste is.
Dus in jouw geval, waarom heb jeen 4070 Super genomen i.p.v. bijvoorbeeld een 7900 XT? Is dat simpelweg omdat Nvidia bekendstaat de snelste te zijn met hun 4090 of heb je andere redenen.
Nu speelt dit voornamelijk bij de low- en mid-end; want het aantal mensen dat een GTX 1050 Ti hebben gekocht i.p.v. een heel veel snellere AMD kaart (40% sneller) voor hetzelfde geld is best significant. Die kaart was een van de slechtste op de markt qua prijs/performance.

Dit hoef je overigens niet te beantwoorden hoor ;).
Huh, de 7900XT is snel 100+ euro duurder dan de 4070 Super. Verder genoeg redenen, die 4070 is 100W zuiniger in gaming load, heeft DLSS, heeft AV1 decode, verbruikt 16W ipv 36W bij een multimonitor setup, is veel stiller en is plug & play met een vorige Nvidia kaart zonder driver herinstallatie.
Serieus... ik geef een voorbeeld. Er is een reden dat ik aangeef dat die persoon het niet hoeft te beantwoorden omdat het bij wijze van spreken is en ik geen behoefte had om een comment waar iemand kaart x tegen kaart y gaat zitten vergelijken. 8)7 8)7 8)7

Los van het feit dat ik niet in ga op die vergelijking wil ik gelijk wat rechtzetten; AMD heeft gewoon AV1 encoding en ook decoding, waar haal je het vandaan dat ze dat niet hebben op RDNA3?
https://www.techspot.com/...1-encoder-almost-par.html

Ik zou na een andere gpu eigenlijk altijd overwegen een herinstallatie te doen van Windows maar dat ter zijde. Je kan Windows niet vertrouwen dat het na een aantal jaar niet is volgelopen en het een stuk minder presteert. Zeker als je ziet hoeveel problemen HardwareUnboxed heeft gehad met hun cpu testing.
Het punt is dat je net doet alsof er geen rationele reden is om de keuze te maken. Er zijn er meerdere. Op bepaalde vlakken loopt Nvidia simpelweg voorop. Of jij persoonlijk daar waarde aan hecht is een ander verhaal. Maar we hoeven niet te doen alsof er geen reden is om een Nvidia gpu aan te schaffen anders dan dat iemand 'dom' of ongeïnformeerd is.
Waar doe ik overkomen dat iemand die Nvidia koopt dom en niet geinformeerd is? Er zijn een aantal gevallen dat je echt wel een slechte koop kan doen. Een aantal voorbeelden zijn de GTX 1060 3GB, de 4060 Ti 8GB en er zijn genoeg andere modellen te vinden van Nvidia (en AMD) die gewoon slecht zijn.

Dat was niet het punt van mijn discussie, het ging er mij om dat als je een gpu overweegt je niet blind op een merk moet afgaan maar kijkt naar het beste binnen je budget. Trouw zijn aan een merk is een slechte leiddraad om een aankoopbeslissing te maken.
Dat is wat wordt geïmpliceerd door de stelling dat men een Nvidia kaart aanschaft omdat er een halo kaart is uitgebracht. Je vraagt notabene een andere gebruiker om zijn aankoop te verantwoorden...

De boodschap die ik probeer over te brengen is dat iedereen andere overwegingen heeft. Zo ook voor de 1060 3GB. We kwamen in onze eerste mining hype en de RX 480 was niet te verkrijgen en zat de RX 580 boven de 400 euro. Ook de 1060 6GB steeg boven de 400 euro . Die 1060 3GB was echter nog voor minder dan 200 euro te krijgen omdat hij door het beperkte vram niet voor mining kon worden benut. Op dat moment was de GTX 1060 3GB een prima optie. Je kon 200 euro in je zak houden en enkele jaren later je gpu voor 100-150 verkopen en vervolgens had je dus 300-350 euro te besteden voor een nieuwe kaart welke veel sneller is dan zowel de RX 480/580 en de 1060 6GB. Ik ken toevallig zowel iemand die voor de 3GB route als iemand die voor de 6GB route is gegaan. De persoon met 3GB had een beperkt budget en moest voor Forza Horizon 4 upgraden. Dat was ten tijde van de RTX 3xxx serie. Die heeft dus jaren lang plezier gehad van zijn aankoop. De persoon met de 6GB variant heeft het toevallig tot dit jaar uitgehouden, maar die had beter veel eerder kunnen upgraden. Maar die miste die 200 euro... Eindstand heeft de 3GB koper het beter gedaan, die heeft gemiddeld de soepelste spelervaring gehad over de laatste 6 jaar.

Toevallig ken ik iemand die recent een 4060 Ti 8GB heeft gekocht. Ik verwacht dat de logica is dat het budget rond de 400 euro zat en de 16GB daar overheen gaat en de non-Ti welliswaar 100 euro goedkoper is maar wel 20 fps trager. Zo heeft iedereen zijn eigen context waaruit een aankoopbeslissing wordt gemaakt.
Het argument van catfish was niet dat mensen een 4090 willen, maar dat mensen nvidia willen omdat de 4090 het beste is, ook al is het product dat zij daadwerkelijk gaan kopen helemaal niet het beste. Ik denk dat de gedachte gang een beetje is van "De 4090 is het beste, dus de rest zal ook wel goed zijn."
Precies dat Cricque!
Ik koop om de 5-7 jaar een nieuwe PC.
Elke maand 50 euro opzij voor een PC potje.

Tegen die tijd haal ik het beste wat er op de markt is en kan dan jarenlang weer op alle pracht en praal spelen. Soms ook een shooter en wat multiplayer, maar vaak singleplayer spellen waar de graphics je toch wat meer in het spel kunnen trekken.

Waar ik voorheen altijd voor 80 ging, was de prijs/performance verhouding van de 4080 tov de 4090 zo belabberd dat ik voor de 4090 ben gegaan en nog steeds geen spijt heb.
Dat heeft volgens mij meer te maken met hoe fucked the prijzen van de 4080 en 4090 waren, dan met hoeveel geld jij uitgeeft elke 5 jaar. Als we allemaal kochten wat efficient was, kon jij dus elke 5 jaar voor de helft die nieuwe PC halen, ipv 1500 euro alleen aan de GPU uit te geven.
Zeker waar! Vooral de 4080 was gewoon exorbitant. Ik had ervoor een 1080 en die was zeker veel vriendelijker geprijsd.
mijn 4090 gebruikt aanzienlijk minder stroom, omdat ik hem tegen houdt, dan mijn 3090. Terwijl ik er 50% ofzo meer uit haal. Dat was voor mij de reden om naar een 4090 over te stappen.

Dit overigens op 4k 120hz.

Met tools als Lossless Scaling op steam, is de druk om over te stappen op 5090 niet bestaand meer.
Met een native 40-80FPS, met de upscaler naar 120, is voor mijn brein perfect. Ik merk geen lagg(zolang je boven die 40 blijft), met beperkte hoeveelheid artifacts en toch 120 beelden per seconden aan smoothheid. Doe ik het upgraden graag nog even uitstellen.
Ik verbaas mij er altijd in hoeveel mensen een nVidia kaart willen omdat de GTX4090 de snelste is.
Maar om terug een auto analogie boven te halen, blijkbaar verkoopt Mercedes meer auto's als hun F1 team het goed doet. Voor mij is dat een vreemde vaststelling, maar ik zal wel een vreemd geval zijn.
Heb je daar dan cijfers van gezien? De reden die ik het meeste tegen kom is dat men verwacht met Radeon (driver) problemen te krijgen dan wel in het verleden negatieve ervaringen hebben gehad. Dat men iets koopt omdat de 4090 de snelste kaart is heb ik eerlijk gezegd zelden voorbij zien komen.
Ik denk dat de meeste gamers prima bereid zijn om AMD te kopen zolang aan de volgende voorwaarden wordt voldaan:
1. Gaat 't om een high end kaart, dan moet 't sneller dan die van nvidia zijn. De gamers die t onderste uit de kan willen halen gaan sowieso voor maximale perf, en in toenemende mate maximale efficiëntie.
2. Voor mainstream gamers gaat t tegenwoordig vaak om prijs/perf en daarna om efficiëntie.

In categorie 2 kan AMD prima producten blijven leveren, maar in categorie 1 zijn ze al 10 jaar geen serieuze speler meer. Ze komen met een kaart (bv de RX7950 XT) en die presteert op zich prima, maar niet beter dan nvidia's concurrentie (in bv de 4080 en al helemaal de 4090).

EDIT: wow. Ik geef een on topic antwoord, maar omdat mensen het niet met me eens zijn wordt het omlaaggemod. Ik vraag me af wat er is gebeurd met T.net, want moderatie is tegenwoordig ronduit bizar, en een stuk slechter dan pak-m-beet 10-15 jaar geleden.

[Reactie gewijzigd door Jeanpaul145 op 10 september 2024 16:00]

Sorry, maar de 4090 is eigenlijk een Titan klasse kaart en staat volledig in zijn eigen segment.
Net zoals de voorgaande titan kaarten.

De highend 4080 bieden ze eigenlijk prima concurrentie met een 7900XTX. Raytracing is stuk verbeterd, maar blijft wel beetje het zere been van AMD. Ik gebruik t alleen vrij weinig en dan is het dus geen probleem.

En persoonlijk net de volledige switch gemaakt naar Linux. En dit is hearsay maar dan schijnt AMD (had ik al) gewoon de betere keus te zijn. Hoe dan ook, t werkt prima met Steam en proton.

Uiteindelijk is het marktaandeel van Nvidia niet te rechtvaardigen puur op basis van 4090. Helaas staren veel mensen zich daar wel blind op, om vervolgens een 4060 te kopen. Terwijl AMD dan ook prima alternatieven heeft.
Ik heb tot op heden altijd veel problemen ervaren met de software, en drivers van AMD. In 3 maanden tijd, had ik meer Green screen of deaths en drivers issues, met een 5700xt(tijdelijke oplossing) als dat ik in de jaren daarvoor had met nvidia.

als ik een "dure" videokaart koop, wil ik er vanuit kunnen gaan dat het altijd werkt. en niet constant fouten en problemen ervaren. op ene van een andere manier krijgt AMD het "goedkope" imago, en de schade met slechte software en drives bij mij niet uit mijn gedachten.

ik ben absoluut niet merk trouw, Beste kwaliteit/performance, maar wel onder de voorwaarden dat het altijd werkt, en voldoende kracht heeft om de monitor aan te sturen. AMD voldeed/voldoet daar gewoon niet aan.

4k 120hz, dan kijk je naar een 4080 en of 4090.
Met lossless scaling is dit nu wel een andere discussie geworden.
Ik heb tot op heden nooit veel problemen ervaren met de software en drivers van AMD.
En juist wel bij Nvidia.
Dat jouw gedachten niet met de werkelijkheid overeen komen kan ik helaas niet voor je veranderen. De driver mythe zal bij mensen zoals jij altijd blijven bestaan.

Ik ben ook niet merk trouw.
Maar ik onthoud wel wanneer een merk mij probeert te belazeren. Dat merk koop ik dan niet meer. Vandaar dat ik Nvidia zal vermijden. Ook al moet ik dan 5% performance inleveren. Dat heb ik er graag voor over.
net zoals Beat The Best ben ik ook met tegenzin naar Nvidia overgeschakeld.
zit nu moet een 2060 super, maar momenteel is er geen kaart die en een upgrade rechtvaardigt en nog schappelijk is ook.
Ik zit toch echt te kijken naar een AMD kaart ter vervanging van m'n huidige GPU. (Ook AMD)
Dat is mooi, ik doe dat ook (heb al een paar generaties AMD) en een goed deel van de tweakers ook, maar dat is maar een klein deel van de totale markt, en daar heeft AMD dus (te) weinig aan.

Vrijwel iedereen zou dat moeten doen, maar dat gebeurd dus niet.
Eens. Alsof AMD als een soort onbaatzuchtige politieagent alleen maar kaarten moet ontwikkelen zodat Nvidia niet al te hoge prijskaartjes kan hanteren bij onze lieve mede-gamers.

[Reactie gewijzigd door Boss429 op 10 september 2024 11:18]

Voor AMD is het juist een goede zaak om te stoppen met de high end markt. Ongeveer 80% van de gamer GPU omzet zit in het lagere/midden segment. AMD moet daar eerst een groter marktaandeel behalen voordat het zich weer kan permitteren om high end kaarten te maken.
Echter kopen veel mensen een kaart van het merk met de beste halo-card, en dat is al even NVidia. Ja, die dingen kosten teveel, en ze verkopen ze beperkt, maar dat straalt wel af op de rest.

AMD heeft al een tijdje issues met de GPUs, ze proberen de features van NV bij te benen, maar zijn daar altijd 1-2 generaties later mee, als ze het al mogen (NVidia doet graag aan proprietary features). Pakken ze het een keer goed op, dan volgen games slecht, want ze betalen ze te weinig...
Doen ze het een keer goed en brengen ze echt prima kaarten uit, doet Nvidia een zijstapje met 'kijk, nieuwe feature die in 1,5 games werkt maar wel echt de toekomst is' en giet 20 miljard in mensen wijsmaken dat AMD altijd 'achterloopt', ipv dat AMD zich focust op daadwerkelijke performance zonder truucjes en veel VRAM, en goede open community ondersteuning.

Grafhekel aan het feit dat het Nvidia gelukt is om de hele wereld wijs te maken dat AMD achterloopt, en dat niemand fatsoenlijk kijkt naar of dat wel uitmaakt.
Ik vraag me af of ze wel zeggen dat er geen opvolger komt voor de 7900xtx of dat ze eigenlijk toegeven dat de 4090/5090 voorlopig niet te matchen is.

Voor hetzelfde geld komen ze wel met een goede opvolger aanzetten, maar weten ze van te voren al dat ze niet kunnen concurreren op het echte topsegment.

Zelf heb ik nu sinds een half jaar een 7800xt draaien en die bevalt mij in ieder geval wel erg goed, stiekem hoop ik dan ook dat ze wel stappen gaan zetten en proberen 'under-promising but over-delivering' toe te passen.
Stiekem heb ik ook het gevoel dat ze dit bedoelen tussen de regeltjes door. Laten we het hopen!
Hoezo deprimerend? Het is juist een goede beslissing van AMD om op de budget range te focussen ipv de high-end.
Omdat ik principieel Nvidia vermijd en zeer tevreden ben met mijn 7900 XTX. Op een gegeven moment wil ik dat wel kunnen upgraden naar de next best thing.
Wellicht springt Intel in dat gat. De ruimte die AMD overlaat kan Intel overhalen door te gaan met hun gaming GPU's.
Dat ze nu geen high end maken was toch sowieso al een lichtpuntje voor de lange termijn?

Lange termijn is juist de hele reden voor de stap die ze nu zetten
Eigenlijk is de term GPU dus achterhaald en is het meer PPU, parallel processing unit
Hoop niet dat dit de prijzen en beschikbaarheid voor gamers verslechterd, gezien de vraag vanuit Enterprise enorm is, en die een hoop meer geld kunnen neertikken voor het zelfde.
Als AMD overstapt op chiplets en IO dies zoals de cpu's zal het beter worden, dan heb je nog geen handvol designs die je gewoon naar wens op een kaart kan zetten. IO die, chiplet in 2 of 3 smaken en misschien nog een chiplet voor wat extra's. Dan heb je geen 20 verschillende designs om te bakken waar je tussen moet switchen.
Dat is niet helemaal waar ik op doel.
AMD heeft nu een beperkte fab space, waarvan ze een deel toewijzen aan consumenten producten, en een deel aan enterprise producten. Als ze nog maar 1 productielijn hebben straks, wat houd dan de bedrijven nog tegen om met hun koopkracht de volledige productie binnen te halen.
Gezien zij verwachten geld te verdienen aan hun GPU's is de som flink anders voor hen.

[Reactie gewijzigd door Flamesz op 10 september 2024 12:57]

De CPU's voor de servermarkt worden ook op dezelfde manier met chiplets gemaakt. Geheugenchips idem (hetzij met ecc support) en zelfs overige onderdelen zoals moederborden, pci-e switches, NIC's etc. worden zowel zakelijk als voor consumenten ingezet. Ik verwacht door de vereenvoudiging een groter aanbod en dus minder problemen. In dezelfde fabs kunnen AMD-gpu's ook voor de servertoepassing worden gemaakt, dat gebeurt nu ook niet (en dat is niet omdat het een keer switches is van het type gpu dat men moet maken). Alleen als het enorm succesvol is en er een rush aan komt zoals de mining rush die we een aantal jaar terug hadden, zou het anders kunnen zijn. Maar da's koffiedik kijken denk ik.
Hebben we aan de enterprise kant niet al net zo'n grote rush op GPU's, al dan niet groter, met de AI hype?
Volgens mij heeft die nu geen invloed op de consumenten gpu's. Terwijl dezelfde fabs voor enterprise als voor consumer produceren (zelfde productielijn, ander ontwerp) als ik het goed heb.

Sterker nog, voorheen konden consumenten gpu's gebruikt worden en dat is waar het fout ging. Ik geloof dat er zelfs speciale mining kaarten kwamen en de gaming gpu's werden gehandicapt voor mining om de gamers tevreden te houden. Dit euvel is dus zeker bekend bij de fabrikanten. Het feit dat ze deze eerdere stappen hebben ondernomen toont ook aan dat ze dit belangrijk vinden.

[Reactie gewijzigd door Nox op 10 september 2024 13:50]

Hardware raytracing heeft hele stevige postprocessing nodig, dit is waar de matrix vermenigvuldiging versnellers voor nodig zijn.

Het niet in de GPU stoppen terwijl NVIDIA en Intel het wel doen was niet houdbaar. Maar het verrast me wel, na het laatste nieuws dacht ik dat ze de GPUs dood zouden laten bloeden.

[Reactie gewijzigd door Pinkys Brain op 10 september 2024 11:35]

Was dit met de Radeon VII ook niet geprobeerd? Die kaart was ook niet een groots success volgens mij.
Zo AMD is ook in de stress geschoten, en laat dat woordje leadership ook maar zitten. Enigste wat ik zie is naar andere kijken en proberen na te doen. Regeren is vooruitzien al ben ik geen leren jacket fan, hij dwingt toch respect af of je't wilt of niet.
Ja want dat ging met vega zo geweldig. Proberen een half bakken datacenter chip te verkopen aan gamers met alle gevolgen van dien.

Op dit item kan niet meer gereageerd worden.