Topman AMD: focus bedrijf ligt niet meer op ontwikkeling van high-end gpu’s

Jack Huynh, een topman binnen de gpu-divisie van AMD, stelt dat de focus van het bedrijf momenteel niet ligt op de ontwikkeling van high-end videokaarten voor consumenten. AMD wil een breder segment van de markt aanboren en meer marktaandeel verwerven.

Huynh deed deze uitspraken tijdens een interview met Tom’s Hardware. Hij benadrukt dat de voornaamste prioriteit van AMD momenteel het vergroten van het marktaandeel in de gpu-markt voor consumenten is. "Zonder schaal trekken we geen ontwikkelaars aan", stelt hij. “Dat is mijn prioriteit op dit moment. Als ik ontwikkelaars een marktaandeel van 40 procent kan beloven, dan zullen ze optimaliseren voor AMD”, zegt Huynh. "Daarna kunnen we ons richten op het topsegment."

Voor gpu’s voor datacenters slaat de senior vicepresident een andere toon aan. In deze categorie wil AMD wel het beste product afleveren. Huynh verwijst bijvoorbeeld naar de MI300-gpu die momenteel door Microsoft wordt gebruikt om ChatGPT 4 aan te sturen. "In het serversegment hebben we een leidende positie en verwerven we ook marktaandeel."

Huynh benadrukt aan het einde van het interview dat gamers zich geen zorgen hoeven te maken. Gaming blijft een belangrijke strategische pijler van het bedrijf. Er zijn ook gamingproducten in de maak voor zogenoemde enthousiastelingen. De topman deed geen concrete aankondigingen, maar zei wel dat AMD chiplets wil inzetten voor deze producten. Op welke wijze is niet duidelijk. Het Amerikaanse bedrijf werkt volgens Huynh ook nog steeds aan nieuwe Threadripper- en Ryzen 9-processors.

Door Jay Stout

Redacteur

09-09-2024 • 07:49

202

Submitter: Boss429

Lees meer

Reacties (202)

202
200
116
5
0
70

Sorteer op:

Weergave:

Dit is toch prima? Wil je het allersnelste? Koop een 5090 of whatever ze dat ding gaan noemen. Voor de rest van de consumenten (99%) kan AMD de goedkoopste keuze zijn voor dezelfde performance. Waarom zou je zo veel geld kapot slaan op de ontwikkeling van 1% van de verkoop? Dat is financieel gezien echt een hele slechte keuze en dient voor niks meer dan e-peen vergelijking. Ik koop altijd het beste wat ik kan krijgen voor mijn budget (wat elke consument zou moeten doen. Fanboy-gedrag is achterlijk) en of dat nou groen of rood is kan me een worst wezen.

[Reactie gewijzigd door bjvdven op 9 september 2024 08:11]

Als het lukt om 40% marktaandeel te pakken zonder het topsegment te bedienen wel. De grote vraag is dan ook: gaat dat lukken. Daar heb ik een hard hoofd in. De populaire esport gamers krijgen geld van Nvidia om Nvidia te promoten. Het handige neefje die veel games op zijn 5090 adviseert ook Nvidia. Hoe ga je dan 40% halen?
Heel lang was Intel ook de go-to voor vrijwel elke consument mede door de marketing en implementatie van OEMs. Maar sinds Ryzen is dat compleet omgeslagen. Ze hebben met betaalbare, goede presterende chips de gaming-, laptop en servermarkt op stelten gezet. Als ze het goed aanpakken is 40% echt wel haalbaar.
Maar hoe hebben ze dit gedaan?
Door geen top segment te hebben?

AMD heeft de cpu markt gewonnen doordat uiteindelijk de x3d chips intel versloegen voor de gamers en terwijl dat gebeurde gingen de enterprise cpu's die van intel hard voorbij. Als AMD zich had gefocust op mid range cpu's dan hadden ze nimmer nooit het marktaandeel gehaald wat ze nu hebben.
Dat deden ze in het begin natuurlijk wel hè. Ryzen 1000,2000 en in mindere mate 3000 versloegen ook niet de “halo product” CPU’s van Intel maar boden wel een heel goed alternatief voor de gamer/gebruiker die veel features wilde voor relatief weinig geld. Pas toen ze het marktaandeel teruggewonnen hadden zijn ze ook in het hogere segment consumenten producten weer mee gaan doen met de x3d chips.

Dat kan in dit geval natuurlijk ook. Hij zegt ook niet dat AMD nooit meer om de prestatiekroon zal vechten maar dat dit gezien het huidige marktaandeel nu niet opportuun is.
De eerste generatie ryzen versloeg absoluut the intel chips in multi core, dankzij een dubbel aantal cores. In gaming toendertijd niet, maar dat kwam ook omdat veel games maar voor 1-4 cores geoptimaliseerd waren. Het idee was dat de chips van AMD in de toekomst veel beter zouden zijn
Multi core prestaties van Ryzen CPUs waren inderdaad dikke prima.

Maar de zelfbouwers waren door de bank genomen niet echt gebaat bij multi core prestaties, het gros daarvan zijn gewoon gamers die een leuke all round PC bouwen.
Daar bleek de ryzen 3600 een schot in de roos juist omdat het een prima all rounder was voor maar 200 euro, terwijl het zeker geen topmodel was, en al helemaal niet in single core prestaties (gaming).
AMD begon al flink wat marktaandeel te veroveren voordat ze met hun x3d-chips kwamen. Dat begin werd al gemaakt met de introductie van Ryzen 1000, kwam op stoom met 2000 en ging nog wat harder met 3000. In 2012 had AMD een marktaandeel van 13,75% kijkende naar CPU's. Vanaf toen is het gaan stijgen en vóór hun x3d-chips uitkwamen was het al gestegen naar 25%. Vooral de Ryzen 5 2600 en 3600 zijn best lang enorm populair geweest onder gamers.
AMD heeft de cpu markt gewonnen door X3D?

AMD's succes op de cpu markt is eerder terug te leiden naar de 10nm productieproblemen bij intel sinds 2016. Hierdoor heeft Intel vele jaren geen nieuwe coredesign op de markt kunnen brengen, omdat die ontworpen waren voor hun 10nm procede, terwijl AMD in 2016 met hun eerste Zen architectuur kwam en de jaren daarna voort bleef denderen met nieuwe en verbeterde Zen architecturen terwijl Intel geen nieuwe coredesign op de markt bracht / kon brengen.
Pas in 2021 kwam Intel met Rocket Lake, een 10nm Sunny Cove coredesign gebackport naar Intel 14nm procede.
Maar in de tussentijd had Intel de schade al geleden en AMD flinke marktaandeel verkregen.

Intels problemen, en Zen's successen in de datacentermarkt, waren een zege voor AMD die doordoor eindelijk eens een flink marktaandeel heeft kunnen pakken en met de winsten goed heeft kunnen investeren in de toekomst.
Een van de sterke punten was dat je geen moederbord hoefde te upgraden met iedere generatie. Goede prestaties voor minder, en geen kosten voor een nieuw moederbord.
Het verschil is wel dat intel het met zijn eigen fabrieken moest hebben en die begonnen achter te lopen op concurenten zoals tsmc. Daardoor zat intel heel lang op zijn 14nm node (met steeds meer plusjes eracher) terwijl de wereld al de 10nm gepasseerd had.
Hetzelfde heeft AMD meegemaakt voor ze hun fabrieken afstoten -> GlobalFoundries. Geen meedelijden met Intel ze hebben de markt een tijd gedomineerd zonder enige innovatie.
Hoeveel % van de markt is het topsegment? Maximaal 10?

Marketing werkt maar tot op zekere hoogte, alle serieuze reviewers kijken (per definitie) naar prijs/kwaliteit verhouding. Er is genoeg dom volk wat blind achter influencers aanloopt, maar tochniet genoeg om AMD onder 40% te houden?
Kijkend naar de percentages van kaarten in de Steam survey (Bias naar gamers) van augustus 2024.
  • NVIDIA GeForce RTX 3090: 0.96%
  • NVIDIA GeForce RTX 4090: 0.48%
  • NVIDIA GeForce RTX 2080 SUPER: 0.42%
  • NVIDIA GeForce RTX 2080: 0.37%
  • NVIDIA GeForce RTX 2080 Ti: 0.35%
https://store.steampowere...e-Survey-Welcome-to-Steam

Marktaandeel op steam van deze NVIDIA GPU's is dus 2.58%. De massa koopt xx60 of xx70 modellen en eerder een xx50 dan een xx80.
Ik zou de 3080 en 4080 kaarten hier toch ook in meenemen, dat zijn in mijn ogen ook topsegment kaarten. Maar het lijkt er op dat zelfs dan het niet eens in de buurt van de 10% gaat komen
Maar voor die heeft AMD een redelijk antwoord met de Radeon RX 7900 XTX. Op het gebied van rasterisation doet AMD redelijk goed mee, maar qua ray tracing lopen ze iets achter ivm de 4080.

De 3080 en. 4080 zijn in mijn ogen high-end, maar geen topsegment. Het topje is namelijk de 3090 en 4090. De 20xx serie had geen 90 variant dus daar daarom de 2080. Daarom ook bewust gekozen voor de filtering om alleen de hoogste kaarten mee te nemen, waar AMD op dit moment geen antwoord op heeft.

Maar de conclusie wordt er niet echt anders van. AMD heeft nog veel marktaandeel te winnen, oa gezien ze amper voorkomen in de steam survey.
Als je naar de top 15 kijkt, ~47% van alle video kaarten op Steam, krijg je dit lijstje:

xx60 (9x)
xx50 (3x)
xx70 (2x)
xx80 (1x)

NVIDIA GeForce RTX 3060
NVIDIA GeForce RTX 4060 Laptop GPU
NVIDIA GeForce GTX 1650
NVIDIA GeForce RTX 3060 Laptop GPU
NVIDIA GeForce RTX 3060 Ti
NVIDIA GeForce RTX 4060
NVIDIA GeForce RTX 2060
NVIDIA GeForce RTX 3070
NVIDIA GeForce GTX 1060
NVIDIA GeForce RTX 4060 Ti
NVIDIA GeForce RTX 3050
NVIDIA GeForce RTX 4070
NVIDIA GeForce GTX 1660 SUPER
NVIDIA GeForce GTX 1050 Ti
NVIDIA GeForce RTX 3080

Haal je die xx70 en xx80 uit die top 15, zit je op ~39% van de markt.
Waar trek je de lijn met "top segment"?

Gaat dat over de prijs? De prestaties? De leeftijd? Het verschil in performance met andere kaarten?

Een 4060 is vergelijkbaar met een 2080 qua presentaties bijvoorbeeld.

0.37% heeft op Steam een 2080, 3.31% een 4060.
Ik weet niet of iedereen een budget heeft/zal hebben om een 5090 te kopen. The next best thing (voor een redelijke prijs) moet volgens Jack dan een AMD worden. Goed gezien toch?
Ja, tot zo ver de theorie. Als de 5090 de gangmaker is dan worden games daar voor geoptimaliseerd en staat er in beeld bij het opstarten "optimized for NVidia". En Nvidia kan dat betalen door de absurde marge op de topkaarten. Vandaar mijn opmerking dat ik er niet zeker van ben dat 40% gaat lukken. Intel zit tegenwoordig ook in die vijver en NVidia zelf ook.
Als je R&D meeneemt, is de winstmarge op de topkaarten lager dan op 1 stap daaronder.
Als de 5090 de gangmaker is dan worden games daar voor geoptimaliseerd
Geen enkele zichzelf serieus nemende gamemaker optimaliseert specifiek op de highest end. Sterker nog: Als je op de mediaan optimaliseert, dan zal high end zeker en vast ook goed werken.
Ik zei net toch dat ik geen budget had om een 5090 te kopen.
In het verleden was dat zeker zo maar tegenwoordig kunnen mensen de snelste gpu vaak niet meer betalen. En de twee die daar na komen ook niet meer. Ik denk dat 500 eruo voorde meeste mensen al duur genoeg is voor een onderdeel en dan moet je nog een hele pc er omheen bouwen. Vroeger kocht je de snelste gpu voor dat bedrag (de ATi 9700 Pro was @ launch ongeveer die prijs) nu mag je gewoon 2000 euro aftikken voor de beste kaart.

AMD heeft het vaker geprobeerd maar het hielp niet genoeg. Echt de snelste kaart hebben is tegen nVidia ook erg lastig gezien hoeveel geld ze de afgelopen 30 jaar binnen hebben kunnen harken. AMD doet het pas een jaar of 6-8 weer beter door de goede cpu's van het bedrijf maar maakt lang niet zo veel winst.

Ik denk dat de keuze om een hele goede en betaalbare midrange gpu te ontwikkelen en die goedkoper in de markt zetten wel een goed idee is. Op een gegeven moment moet je wat anders proberen. Zelf heb ik ook wel interesse in een gou die 4080 / 5070 performance kan bieden voor een 4060 / 7800XT prijs.

Dst is sneller dan wat ik nu heb (6950XT maar wel beter betaalbaar). Ik heb deze voor 730 gekocht ook al erg veel geld.
Ik game zelf niet genoeg om 2k aan een gpu uur te geven die 2 jaar later nog maar 1k of minder waard is.
Bij AMD zit het probleem voor een groot deel ook in de instelling dat de software om de kaart heen niet zoveel uitmaakt.
Dit zie je zowel aan de professionele- als aan de consumentenkant.

Aan de professionele kant hebben ze nooit écht de moeite genomen om ROCm een volledig alternatief voor CUDA te maken, en pas de afgelopen twee jaar begint er mondjesmaat meer ondersteuning te komen in libraries en dergelijke. Daarbovenop hebben ze vanwege marktsegmentatie of onwil heel lang het zo gehouden dat consumentenkaarten niet met ROCm gebruikt kunnen worden.

Aan de consumentenkant is het zo dat een heleboel prettige randfeatures véél later geintroduceerd zijn, en vaak op een matige of knullige manier. AMD's versie van Reflex (Anti-lag) zorgde in eerste instantie voor bans. De AI noise filtering voor een microfoon is echt tranentrekkend slecht. Games opnemen heeft heel lang echt matig gewerkt.
Daarnaast zijn er gewoon veel vaker driverproblemen, maar dat ligt ook deels aan dat game developers veel minder testen op AMD GPUs, dus dat kan ik AMD niet helemaal aanrekenen.
AMD en vooral ATI is in het verleden vaker vooruitsteevend geweest qua features maar het werd pas opgepakt als nVidia ze ook ondersteunde. Veel features waren goed maar is nooit grootschalig ondersteund. Denk Bv aan hardware om directional audio te doen dat had amd al in het begin van GCN. Maar de developers gingen er niet voor waarschijnlijk te weinig market share. En amd kon niet betalen om daar de's neer te zetten iets wat nVidia wel doet als ze een nieuwe software feature gaan introduceren.

Wellicht kunnen ze dat in de toekomst meer gaan doen maar momenteel gaan de's niet zo maar uitzichzelf ondersteunen voor AMD of Intel Gpu's markt aandeel op pc is te klein. En al zit het in consoles dan zie je toch dat pc ports optimised zijn voor nVidia en minder voor AMD gpu's. Laat staan als de console hardware niet amd was geweest.

Heb soms ook het idee dat bepaalde features die in de console versie wel op de gpu versneld worden in de pc versie op amd niet zo gedaan worden. Wat daar de oorzaak van is weet ik ook niet. Wellicht toch DX12 wat anders werkt dan de nog meer bare metal api's van vooral de PS consoles?
Het is overduidelijk dat AMD een beter ecosysteem wil creëren voor de AI- en servermarkt. Ik ben het met Bjvdven eens dat ze tijdelijk het marktaandeel van 1% zullen opgeven om de grote dingen na te jagen.
ook in Reviewland is het bijzonder lastig om AMD spul te krijgen.
Nvidia gooit met modellen en doet veel deals met ASUS, MSI en Gigabyte zodat die merken veel reclame kunnen maken voor de AIB modellen.
AMD marketing budgetten zijn vele malen kleiner voor reviews en AIB's.
Het geld wat je bespaart door niet aan de 7900XTX te werken gebruiken om AMD in meer OEM te krijgen zou ook al kunnen. Ik vraag me af welk percentage gamers zelfbouw doet vs gewoon in Mediamarkt een HP koopt.
Als het lukt om 40% marktaandeel te pakken zonder het topsegment te bedienen wel. De grote vraag is dan ook: gaat dat lukken. Daar heb ik een hard hoofd in. De populaire esport gamers krijgen geld van Nvidia om Nvidia te promoten. Het handige neefje die veel games op zijn 5090 adviseert ook Nvidia. Hoe ga je dan 40% halen?
Inderdaad, als je geen topproduct hebt die met de concurrentie kan concurreren dan hebben de meeste consumenten het idee dat je gewoonweg niet kan concurreren als bedrijf zijnde. Ook als is je midden segment beter.

Ik snap AMD's keuze hierin niet. Het was een lange tijd een duopolie en nu met Intel is oligopolie. Ze kunnen gewoon veel consumenten aantrekken, maar het lijkt wel dat ze het niet willen want ze verdienen toch goed genoeg. Ze willen niet echt concurreren en dit is dus een goede voorbeeld waarom kapitalisme niet werkt als er geen voldoende gezonde concurrentie is.

De EU deed een onderzoek in het verleden en daar kwam uit dan je minimaal 4 tot 5 spelers nodig had in een markt voor gezonde concurrentie.
Heel simpel, door gewoon logisch na te denken en het product te adviseren wat het meest bang for your buck geeft :)
En eigenlijk in elk prijssegment onder de 1000 euro is dat een AMD kaart op dit moment!
uiteindelijk krijg je dus een slecht product van AMD terug. Minder focus daarop, dus geen goede performance. Dan heb je de concurrentie, dus Nvidia kan de prijzen alsnog omhoog schroeven ondanks dat de GPU kaarten nu al ontzettennd duur zijn.

ik weet niet hoe je op die gedachte komt,
... dus Nvidia kan de prijzen alsnog omhoog schroeven ondanks dat de GPU kaarten nu al ontzettennd duur zijn.
Daar is een simpel antwoord op: koop het niet! Een duidelijker signaal naar NVIDIA kun je niet geven.
Wat AMD heeft gedaan met de Ryzen, is juist een simpel maar zeer schaalbaar ontwerp maken. Waarmee in eerste instantie enkele chiplets aan elkaar geknoopt werden. Daarna hebben ze de threadripper en EPIC gemaakt voor de highend systemen.


Als ze voor een GPU het zelfde systeem weten te maken, waarbij ze initieel het lage en midden segment snel en goedkoop kunnen aanspreken, en daarna de threadripper en EPIC variant weten te maken hoeft het een het ander niet uit te sluiten. Belangrijkste zal zijn om een goeie basis neer te zetten in het midden welke het geheugentoegang regelt, en daar bovenop de gpuchiplets welke er aan vast moeten komen.
Je hoeft niet altijd het nieuwste te hebben. Als iedereen voor de gein eens 2 of 3 generaties overslaat zal Nvidia dat merken.
Dit is toch prima? Wil je het allersnelste? Koop een 5090 of whatever ze dat ding gaan noemen. Voor de rest van de consumenten (99%) kan AMD de goedkoopste keuze zijn voor dezelfde performance.
Het is niet prima voor de consument. Nvidia krijgt zo weer een generatie monopolie op het high end segment. Kijk naar hoe slecht de prijzen van RTX 2000 waren initieel. Dat gaat weer gebeuren. RTX 3000 had goede launch prijzen omdat RX 6000 zich kon meten.
Waarom zou je zo veel geld kapot slaan op de ontwikkeling van 1% van de verkoop?
Dezelfde chips kun je gebruiken voor datacenter en workstation klanten die 10x zoveel betalen voor dezelfde GPU chip. Kijk naar de prijzen van de gemiddelde workstation/accelerator kaart van Nvidia.
Ik koop altijd het beste wat ik kan krijgen voor mijn budget (wat elke consument zou moeten doen. Fanboy-gedrag is achterlijk) en of dat nou groen of rood is kan me een worst wezen.
"Het beste voor je budget" gaat nu dus slechter worden omdat er minder concurrentie is. Gebrek aan concurrentie schaadt alle consumenten, niet alleen fanboys.

Halo producten worden nooit gemaakt omdat er wordt verwacht dat ze veel opleveren. Ze worden gemaakt als marketing. "Dit kunnen wij, dus ons betaalbare product is ook goed" is de boodschap die met halo producten overgebracht wordt. Dit geldt in zo'n beetje iedere markt en werkt erg goed op consumenten die zich niet super erg bezig houden met dat specifieke onderwerp

[Reactie gewijzigd door youridv1 op 9 september 2024 08:57]

Je kunt een bedrijf niet verplichten om producten te maken zodat er concurrentie voor anderen komt. In een nichemarkt is het niet ongebruikelijk dat 1 leverancier daar de dienst uit maakt omdat de markt simpelweg te klein is voor meerdere leveranciers.
Het gaat ook niet over verplichten. Het gaat erom dat deze keuze van AMD zo'n beetje iedere PC gamer schaadt.
De PC markt is ver van te klein voor meerdere leveranciers. AMD kaarten verkopen gewoon slecht want Nvidia wordt gezien als de veilige/zekere keuze. Ze hebben maar 15% marktaandeel in de steam hardware survey.

[Reactie gewijzigd door youridv1 op 9 september 2024 10:44]

Nvidia wordt gezien als de veilige/zekere keuze.
En hoeveel daarvan vloeit uit het "the way its ment to be played" omkoop gedeelte?

Gelukkig werken zowel de xbox als de playstation op AMD, dus worden bij de meeste games wel de basis optimalisaties gedaan, echter niet voor de nieuwere kaarten.
Er bestaat ook zoiets als concurrentie dat gezond is voor de markt, ook voor het hoogste segment. Ik ben niet perse een AMD “fanboy” maar ik ben wel anti Nvidia en Intel vanwege politieke redenen die ik hier niet zal benoemen en ik ze liever boycot.
Concurrentie is er alleen maar in een markt waar voldoende afzet is. Zou jij al je eigen geld investeren in een bedrijf dat z'n R&D budgetten gaat inzetten voor een klein marktsegment en daardoor meer rendabele markten moet negeren?
Je schetst een beeld van of-of terwijl ik geloof in een scenario van en-en. Zoals een andere tweaker ergens hier in de comments ook aangaf, high-end tech druppelt naar verloop van tijd vanzelf naar de mid- en entry-level. Dus weggegooid R&D budget is het nauwelijks te noemen.
De research die je steekt in je topkaarten vloeit natuurlijk ook grotendeels terug naar je lagere segmenten zelfs als dat pas een generatie later gebeurd.
De research die je steekt in je topkaarten vloeit natuurlijk ook grotendeels terug naar je lagere segmenten zelfs als dat pas een generatie later gebeurd.
Inderdaad, en daarom krijg ik hierdoor iets minder vertrouwen in AMD, een bedrijf die dus in de topsegment niet wilt concurreren met de concurrentie.
Ik denk dat er wat research voor een GPU architectuur weinig verschil is tussen een midrange kaart en een high-end kaart eigenlijk. De high-end versies zijn 'gewoon' exact hetzelfde ontwerp maar dan met meer SM's/CU's, hogere clocks en een dikkere geheugenbus...

Het is misschien zelfs wel waarschijnlijker dat AMD juist door zich op het middensegment en IGP's te richten met innovatievere ontwerpen moet komen waar ze later profijt van kunnen hebben. Het is namelijk veel moeilijker om een efficiente GPU te maken die ook nog snel is, dan om een GPU te maken die snel is door pure brute kracht. De meest recente Apple GPU's zijn daar een goed voorbeeld van, bepaalde features van die architectuur zoals Dynamic Caching zijn echt nieuwe ontwikkeling die ook voor 'grote' desktop GPU's super interessant kunnen zijn.
Ik ben het met je eens, dat voorop, maar om innovatie en verbeteringen te stimuleren is een topmodel wat zich met het beste van het beste kan meten, wel noodzakelijk. Features die op het topsegment zitten, druppelen vaak (later) door naar de meer mainstream kaarten. Als je dat loslaat, wordt het meer eenheidsworst, ben ik bang. Dat gezegd hebbende, we zitten eigenlijk al wel op een punt dat we grafisch al echt prachtige dingen kunnen laten zien. De winst zit 'm meer in optimalisatie (voor de mainstreammarkt althans), dan in 'meer'.
Zoveel geld voor dezelfde performance vind ik een gekleurde opmerking. Nvidia heeft gewoon echt een stuk betere kaarten en ook de AI technieken voor het verbeteren van frames DLSS 3.5 is een stuk beter en verder dan AMD. Daarbij begint high-end al vanaf een 4070 en niet vanaf een 4090 (of 5090) zoals jij dat zegt.

Ik koop ook het beste wat ik kan krijgen voor mijn budget en daarmee kwam ik niet bij AMD uit. Ik had best AMD willen halen maar in de huidige serie vond ik AMD teleurstellend.
Nee, dit is zeker niet prima! De games van nu zijn zo beroerd dat je zelfs met een RTX4090 tekort schiet, sprekende uit ervaring op 3840x1600 @ 100Hz al, laat staan 4k @ 120Hz.
Als AMD uit de race naar de top stapt, heeft Nvidia al helemaal een vrijbrief hoe duur een 5090/6090 of whatever gaat worden, omdat geen concurrent meer is. Er is Intel maar die kan ook hooguit in het middensegment blijven knokken.

[Reactie gewijzigd door PietPineut op 9 september 2024 09:42]

Nee, dit is niet prima... De 5090 (of 4090) is de absolute top-end en dat ze daar niet zitten vind ik ook niet zo'n probleem. Maar ik heb nu een 7900XT en dat zou ik in deze context eerder als high-end zien en is denk ik ook wat AMD bedoelt. Als ik een upgrade wil over 1 of 2 jaar zal ik waarschijnlijk dus geen enkele keuze hebben anders dan Nvidia. En een 7900XT zit nog heel ver onder de xx90 klasse van Nvidia (kost ongeveer 40% er van).
Ze zijn al het goedkoopste en ze hebben nu al geen concurrent voor de rtx 4090 toch heeft AMD slechts 15% van het marktaandeel van gamers op Steam. En dan reken ik igpu’s en de amd chips die handhelds zoals de steam deck hebben nog mee.

AMD zou dus extreem in prijs moeten dalen of wellicht de 5090 moeten verslaan (en tevens sneller zijn in RT), zodar ze de naam krijgen de beste te zijn.
AMD heeft dan weer 100% marktaandeel op (niet-handheld) consoles, en die markt is ongeveer even groot als de PC gaming markt. Dus zo slecht doen ze het nou ook weer niet.
Die markt is wel vele malen minder winstgevend. Op een videokaart maken ze flinke winst. Een console is een vaste lagere fee per chip. Volumes maken wat goed, maar ze hebben veel minder marge per chip. Microsoft en Sony kiezen voor de laagste prijs en dat is Amd.
Dat zou kunnen, ik heb daar geen inzicht in, ik weet niet wat bedrijven als Microsoft, Sony of Valve aan AMD moeten betalen voor custom APU designs en hoe dat op de balans van AMD terecht komt. Hoe dan ook is juist het feit dat die business nu minder winstgevend is (als dat echt zo is) misschien wel een van de redenen dat AMD nu van strategie wil wijzigen en zo hun mobile & custom APU business winstgevender wil maken, wat er in consoles, handheld en laptops gaat is ook op zijn best mid-range hardware.
Het gros van de mensen kan niet de duurste kaarten betalen, en het gros van de markt zit in het midden. Dus prima dat AMD zich daar op richt. Maar er zijn een paar dingen waar ik bang voor ben.

Het topsegment heeft vaak wel de grotere marges (het verschil in prestaties tussen een 4080 en 4090 kan 800+/80% euro zijn (afhankelijk van versies enzo), terwijl het qua prestaties maar 20-25% tussen zit (als ik PietPineut in 'Topman AMD: focus bedrijf ligt niet meer op ontwikkeling van high-end gpu’s' mag geloven).

Daarbij hebben topmodellen vaak als eerste nieuwe features. Dit is deels om de grote kostprijs te verklaren, maar ook juist omdat er op die kaarten de marge is om er nieuwe dingen op te zetten. Soms gaan die features een serie later naar de lagere kaarten, soms verdwijnen ze. Geen topsegment kaarten meer produceren zou dus in R&D kosten voor nieuwe functie's kunnen gaan snijden, en ze ook geen speeltuin meer geven om die features te testen en verbeteren voor ze naar de mainstream komen.
Hobby is meer dan alleen "waar voor je geld"
Dus het zou je sieren je toon iets te matigen wat betreft mensen die "te dure" hardware aanschaffen.
Quote ' (wat elke consument zou moeten doen. Fanboy-gedrag is achterlijk) '

Achterlijk is jouw ogen misschien, maar zulke opmerkingen vind ik dan weer achterlijk.
Het is niet eens zo dat de allersnelste GPU interessant is.
Die dingen tikken de €2000 aan, dat is voor de gemiddelde 16 jarige meer dan er in een zomervakantie verdiend kan worden.
Je wilt gewoon lekker kunnen gamen (zie PlayStation succes).
Ik heb er hier ook eentje rondlopen die dolgraag een 4090 wil krijgen maar nu ook op een ouwe Vega56 prima uit de voeten kan. De financiële overstap is gewoon te groot. Ik denk dat dat ook onder het sentiment ligt wat je vanuit YouTube terugkrijgt.
Je kan er geld op stuk slaan omdat je er van leert.
Dat kan de ontwikkeling van de volgende generatie makkelijker maken, omdat je oplossingen voor problemen die je nu tegen komt in de toekomst direct toe kan passen.

Beetje hetzelfde als het nut van Formule 1 auto's. Het is compleet nutteloos met 350 per uur rond een circuit te peren en daar vele miljoen voor op te brassen, maar de oplossingen uit de F1 vinden jaren later ook toepassingen in je Ford Fiesta.
Let even op dat het hier niet alleen over halo producten gaat zoals de 5090 die onder het enthusiast segment vallen. Maar er wordt hier gepraat over 10% van de TAM (total adressable market). Het enthusiast segment is veel kleiner dan 10%, dat zal echt beperkt zijn tot 1-2% van de TAM. De 10% waar AMD op doelt gaat dus over high-end. Dus dan heb je het over kaarten als de 4080 om aan die 10% te komen en mogelijk ook de 4070 Ti.

Eigenlijk blijkt uit het interview dat AMD opnieuw de weg wil inslaan van de RX 480. Dat was toen de snelste kaart van AMD en die kaart was aan het concurreren met de GTX 1060. Voor iets snellers moest je bij Nvidia aanloppen, bijvoorbeeld voor een GTX 1070, 1080 of 1080 Ti.

Wat mij opvalt is dat in het interview wordt verwezen naar de 'king of the hill' strategie van Ati en dat die niet gewerkt zou hebben. Echter Ati Radeon had destijds een veel groter marktaandeel dan AMD nu heeft. Maar in alle eerlijkheid ging het met de RX 480 natuurlijk helemaal mis omdat men die kaart lanceerde in een mining hype. Je kunt wel proberen met lage marges volume te pakken maar als vervolgens miners je kaarten kopen dan win je alsnog geen marktaandeel. Wanneer je kaarten vervolgens rondkostprijs worden geproduceerd dan heeft meegaan in de mining hype, wat Nvidia overduidelijk wel heeft gedaan, ook geen zin. Dus dat was meteen het einde van die midrange strategie. Ik ben benieuwd of het deze keer wel gaat lukken. Voor ons gamers zou het prima zijn als Radeon terug gaat naar in ieder geval 35% marktaandeel.
En zo wordt een kaart van Nvidia duurder en duurder, want geen echte concurrentie :'( . Amd én Intel moeten júist ook aan de bak voor het topsegment. Anders blijven we veel teveel meer betalen om (op 4k 60+) te kunnen gamen op een pc. En dan wíl ik niet eens DLSS en Raytracing (vind dat laatste er maar behoorlijk overdreven uitzien) 8)7

[Reactie gewijzigd door Megasyb op 9 september 2024 07:58]

En zo wordt een kaart van Nvidia duurder en duurder, want geen echte concurrentie :'( . Amd én Intel moeten júist ook aan de bak voor het topsegment. Anders blijven we veel teveel meer betalen om (op 4k 60+) te kunnen gamen op een pc.
Het lijkt er vooral op dat veel mensen maar wat graag willen dat AMD concurreert in de high-end. Om vervolgens massaal Nvidia te kopen tegen marginaal lagere prijzen. Dat werkt natuurlijk niet.

AMD kan het niet langer volhouden om zoveel R&D in high-end te blijven pompen en nu klagen al die mensen die massaal geen AMD kochten dat AMD niet meer concurreert. Eigen schuld dikke bult denk ik dan.
Dat de klant met zijn beurs spreekt is logisch, dat zal AMD ook begrijpen. Dus heeft AMD twee opties, of in de prijs meegaan of sneller zijn. Als je blijft steken met een hogere prijs terwijl niks daar tegenover staat natuurlijk koopt niemand dat.

AMD maakt die keus niet onbewogen maar voor ons als consument is dit geen goede zaak, niet alleen voor het top segmetn maar ook voor het lagere segment waar AMD zich meer op wilt richten. Top prestaties zakken op termijn af naar het midden segment en dat stukje concurrentie gaan we over het gehele spectrum op termijn voelen. Ik vraag me dan ook af hoe de EU hier tegenover staat, niemand zal AMD kunnen verplichten om de concurrentie aan te gaan, maar omgekeerd zal de EU zeker moeten kijken of het wenselijk is of Nvidia nog overnames doet.
Mwah - het model wat AMD nu heeft schaalt blijkbaar niet goed naar hogere snelheden en eerlijk is eerlijk, het energieverbruik liegt er ook niet om.
Pas als ze en volgende generatie architectuur ontwikkelen waarbij ze beter kunnen schalen, is het weer interessant om hoog te mikken.
Het is niet de schuld van de consument dat AMD niet met een aantrekkelijk aanbod komt. AMD is de laatste tijd aan de dure kant. In de review van de RX 7800XT zie je dat hij gemiddeld 3% sneller is dan een RTX 4070. Prima, maar dan heb je nog geen rekening gehouden met DLSS, Ray Tracing, stroomverbruik en het verschil in (driver) reputatie. Nvidia heeft altijd budget gehad om ontwikkelaars te helpen om zo 'game ready' drivers op tijd de deur uit te krijgen. Bij Battlefield 2 werd de driver letterlijk op de CD/DVD meegeleverd. Daar plukken ze al jaren de vruchten van.

De enige manier om daar vanaf te komen is meer mindshare, waarvan AMD in dit interview aangeeft dat dit de focus wordt. De enige manier om dat te bereiken is te zorgen dat meer mensen je producten kopen. Dan moet je dus flink lager gaan zitten met je prijzen. Een 7800XT is nu vanaf 489 en de RTX 4070 zit op 549. Dat verschil is blijkbaar nog te klein. In die zin is het heel slim om met een 'killer' midrange kaart te komen want het marktpotentieel in aantal verkochte kaarten is daarvan simpelweg veel hoger. Daarmee bereik je sneller een groter marktaandeel dan wanneer ze de 7800XT voor 400 euro zouden verkopen. Ze hebben een killer kaart van 220 euro nodig (50 euro onder de 4060).

Nog beter is simpelweg meer investeren zodat je én een goede midrange kaart hebt én meedoet in het hogere segment. Ze hebben jaren lang in de R&D van Radeon gesneden om vervolgens Ryzen te spekken, dat zouden ze onderhand wel weer eens terug kunnen betalen.

[Reactie gewijzigd door sdk1985 op 9 september 2024 23:34]

Helaas, als gamer heb je dit niet te verlangen van Intel of AMD, sorry. Het is op geen enkele manier een consumentenrecht om budgetvriendleijk te kunnen gamen op 4K 60+ fps.

Ik denk dat de onderbouwing van AMD een goede is: éérst streven naar een >40% marktaandeel, door aandacht te richten op het middensegment waarin veel meer videokaarten verkocht worden, waardoor game developers gestimuleerd worden om games te optimaliseren voor het AMD platform. Daarna kunnen alsnog de halo-kaarten volgen.
Het streven om budget vriendelijk te gamen op 4K 60+ fps staat los van het feit om minder te focussen op high-end, het duurt alleen misschien iets langer om op dat punt te komen dat 4K 60+ fps bereikbaar is. Maar ik denk zelf dat AMD het best goed doet om de target van 4K 60+ fps te behalen. Ik heb zelf een RX 7800 XT en op 4K zit deze rond 50 - 60 fps op hoge settings.
Je kan ook geen nvidia kopen, niemand verplicht je daartoe.
zolang er genoeg mensen zijn die dat exorbitante bedrag neerleggen voor een gpu blijven ze het bedrag verhogen om de grens op te zoeken
Dit is natuurlijk niet helemaal hoe concurrentie werkt. Niemand verplicht het je inderdaad, maar bij minder (lees: 1) aanbieders van een (in dit geval high-end) product gaan de prijzen omhoog. Dus straks is het zo dat het niet eens meer een keuze is voor de consument, het is simpelweg niet meer te betalen.
Het ligt wel iets genuanceerder.

Laten we even het scenario bekijken waarin NVidia als enige overblijft (wat we niet uit deze berichtgeving van AMD kunnen opmaken btw - AMD blijft gewoon actief in de midrange en high-midrange, alleen niet meer in de highend).

Natuurlijk zullen de kaarten duurder worden, want zonder concurrentie is er minder prikkel om de prijzen laag te houden. Echter kunnen de prijzen ook niet teveel stijgen - gaming is geen eerste levensbehoefte, dus mensen kunnen er ook voor kiezen om je kaart niet te kopen.

Dus zal NVidia ook betaalbare kaarten blijven aanbieden. Wel zal de vooruitgang een stuk langzamer gaan - nieuwe features worden minder snel toegevoegd, en alleen aan de duurste kaarten. Die features worden minder snel naar de goedkopere kaarten omgezet dan we nu gewend zijn.

Iets soortgelijks hebben we nog niet zolang geleden meegemaakt in CPU-land. AMD kon (vóór Ryzen) niet meekomen met Intel, dus Intel bepaalde de snelheid van de markt. Daardoor hebben we heel erg lang op quadcore CPU's moeten teren in de midrangemarkt. Pas toen AMD weer kon concurreren, zag je dat Intel de (al klaarliggende?) ontwerpen voor midrange 6- en 8-core CPU's van de schap pakte.
Die kant gaat het toch nu eigenlijk al op? nVidia stagneert compleet in het low-end en midrange-segment. Een RTX 4050 hebben we nog steeds niet. De RTX 4060 is alléén maar beter dan de 3060 op vlakken die hij architectureel geërfd heeft van de duurdere kaarten (iets betere ray tracing, frame gen, betere efficiëntie), maar daar staat tegenover dat hij minder geheugen meekrijgt. Ondanks dat de die ook nog eens kleiner is, is ‘ie niet goedkoper dan de 3060 was.

Ik haal hier niet echt uit dat nVidia goedkope kaarten blijft aanbieden. Eerder dat ze heel graag willen dat je hun dure kaarten koopt.
Deze voorspelling lijkt mij niet accuraat. Nvidia heeft momenteel het grootste deel van de markt in handen, sommige schattingen hebben het over percentages richting de 90%.

Nvidia moet zijn omzet dus halen uit de vervangingsmarkt. Die zullen dus elke 2-3 jaar met een nieuwe generatie moeten komen die weer x% sneller is zodat uiteindelijk de klanten elke 1 a 2 generaties weer een nieuwe Nvidia kaart aanschaffen.

Het cpu verhaal ligt veel genuanceerder. De focus voor Intel ligt en lag bij laptop en OEM en niet bij gaming cpu's. Zowel bij laptop als bij de entry cpu's hebben we bij Intel énorme sprongen gezien tijdens de periode van 'stagnatie'. Een celeron was vroeger echt een draak en op een gegeven moment werden het echt zinnige cpu's. Ik heb zelf nog zo'n G4400 aangeschaft voor een NAS en was echt verbaasd over de potentie, je kon er zelfs op gamen. Vervolgens kwam de G4560 die ook nog eens hyperthreading toevoegde. Ook die cpu heb ik voor een paar 10tjes aangeschaft.

Bij de laptops eigenlijk hetzelfde verhaal, ze werden niet alleen sneller maar ook veel zuiniger. Intel heeft eigenhandig ervoor gezorgd dat het ultrabook concept aansloeg en de laptop niet volledig weggeconcureerd werd door de tablets.

De stagnatie waar veel tweakers naar wijzen vond alleen plaats in het gaming segment. Daar is ooit een enorme sprong gemaakt door de introductie van de 2500K/2600K waarna er vervolgens jaren lang geen zinnige upgrade was. Pas met de 6 serie begon je verschillen te zien en echt nodig was upgraden pas bij de 8 serie. Dat is 6 (!) jaar later.

[Reactie gewijzigd door sdk1985 op 9 september 2024 23:42]

We zeggen dus eigenlijk hetzelfde…
Jij voorziet een slowdown in features, ik niet, Radeon heeft al eerder niet meegedaan in high-end en Nvidia heeft simpelweg een markt te bedienen die alleen bediend wil worden als ze met nieuwe features en prestatie verbeteringen komen.
Maar als je gaat kijken naar marktaandeel, omzet en aantallen. Hoeveel mensen kopen nou echt de latest greatest. Dus hoeveel mensen hebben de 4090 in huis en zeer binnenkort de 5090? Het is leuk dat je de snelste gpu hebt, maar als maar een heel klein deel van je klanten het daadwerkelijk koopt dan snap ik wel dat het niet de focus heeft.
Laat Nvidia zich maar uit de markt prijzen. Op een gegeven moment is het ook voor de mensen met een bredere portemonaille wel genoeg geweest.
Het is niet zo dat Nvidia de enige is die consumenten GPU's uitbrengt. Misschien hebben ze de kroon voor de snelste. Maar om de auto analogie te nemen. Hoeveel mensen kopen er een Bugatti of Ferrari of Porsche? Meeste mensen rijden in een Opel, want die is prima zat.
Als je kijkt naar de Steam hardware survey dan heeft de 4090 een behoorlijk aandeel. Volgens mij is het aandeel zelfs groter dan welke andere AMD SKU. De marges zitten trouwens in de top GPUs. De marges op de lagere GPUs zijn tegenwoordig flinterdun doordat de wafers enorm veel omhoog gegaan zijn in prijs.

Dit hele verhaal is gewoon PR na de feiten want volgens de geruchten waren ze wel degelijk van plan een high end RDNA4 kaart te lanceren maar lukte het hele MCM verhaal niet goed waardoor ze die hebben moeten annuleren.
Ik noem 0.92% in Augustus toch geen behoorlijk aandeel. Er is veel meer in de xx60, xx70 reeks zowel 2/3/4 de generatie. Ik kan gerust een 4900 betalen, maar ik koop deze niet omdat gamen beperkt is (Diablo IV, HearthStone, WOW (moet zelfs nieuwe expansie nog kopen en spelen wegens tijdsgebrek), soms eens cod. Ik kocht altijd bewust een 60 reeks, begin dit jaar een 4070 super gekocht, omdat ik een 4k scherm heb en op de vorige pc had mijn 2060 super het toch moeilijk op dat scherm om stabiel 60 fps te halen, zelfs met meeste naar op minimimum settings. Maar ik snap hun best ... Kijk veel ontwikkelaars maken alleen software voor Windows, soms een combo Windows & Mac, maar linux ... Nee, gewoon omdat er te weinig gebruikers zijn. Hier zit je met hetzelfde probleem, van die X aantal percent dat een 4090 koopt, hoeveel gaan er daar de top end kaart van AMD kopen ? En hoeveel kost dat. AMD Is uit een diep dal geklommen en ik snap best dat ze geen ettelijke miljoenen willen investeren in 'de snelste kaart' te maken. Maar als ze in het middensegment wel kunnen meedraaien en dat kost qua investering een pak minder, dan is de keuze snel gemaakt
0,98% in augustus, wat dus inderdaad hoger is dan de meest gebruikte AMD kaart. Dus @napata heeft daar zeker wel een punt. De meest gebruikte AMD is een RX 580 op 0,76%.
Als je zegt dat een 4090 geen behoorlijk aandeel heeft dan zeg je daarmee per definitie dat AMD helemaal geen kaarten heeft die relevant zijn.
Even ter vergelijking, het topmodel van AMD de AMD Radeon RX 7900 XTX zit op 0,39%.

[Reactie gewijzigd door Arjant2 op 9 september 2024 10:31]

Het punt was high-end vs midrange/low-end, niet 'meest gebruikte NVidia kaart' vs 'meest gebruikte AMD kaart', toch? Dat NVidia veel beter verkoopt dan AMD was al bekend, maar ook NVidia verkoopt meer midrange en low-end kaarten dan ultra high-end kaarten.
nee het punt was dat beweerd werd dat de 4090 niet zo veel verkocht werd, wat relatief gezien dus best grote aantallen zijn. Dat andere Nvidia kaarten meer verkopen en dat het maar een klein percentage is van de totale Nvidia kaarten is doet er dan weinig toe. Tel daarbij om dat juist op die highend kaarten verreweg de grootste marge zit kan het dus wel degelijk zeer lucratief zijn om highend kaarten uit te brengen.

En dat AMD een kleine speler vergeleken met Nvidia dat is waar, maar wel een hele belangrijke. Ik zou niet graag zien dat ze zich focussen op low end en midrange eerlijk gezegd.

[Reactie gewijzigd door Arjant2 op 9 september 2024 14:12]

Ik noem 0.92% in Augustus toch geen behoorlijk aandeel.
Het punt daar is dat Nvidia blijkbaar meer halo producten zoals de 4090 verkoopt dan AMD midrange kaarten weet te slijten. Overigens zijn de steam survey resultaten cumulatief, het is een afspiegeling van de userbase en niet van het marktaandeel van de huidige verkopen. Om nu 30% te behalen met een nieuwe kaart moet je dus extreem veel verkopen om alle bestaande kaarten weg te drukken. Met andere woorden 1% is al aardig wat aangezien dit de volledige markt van de afgelopen 10 jaar bevat.

[Reactie gewijzigd door sdk1985 op 10 september 2024 17:02]

De lagere GPUs moeten ook nog eens concurreren met de prima iGPU van AMD (die staat #1 in de Steam Survey en als je de beide 'Radeon Graphics' optelt zit je op 3.20%, dan staan ze zomaar op plek 7 in de lijst). Zolang je voldoende en snel genoeg RAM hebt, komen die prima mee in een budget gamebak. In handheld land is AMD zelfs alleenheerser door afwezigheid van nVidia en producten van Intel die niet mee kunnen komen.

Ook in die wereld is er nauwelijks vooruitgang tussen de huidige en nieuwe series overigens. Ze lijken idd te gaan voor AI/server.
Laten we wel wezen dat je niet perse een high end GPU hoeft te kopen. Je kan ook een mid end GPU aanschaffen en de high end gewoon als niet bestaand beschouwen.

Ikzelf heb een RX6700XT in mijn gaming PC zitten en deze draait tot nu toe alles wat ik wil spelen. Wanneer spellen totaal niet geoptimaliseerd zijn schaf ik ze gewoon voorlopig niet aan en koop ik ze wel over een paar jaar. Er zijn genoeg andere spellen te kopen die wel goed draaien.

We hoeven niet met z'n allen steeds maar the snelste proberen te krijgen. Je kan ook gewoonweg iets te duur/niet waard vinden en het niet aanschaffen.
ik geloof dat (in dit geval nvidia) ze de prijs toch wel omhoog gooien, of er concurrentie is of niet
Leuke uitspraak, maar ATI was één van de laatst overgebleven partijen en die werd dus overgenomen door AMD in 2006.

AMD was daardoor zo'n beetje de laatst overgebleven serieuze concurrentie en hierdoor zullen de prijzen dus nog verder gaan stijgen, wat tegenwoordig niet alleen meer een probleem is voor consumenten maar ook voor bedrijven die dat weer doorrekenen naar de consument of nog meer reclame pushen.

De consument verliest in dit soort situaties altijd. Vooral degene die denkt dat het hem niet zal treffen.
Dat mag je dan misschien wel denken, maar in de praktijk zal het eerder een kwestie van vraag en aanbod zijn en zolang de vraag hoger blijft dan het aanbod zullen de prijzen hoog blijven.
Een ander gaat 1 week op vakantie voor €1000, en ik koop er een GPU voor waar ik 7 jaar mee doe :)

Niet mij de schuld geven.
AMD is net zo duur als Nvidia, en dat komt voornamelijk gewoon doordat chips gewoon duurder zijn om te produceren, dat zeggen zowel AMD, als Nvidia als Intel als Qualcomm. Die verkleining kost steeds meer geld omdat men sneller over wil op de nieuwste verkleining.
Heb je de winsten van Nvidia weleens bekeken?
Maar als je specifiek die 2 opties niet wilt dan is AMD nu toch al de meest logisch en voordelige keuze? Tenzij je 4080/4090 prestaties zoekt.
Tenzij je 4090 prestaties zoekt of perse raytracing wil is AMD sowieso bijna altijd een betere bang/buck verhouding.
Of tenzij je iets met stable diffusion wil doen.
Voor de hobby kan je genoegen nemen met tragere image generation. Als je het voor je business doet, kan je prima een Nvidia kaart afschrijven.

Uberhaupt werkt een AMD best prima met Stable Diffusion, alleen niet op Windows, ivm RocM, maar op Linux wel.
Heb anders al een dozijn kippen geofferd en het niet werkend gekregen - het is echt een crime. Werkt kennelijk alleen met super specifieke versies van allerhande libraries en kernels - sorry AMD, maar ze zullen het echt verder open moeten gooien en dingen in de kernel zelf moeten krijgen wil dit echt een ding worden. Meh.
Ik las eerder dit jaar iets over Roc in Windows wat AI generation in Windows zou moeten helpen, maar in Windows is het überhaupt nog trager op m’n RX 6800 dan op m’n oude 1080TI. Maar goed, een iets oudere Nvidia kaart is ook voldoende voor image generation als hobbyist, heb je geen 4090 voor nodig.
Zoveel goedkoper is AMD bij launch niet de laatste 3 generaties.
Dat is al jaren zo idd, zker als je wat lager in de lineup kijkt is AMD vaak echt wel de betere keuze, echter helpt hun dat totaal niet om maar een beetje markaandeel te veroveren

Zeer jammer deze zet maar wat mij betreft heel erg logisch
als je gebruik maakt van nvidia magic frame insertion technieken...
Het gaat Megasyb erom dat AMD zich juist uit het high-end segment ontrekt. Na de 7900XTX komen er alleen nog midden motors tot ze marktaandeel gewonnen hebben. Het probleem daarmee is dat wie de beste kaart heeft op dit moment bepaald wat het midden segment koopt.

AMD was heel goed bezig met hun handheld GPU's, X3d CPU's voor gamers, en hun 7900 reeks.Tot ze het verklote door nieuwere X3d's uit te brengen die trager waren dan hun voorganger in gaming. En nu dus ook geen werkende highend kaart hebben voor de volgende generatie. Dit wordt dezelde situatie als jaren geleden met de 3800 reeks waarbij ATI ook niet mee deed in het hoge segment en in de vergetelheid verdween.

Ze hoeven de wedstrijd niet te winnen, maar als ze al niet eens mee doen wordt het hoe dan ook verlies.
De 7800X3D is toch de snelste gaming cpu overall?

Verder wel jammer dat er geen concurrentie meer zal zijn op de absolute top. Ook al koop ik het niet, ik vind het wel leuk om te zien wat er uit te persen is qua graphics tegenwoordig.
Dat is inderdaad leuk, maar ik begrijp AMD's aanpak wel.
Mobile = Apple + Snapdragon
Console = AMD
Handheld Gaming = AMD
Low tot Upper mid = AMD+Nvidia
Highend = Nvidia

Op een gegeven moment moet een Dev gaan kijken, waar heb ik het meeste aan. Ontwikkelen voor Console, dan ontwikkel je voor AMD. Ontwikkel je met handhelds in gedachte, ontwikkel je voor AMD. En de meeste mensen die PC gaming doen werken niet met een 4090, en alles tot de 4080 ti heeft AMD een redelijk antwoord op. Daar zit de massa. Niet in het 4090-segment.

Ze willen naar een punt waar Nvidia de high end Mercedes segment pakt en zij Volkswagen zijn. Daarna kan je, als ze willen kunnen ze dan weer omhoog kijken wanneer zij weer volle bak ondersteund worden door de developers.
De 7800X3D is toch de snelste gaming cpu overall?
[...]
Ja, maar de nieuwere zijn dus trager ;)
Dat zijn echter geen X3D's, dus dat die trager zijn in gaming is jammer, maar niet geheel onverwacht. Dat ging altijd al kantje boord worden. De nieuwe X3D Sku's moeten nog komen (laatste geruchten geloof ik in januari, met aankondiging op de CES, al kan dat vast nog wel veranderen mocht Intels Arrowlake sterker blijken dan tot nu toe verwacht).
Deze gemist? nieuws: 'AMD Ryzen 5 7600X3D presteert in recente games beter dan Ryzen 9 790... (en dus slechter dan de 7800X3D.

[Reactie gewijzigd door Caelorum op 9 september 2024 12:19]

Dat die 7600X3D slechter is dan de 7800X3D is natuurlijk volkomen logisch, en zit in dezelfde range (en tussen die 2 is er dus ook geen voorganger / opvolger verhouding, het is slechts aan uitbreiding van de range aan de onderkant van de markt) en heeft ook 1 CCD. De 7000 serie is echter recentelijk opgevolgd laatst door de 9000 serie, en de 9000 Sku's zijn trager dan bijvoorbeeld de 7800X3D, echter zijn er in de 9000 serie nog geen X3D Sku's, dus de opvolger van de 7800X3D is er nog niet, en is dus ook niet trager.

Ik ging er bij schrijven van die post dan dus ook even vanuit dat in de voorgaande posts van o.a. Seth 7000 vs 9000 serie bedoel werd en dat diegene per abuis aannam dat er in de 9000 serie ook al X3D Sku's uit zijn gekomen en niet dat diegene er over viel dat een 7800X3D sneller is dan een 7600X3D :)

[Reactie gewijzigd door Dennism op 9 september 2024 12:30]

"Nieuwere X3d's uit te brengen die trager waren dan hun voorganger in gaming."

Uh? Waar heb je het over? Je bent in de war. Welke nieuwe X3d's? er zijn nog helemaal geen nieuwe X3d's uitgebracht.
Tot ze het verklote door nieuwere X3d's uit te brengen die trager waren dan hun voorganger in gaming
Over welke X3D chips heb jij het, want ik kan me geen X3D chip bedenken die trager is als zijn voorganger

en de 7xxx serie van hun GPU's.. ja prima kaarten.. behalve dat niemand ze koopt dus dan heb je er ook weinig aan dat je kaarten goed zijn
Het probleem daarmee is dat wie de beste kaart heeft op dit moment bepaald wat het midden segment koopt.
Hoeft niet perse, maar ze moeten er dan wel voor zorgen dat hun midrange kaart qua prijs en prestaties echt de beste keus is

Volgens mij was de 5700 serie ook redelijk populair, en dat was ook een serie waarin ze totaal niet meededen in de high end
Zeker, maar de mens wil altijd meer en beter. Ook ik natuurlijk. Maar ik ben ook Nederlander en ik vind de prijzen echt onfatsoenlijk hoog. Zelfs voor een 7900XT(X) of GRE (die in de pw eerder duurder dan goedkoper lijken te worden) ben je bijna kwijt wat je 5 jaar geleden nog uit kon geven aan een hele beste pc inclusief (2e hands) GPU.
Zelf snap ik niet waarom men voor hun game PC een xx90 kaart haalt. Zelf heb ik een tijd geleden een RX 6800 gekocht, welke alles prima doet. Ik stream games door het huis, gelimiteerd tot 4K@60, en RT kan me niet bekoren.

Niet alles en iedereen wil perse de hoogste segment kaarten hebben, omdat het voor velen onzin is en de helft van de performance niet gebruikt wordt.
Zelf snap ik niet waarom men voor hun game PC een xx90 kaart haalt.
Omdat niet iedereen hetzelfde denkt als jij. Ik heb zelf een RTX 4090 omdat ik simpelweg de best mogelijke prestaties wil met alle grafische opties van een game op maximaal. Zeker met een 4K scherm heb je dan wel een stevige videokaart nodig.
Dan moet je dus diep in de buidel (gaan) tasten :+

Maar verder, dit is toch geen nieuws? Dit is toch ook geen nieuwe strategie binnen AMD? Naar mijn weten is dit altijd al de strategie geweest van AMD sinds mevrouw Su aan het roer is?

Of heb ik een andere statement gemist in de afgelopen jaren?
Dan moet je dus diep in de buidel (gaan) tasten
Ja, dat heb ik inderdaad gedaan. Maar ik had het budget ervoor, het scheelt dat ik qua vaste lasten niet veel heb eigenlijk waardoor het meeste van mijn geld in mijn computer gestoken kan worden (wanneer ik eens iets nieuws wil dan, ik upgrade niet enkel wegens upgrade-drang, nou ja niet altijd dan :+). Ik moet zeggen dat ik er geen spijt van heb gehad, met deze videokaart kan ik echt al mijn games spelen op 4K met raytracing en alle grafische opties op maximaal. Dat is wat ik wil en dat is ook wat er mogelijk is met deze kaart.

AMD Zou wel op high-end moeten richten. Concurrentie is de manier waarop prijzen omlaag kunnen gaan, maar als die concurrentie er dan vooral bij low- en midrange kaarten is zal dat weinig invloed op de high-end kaarten hebben. Wat dat betreft is het dus wel jammer dat AMD de focus daar dus niet neerlegt.

[Reactie gewijzigd door Wildfire op 9 september 2024 09:20]

Ik denk dat het probleem zich echter wraakt bij reviews: als de ontwikkelaars op NVidia ontwikkelen en de games daarop beter testen dan gaan die high end chips het simpelweg niet halen. Je hebt laatst aan de problemen van AMD CPU's met de Windows scheduler kunnen zien wat dat kan betekenen.
Daarom gaf ik al aan, voor 60 FPS is het ruimschoots voldoende om niet de highest end kaart te hebben. Kosten en baten afweging.

Ik speel alles al op hoogste settings, en in andere games bijna hoogste settings, maar ik hoef geen zaken als RT e.d., daar game ik te casual voor. Ik speel op een 75” 4K scherm, dus resolutie is voor mij wel redelijk belangrijk, de rest schaal ik bij tot ik een stabiele 60 FPS heb.
Daar zit sowieso een verschil tussen bij veel gamers. Ik wil gewoon 4K met alle grafische instellingen, ook raytracing, maximaal en dan ook een zo hoog mogelijke framerate.

Gelukkig zijn er meerdere modellen videokaarten en is er voor elk wat wils -- nou ja, als je budget even buiten beschouwing laat. De midrange kaarten zijn tegenwoordig een stuk duurder dan vroeger, ik denk dat een redelijke groep gamers financieel meer richting lowrange kaarten gepushed worden terwijl ze voor hun doeleinden eigenlijk bij de midrange zouden moeten zitten.

Wat CPU betreft, aangezien mijn heavy-duty CPU taken tegenwoordig op een secundaire PC plaatsvinden zou de CPU van mijn primaire PC wel een upgrade kunnen krijgen nu. Ik wacht wel even tot AMD met de 9950X3D komt. Dan even kijken hoe het qua prestaties vergelijkt met mijn huidige 7950X en dan gaat ook mijn CPU een upgrade krijgen waarschijnlijk. :P

[Reactie gewijzigd door Wildfire op 9 september 2024 09:33]

Mja met mijn CPU zit ik tegenwoordig ook laag. Heb nog de i7 9700, wat voor mijn huidige setup nog prima is. Ga deze op termijn upgraden naar AMD, en dan dit hergebruiken als werk PC CPU. Maar voor wat ik doe is de CPU nog geen bottleneck verder. Alles leunt vooral op GPU. Enige waar de CPU redelijk benut wordt is als m’n zoon Jurassic World Evolution 2 speelt.
Ik ben zelf ook (nog) niet verkocht aan RT, maar dat is vermoed ik wel een driver tegenwoordig voor mensen die wel een snellere kaart kopen. Als je RT wil draaien, met alle eye candy op die mooie nieuwe 21:9 of 4K (Curved) Oled game schermen heb je simpelweg een high end kaart nodig om alles uit je scherm te halen.

Een deel van de markt zal dat niet interessant vinden, een ander deel simpelweg wel. En met beide voorkeuren is niets mis.
Daarom geef ik specifiek aan dat RT niet voor mij is. Heb het geprobeerd in Cyberpunk, zo’n beetje de enige game waar het wat toevoegt, maar ik ben meer van immersie in de story dan van eye candy, en daar voegt het niets toe, en is het voor mij persoonlijk zonde van het geld.

Heb een mid range machine, die alles draait (met RT tankt ie) zoals t moet draaien, en dat is voldoende.
Omdat voor bepaalde zaken en de beste pracht en praal die nodig hebt. Omdat jou RT niet kan bekoren wil dat nog niet zeggen dat dat voor anderen ook zo is.
Nouja, men zou wel graag de hoogste segment kaarten willen hebben, maar kunnen of willen dat er niet voor betalen.
1. AMD heeft schijnbaar de knowhow niet om met de ultra-high end te concurreren: ze kunnen wel opboksen tegen een 3080 en 4080, maar niet tegen de extreem dure xx90 monsters. Dat komt omdat nVidia gewoon heel erg goed is, maar...
2. Consumenten zijn, sorry, gewoon dom en kopen het naampje dat ze kennen. Zo ken ik nu iemand die net een gamign machine van 3000 euro bowude, en wat stopthij erin? een 14700K, je weet wel: die CPU die zichzelf vernietigt, die 3x meer verbruikt dan de AMD-chip die alsnog sneller is, en die duurder is dan de snelste gaming chip die nu bestaat. Ik vroeg hem waarom hij geen AMD kocht, antwoord: "oh ja, ik weet niet, Intel is toch gewoon altijd goed?". AMD is al sinds de 5800X3D simpelweg de beste keuze voor gaming, maar alsnog leeft het idee dat Intel het beste is heel erg breed.

Dus ja: AMD heeft enige tijd over eht midden en high-end segment de beste chips aangeboden: even snel of iets sneller dan de xx60, xx70 en xx80 kaarten van nVidia, en dat aan een iets lagere prijs... maar mensen kochten het niet. men koos alsnog voor het groene kamp. Sure, tegenover de Titan/80Ti/xx90 kaarten had AMD geen antwoord, maar bijna niemand koopt die monsters vanwege de absurde prijs.
Maar de meeste mensen kochten alsnog gewoon een RTX3060 of zo, want ja: 'nvidia is goed, toch?'.

Op Tweakers wordt deze zelfkastijding door consumenten verdedigd met absurde argumenten: mensen zouden RTX en DLSS willen, nvenc zou veel beter zijn, en CUDA is echt heul belangrijk als je eens met AI wil spelen. Maar behalve dat ik daar echt bedenkingen bij heb (RTX is nog steeds een niche, FSR is niet noemenswaardig slechter dan DLSS, nvenc gebruiken de meeste gebruikers neit, en even then: AMD encoders zijn goed genoeg als je wilt streamen, ook al is nvenc op papier wat efficienter, en met AI spelen is niet iets wat consumenten doen), is dat echt flauwekul: de gemiddelde gamer weet absoluut niet wat die dingen zijn.

Ik heb onlangs een vriend van me aankoopadvies gedaan, hij wilde voor rond de 500€ een GPU. De beste keuze toen was simpelweg de 7800XT. Resultaat: die kerel, een gewone gamer die al ie bovenstaande termen niet echt kent, is echt super blij.

Die concurrentie waar jij het over hebt was er dus absoluut wel, gedurende de 6000 en 7000 generaties. Maar gewone consumenten? Die negeerden het. Die lezen geen reviews, die bekijken geen cijfers.
Dus ja: AMD heeft enige tijd over eht midden en high-end segment de beste chips aangeboden: even snel of iets sneller dan de xx60, xx70 en xx80 kaarten van nVidia, en dat aan een iets lagere prijs... maar mensen kochten het niet. men koos alsnog voor het groene kamp.
Dit is denk wel deel van het sommetje voor veel mensen, mensen hebben geen RT nodig, ik zou niet willen stellen dat FSR op niveau van DLSS is trouwens, maar ook dat heb je niet altijd nodig, net als Cuda of NVENC, maar uiteindelijk kijkt met wel naar de volledige propositie in de markt.

Corona tijd nagelaten, waar iedereen kocht wat beschikbaar was, en velen dus ook AMD kochten hier in de topics, blijft het wel zo dat AMD's propositie helaas 'like for like' vaak vrij mager is als je alles bij elkaar optelt. Gelijke raster performance in is één ding, maar als je software op bepaalde gebieden simpelweg flink achterloopt, en je ook geen volledige feature partity hebt (veelal komt Nvidia met iets, en AMD doet dat dan na), en je ook nog eens geen echte 'killer feature' van jezelf hebt die de concurrentie niet heeft, weet ik niet of €50 of €100 goedkoper genoeg is om een groot deel van de markt over te halen, zeker niet wanneer je niet alle benchmarks wint. Ik denk dat je dan misschien je producten nog wel scherper in de markt moet zetten om echt succes te halen, of simpel weg een tier aan performance bieden over de concurrentie bij deze prijsstellingen (dan zal de markt het ook wel vergeven dat je niet 1:1 gaat concurreren qua features en software mogelijkheden).

Ik heb daar als AMD aandeelhouder zijnde ook al vaker op gehamerd, zorg er nu eens niet voor dat je Nvidia lite bent met een kleine korting in de prijsstelling, maar ga nu eens echt werken om de achterstand op alle vlakken in te lopen en gewoon het betere product te gaan leveren. Hoe belangrijk een bepaalde functie nu wel of niet is voor een bepaald individu, zorg ervoor dat je het gewoon hebt. Pas dan zul je echt geen werken aan het vergroten van je eigen mindshare en om niet meer gezien te worden als het 'budget' alternatief. Op cpu gebied is dat redelijk gelukt (al ze zijn er natuurlijk nog zeker niet), op GPU gebied wil dat nog niet vlotten.

[Reactie gewijzigd door Dennism op 9 september 2024 09:36]

Exact dit dus.
Als je kijkt naar de innovaties de laatste jaren ,loopt AMD gewoon steeds achter.

Nvidia kwam in 2013 met G-sync,
AMD kwam later met Freesync.
Nvidia kwam als eerste met raytracing, AMD later.
Nvidia kwam als eerste met DLSS , AMD later met FSR
Zo ook met Framegeneration.
En in de meeste gevallen heeft Nvidia ook het betere product en techniek.

Ik heb daarom deze keer specifiek voor een RTX 4070 gekozen omdat DLSS en Frame Generation mij de mogelijkheid geeft om de levensduur van de GPU wat te verlengen voordat deze te traag word voor nieuwere games. Dit zonder teveel in te leveren op beeld kwaliteit.
Vergelijkbare kaarten van AMD zijn wellicht wat sneller en/of goedkoper, maar hun featureset legt het gewoon af tegen Nvidia.

Komt AMD met een nieuwe revolutionare techniek of performance verbetering waardoor ze weer rondjes om Intel en Nvidia kaarten heen rennen, dan komt er een AMD kaart in.
Is het Intel, dan een Intel.
Nvidia is beter in marketing checkbox features.
Je hebt er als consument eigenlijk niks aan maar het is iets waarvan ze kunnen roepen dat de concurentie het niet heeft.
Spellen zien er beter uit en vergen veel minder rekenkracht met software raytracing effecten dan de hardware raytracing in de kaarten. Maar toch word er gedaan alsof je een Nvidia kaart moet hebben voor raytracing.
Framegeneration is alleen nuttig voor VR brillen, maar we doen alsof het zinvol is in normaal gebruik terwijl het dan niet is.

In het verleden kwam AMD met revolutionaire technieken die echt nuttig waren, maar mensen bleven eigenwijs Nvidia kopen. (denk aan tesselation van de 8500 wat echt een grote zichtbare verbetering gaf) De R300 liep rondjes om de concurentie, maar mensen bleven Nvidia kopen.

Nvidia is de Apple van de GPU markt.

[Reactie gewijzigd door mjtdevries op 9 september 2024 11:47]

Ben ik niet mee eens.
Kijk maar eens de recente testen van Digital foundy als het gaat om DLSS ,Xess en FSR.
Hierbij is een grote achterstand zichtbaar tussen AMD en Intel/Nvidia waarbij ze de vraag stellen of AMD wel in de buurt gaat komen zolang ze geen gebruik maken van AI.
.
En dit heb ik ook zelf getest. Ik heb nml een Rog ALLY die FSR ondersteunt.
Hier heb ik voor de aanschaf van m'n nieuwe gamepc voornamelijk op gespeeld. Zowel handheld als aan mn monitor
Deze heb ik na de aanschaf van de 4070 aan mn monitor gehangen om de verschillen te bekijken.
Dezelfde games met dezelfde settings en het was een vrij groot verschil tussen die twee.

Hierdoor kies ik op mn pc bijna altijd voor DLSS aan zodat ik wat extra frames heb en het valt amper op.
Maar op de ROG ally laat ik FSR zo veel mogelijk uit omdat het te vaak een slechter resultaat geeft als het gaat om beeld kwaliteit. Ik kies daarom op de ally vaker voor 30FPS dan hoger FPS met slechter beeld.

En Frame generation alleen geschikt voor VR?
Omdat het beeld 2x gerenderd moet worden is het op hoge resolutie vaak een must idd omdat het anders niet speelbaar is..
Maar om te zeggen dat het alleen daarom nuttig is nee. Als een spel op 45-50FPS loopt en ik kan dit verdubbelen naar 90-100 zonder teveel artifacts,stutter etc, geeft het voor het gevoel een vloeiender en gameplay. Of dit nu op een monitor/handheld of VR bril is, maakt niet uit.

Maar ben geen nvidia fanboy of zo. Sterker nog, ik heb van alle kleuren aandelen :P
Mijn eerste videokaart van een ATI MACH64 en heb in de 30 jaar daarna ruim 40 kaarten gehad van ATI/AMD, 3DFX , Nvidia en zelfs ooit een matrox.Ik heb altijd gekozen wat voor mij op dat moment de beste keuze was om te kopen. En in dit geval was dat dus een 4070.

Ik denk ook niet dat het een marketing issue is.
Ze hebben gewoon een achterstand of bepaalde technieken en performance op hun grootste concurrent en worden op sommige vlakken al ingehaald door Intel.
Door zich te focussen op midrange, kunnen ze beter concurrenende producten maken op posities waar de meeste verkopen plaats vinden. Op die manier proberen de markt naar zich toe te trekken.
Dit is goedkoper om te doen dan focussen op high end GPU's die een veel kleinere afzetmarkt hebben.
Dit kost ontzettend veel R&D, heeft grotere kans op niet werkende GPU's en het is de vraag of ze daarmee wel de gemaakte kosten eruit kunnen halen.
DLSS is zeker een nuttige feature. Even een concreet voorbeeld; Ik speel Diablo 4 op 3440x1440 op ultra op een RTX 4070. Wanneer ik DLSS inschakel zakt de gpu belasting zodat ik nog maar circa 150W verstook ipv 200+. Tevens ziet DLSS op quality er vaak beter uit dan andere anti alias opties.

De nvidia kaarten zijn verder plug & play. Je kunt je pc uitschakelen je kaart vervangen en verder gamen.

AMD kwam met Mantle en TrueAudio. Mantle is geschrapt (hebben wel vulkan gekregen), TrueAudio is van de aardbodem verdwenen.

De 8500 was overigens van Ati, niet van AMD. En daar was van alles aan de hand destijds:
When the Radeon 8500 came out, ATI's software group was going through a difficult management shakeup and the drivers the company issued were buggy. To make matters worse the company cheated on some benchmarks and reported higher scores than were attainable by reviewers. ATI also had problems with its Smoothvision antialiasing.

TruForm, the feature that should have propelled ATI to a leadership position, was lost due to mismanagement and lackluster marketing. The technology leadership ATI had built up through its development was wasted.

[Reactie gewijzigd door sdk1985 op 9 september 2024 23:53]

Er was heel weinig aan de hand me de 8500. Dat weet ik omdat ik het ding zelf had.
Die management shakeup was onzichtbaar voor de consument. De drivers waren net zo goed als die van Nvidia in die tijd. (een mythe die maar niet wil verdwijnen)
De "cheat" stelde niks voor en de prestaties konden gewoon door consumenten behaald worden.
Het was een optimalisatie die een zodanig kleine impact op de beeldkwaliteit had, dat niemand het had gemerkt. Het was een optimalisatie die niet alleen in de benchmark werkte, maar ook in de rest van het spel.
Een totale andere cheat dan waarmee Nvidia bezig was. Cheats die alleen in de benchmark werkten en niet tijdens het spel zelf.

Dat truform een beperkte impact had, had niks te maken met mismanagement. Het had te maken met het veel sterkere marketing team van Nvidia dat er voor zorgde dat developers het niet gingen gebruiken.
En dat is in de jaren daarna zo gebleven. Nvidia heeft altijd veel geld gestopt in het beinvloeden van developers. Terwijl ATI/AMD dacht dat als ze een goed product maakten de developers het vanzelf wel zouden gebruiken. Naast het punt dat ATI/AMD altijd meer gewerkt hebben aan open standaarden waar de features in zaten, terwijl Nvidia bewust nieuwe features in gesloten standaarden van henzelf stopte.
Kleine nuance:
AMD heeft schijnbaar de knowhow niet om met de ultra-high end te concurreren.
AMD heeft de kennis zeker wel. Ze kunnen er op dit moment alleen geen sluitende business case van maken. Ze hebben geconstateerd dat het, voor nu, niet verstandig/zinvol is voor ze om een "Halo" GPU te ontwikkelen.
Dit inderdaad. De meeste mensen hebben helemaal geen 4090 nodig. Maar ze vertikken het inderdaad om uberhaupt een AMD kaart te overwegen. De consument is hier dus zelf shuldig aan.

Ik heb begin vorig jaar voor het eerste in tijden weer een AMD kaart gekocht (6800) aangezien het Nvidia alternatief op dat moment (3070/TI) duurder en iets trager was en over slechts de helft van vram beschikte. Ik heb daar nog geen spijt van gehad.

Als de geruchten kloppen dat de volgende generatie van AMD raster performance die in de buurt komt de 4080 en sterk verbeterde raytracing vergelijkbaar met 4000 series voor rond de 550? Zou dat voor 80% van de consumenten genoeg zijn.

Zelf dan verwacht ik niet dat deze als zoete broodje over de toonbank gaan want dan zoeken ze wel een ander agrument om toch een nvidia te kopen.
4K/60 fps is best haalbaar op een middenmoter, maar dan zonder ray tracing en met de settings op high ipv ultra. We denken als gamer dat we allemaal een 5090 nodig hebben omdat alle websites alleen maar testen op de meest extreme settings maar als je een spel op high zet merk je tijdens het spelen niet of nauwelijks het verschil in grafische kwaliteit.
Zo game ik inderdaad. Met controller, onderuit gezakt op de bank, 4K@60, geen RT toestanden (doet me niks), gewoon helemaal prima.

In de meeste games haal ik 4K@60 wel, maar games die dat niet halen zet ik op 1440p of FSR3.1, prima te doen. Intussen betaal ik 20% van wat anderen voor hun kaarten betalen.
geen RT toestanden (doet me niks)
Alsof je dit nog kan vermijden. Elke recente UE5 game gebruikt RT. Je moet al helemaal naar low gaan om Lumen uit te schakelen en in sommige games gaat het helemaal niet. De recente Avatar & Star Wars hebben ook RT zonder dat je het kan uitzetten.
Is dat zo? Want ik heb die avatar game gespeeld, en mijn kaart kan amper RT verdragen, maar heb die game gespeeld zonder moeite op 4K@60. Met RT zou dat geen optie zijn.

Edit:

https://www.reddit.com/r/thefinals/s/u7lblZl0s6

Zie in dit draadje dat je het gewoon uit kunt zetten door global illumination op static te zetten. Kan het nu niet proberen hoe dat zit want heb de game bespeelt met de Ubi abbo, omdat ik geen Ubi games meer koop verder. Avatar ziet er prachtig uit, maar is qua inhoud geen hoogstandje, puur eye candy.

[Reactie gewijzigd door xoniq op 9 september 2024 09:26]

Lumen is niet automatisch RT, het is gewoon een andere hele skimme methode om te kunnen benaderen wat 'native' RT zou kunnen. Daarom draait het op een AMD ook gewoon goed. Eerste publieke demo's van Lumen en Nanite waren gedaan op de playstation 5 hardware.
Maar dat betekent niet dat je met de top kaarten van AMD niet prima kan gamen. Als enthusiast kom je bij een 4090 uit inderdaad, en ik gok inderdaad dat de 5090 nog wat duurder zal zijn dan de 4090 was. Het punt is alleen dat als je naar de Steam stats kijkt de 3060 de meestgebruikte kaart is, daar zit dus de grootste markt.
AMD geeft niet om jou dat je meer en meer moet betalen voor nvidia gpu monoply, jij bent de 0,1% van de 0,1%. Daar verdienen geen drol aan.

Ik zie zelf liever betere APU's van AMD, daar is waar ze goed in zijn en daar moeten ze zeker mee door gaan. niemand speelt meer games op native 4k 60fps zonder dlss, daar is die hele techniek voor bedacht, om GPU load weg te halen en iedereen op 720P te laten spelen zoals in 2004.

High-end videokaarten zijn sowieso geldverspilling nu DLSS etc bestaan, raytracing is vaak slecht geimplementeert en is de moeite niet waard tov de viduals die je er voor terug krijgt. Die techniek is nog 10 jaar weg voordat het echt mogelijk is om raytracing in jegames te hebben en ook echt verschil te laten maken.
De APU's waren nog net niet de ondergang van AMD. Niemand wilde zo'n ding hebben. Ook Intel heeft het geprobeerd met de 5xxx serie en ook die wilde niemand hebben. Sterker nog het huidige succes van AMD is gebouwd op cpu's die helemaal geen IGP hebben.
Als je het prima vindt om ook over 10-15 jaar 4k 60 FPS te spelen dan heb je eigenlijk niet eens zwaardere GPUs nodig dan nu. En de huidige technologie zal echt wel goedkoper worden.

Als je aan de bleeding edge wilt blijven gamen, gaat dat wel veel geld kosten.
Ik weet het niet, maar de high end is maar een heel klein marktaandeel. De grootste markt zit in het midden. En juist in die markt prefereer ik AMD over NVidia. Mijn 5700xt is constant geupdate en doorontwikkeld en kan vandaag de dag nog steeds mee. De performance is significant hoger dan toen ik hem kocht, dus AMD heeft er nog flink wat uitgeperst. Bij Nvidia is dat een stuk minder.
Als je gamen zo belangrijk vindt, moet he dat er ook voor over hebben. Nvidia lacht zich drie straten in de rondte om al le mensen die een spelletje zo belangrijk vinden dat ze er duizenden Euros voor over hebben
Nooi toch
Om te kunnen gamen kan je gewoon een AMD kaart kopen toch? Daar heb je geen high end kaart voor nodig…
Het verbaast mij inderdaad altijd hoe review sites zich continu richten op die 1% videokaarten die een vermogen kosten, en net doen alsof een andere kaart 'slechter' is die misschien 10% minder prestatie levert voor 50% minder geld.
Hmm, kijk eens hoe we wedstrijden beoordelen. Niemand stelt als eerste vraag "goh, wie is er tweede geworden?". Of "wie heeft de meeste kilometers gereden met zo min mogelijk brandstof?". Als we ons inlezen qua pixelplanken, dan wil het gross van de mensen weten wat het beste product is. En als het duur is, dan bevestigt dat het beeld wat de consument heeft want duur = goed. Toch? }:O

Reviewsites willen hits, en hits krijg je niet met nuchtere feiten & grafieken. Het moet sensationeel & dramatisch zijn want bij het lezen van de review beginnen velen zichzelf te overtuigen dat een aankoop gerechtvaardigd is.
Bewust of onbewust proberen we onze dure hobbies goed te praten. Dat zie je bij Lego, auto's, horloges, wijn en ook computercomponenten. Componentenboeren weten dat het aankoopproces geen rationeel proces is, en die spelen daar natuurlijk op in.

Dan is er natuurlijk FOMO. 'Ja maar wat nou als ik een grafische kaart koop die €200 goedkoper is, hoeveel kwaliteit loop ik dan mis?'.

Het is onze aard om disproportioneel veel aandacht te besteden aan 'de nummer èèn'. Daarmee vereenvoudigen we het selectieproces. Dat dit tot hele rare resultaten leidt wisten we al lang, maar we doen het toch :p
Nou het is meer dat je daartoe wordt aangezet. Niet dat het 'je natuur'' is, het is juist de 'natuur' van de mens dat die de natuur naar zijn of haar hand zet en niet andersom. En je kan dus ook die *keuze* precies anders maken.
Anders gezegd: Je bent als mens niet een 'slachtoffer' van je driften (ook al doen sommigen het zo voorkomen)
Reviewsites willen hits, en hits krijg je niet met nuchtere feiten & grafieken. Het moet sensationeel & dramatisch zijn want bij het lezen van de review beginnen velen zichzelf te overtuigen dat een aankoop gerechtvaardigd is.
GamersNexus en consoorten bewijzen natuurlijk dat het ook anders kan. Noemde indertijd de 4090 nog een kaart voor '"people with more money than sense."
Dat zie je met veel segmenten toch? Kijk bijvoorbeeld naar auto's.
Ja net zo dwaas ... Hoeveel mensen kunnen zich nu een auto van 2 ton veroorloven?
Ik. Als ik mijn huis verkoop :+
Ja kopen. En nu nog blijven rijden/onderhouden ;)
Heel erg veel, maar hoeveel kunnen het onderhoud betalen?
Hoevaak zie jij reclame voor Ferrari's en andere autos van meer dan een ton?

Ik leidt een reclame-vrij leven, maar kan me niet voorstellen dat het er veel zijn.
De comment boven mij had het over reviewsites niet om reclame.
Het stikt anders van de reviews van die "lagere" kaarten met vergelijkingen zodat je mooi kunt zien hoe ze ten opzichte van elkaar presteren. Van de echte budgetkaarten zie je wel minder reviews heb ik het idee, maar de middenklasse wordt net zo goed gereviewed als de high-end kaarten.
Welke kaart is 10% langzamer dan een 4090 voor 50% van het geld? Zelfs tussen de 4080 Super en 4090 is het verschil in prestaties gauw ~20-25%.
De 4090 verbruikt ook 20-25% meer stroom dan de 4080 Super. Daarbij kost een 4080 Super de helft van een 4090. Je betaalt dus dubbel zoveel, maar krijgt niet dubbel de prestaties. Dat is wat @ronaldvr denk ik bedoelt. Hoe hoger het segment, hoe slechter de prijs/prestatie ratio. Voor de gemiddelde gamer is het middensegment het meest interessant. Met een 4090 haal je op 1440P High in Starfield gemiddeld 91FPS. Een 4070 geeft je 50FPS. Die GPU is drie keer zo goedkoop als de 4090 maar de prestaties zijn maar 1,8 keer minder goed. Kijkende naar bang for buck is de 4070 dus de betere keuze. De 4070 verbruikt dan ook eens aanzienlijk minder stroom, dus kijkende naar de langere termijn ben je ook goedkoper uit.
Het is maar hoe je het bekijkt, in mijn geval zou een 4070 met 50FPS onspeelbaar zijn, omdat je dan al zichtbare FPS schommelingen gaat krijgen die mij heel erg opvallen, dan maakt het niet meer uit of de kaart 200 of 1000 euro kost - ik heb hogere prestaties nodig.
Als je de laatste beetjes nodig hebt, gaat de perf/watt vanzelf uit het raam en kom je dus uit op de bakbeesten zoals een 4090 en dan wordt het dus heel vervelend prijstechnisch als er geen AMD concurrent meer is.
Je ka de 4090 een lagere power cap geven als de 4080 en dan is hij nog 15% sneller. Der8auwer heeft dit ooit getest. De grap is dat de 4090 enorm zuinig kan zijn maar Nvidia er voor gekozen heeft een enorm inefficiënt beest op de markt te dumpen om die laatste paar procent eruit te persen (net als intel en nu ook AMD dat doet).

Ik zou graag zien dat we weer terug gaan naar kaarten met diual bios waar je bios 1 zuinig is (standaard) en bios 2 het turbo profiel is (met dus enorme stroomrekening als gevolg).

Onhandig voor de revieuwers maar dan hebben ze wel een beter product wat mij betreft.

Mijn 6900XT draait nu op 145 watt met minder als 8% prestatie verlies waar hij standaard 350 watt slurpt.
welke zou jij kopen een kaart die 8% minder fps draait maar 145 watt verbruikt of 1 die 8% sneller is maar 140% meer stroom verbruikt.

Ik weet het wel want met 4 uur gamen per dag (mijn gemiddelde) scheelt dat over 4 jaar dus ruim 1150 kWh ofwel ruim 325 euro met mijn huidige contract. Dat is 8 tb aan ssd opslag of een cpu upgrade als je de oude verkoopt.

[Reactie gewijzigd door computerjunky op 9 september 2024 14:12]

Omdat die 1% altijd als eerste uitkomt, later reviewen zo ook andere kaarten.
Dit is een enorm slecht signaal, wat betekend dat Nvidia weer vrij spel krijgt en wederom hun kaarten weer flink duurder kan maken. Want ja; welke concurrent heb ik nog? Intel kan je geen concurrent noemen, en AMD maakt er geen wedstrijd meer van. Alternatieven zijn er niet.
Ik denk dat AMD heel goed in staat is een gpu te bouwen van 10.0000 Euro die nvidia wegblaast. Maar op een gegeven moment houdt het gewoon op en wordt het meer marketing dan zinvol.
Ik denk het niet. Het punt is, NVidia maakt nu al high-end kaarten in dat prijssegment. Dat zijn dan weliswaar AI chips, geen CPU's, maar het verschil is niet bijster groot. Als AMD GPU's in die prijsklasse gaat verkopen, heeft NVidia heel snel een antwoord, en meer ervaring op dat performance nivo. NVidia wordt niet weggeblazen.
Ja hoor. Geen Nvidia kopen. Je hoeft niet te gamen op 4k 144fps.
Dat is nog steeds een keuze dat de gebruiker zelf wilt maken.
Maar dat haal je niet als je bv highend VR wil doen, zelfs niet op een 5090 met alles op ultra+.
Wel dus. AMD blijft kaarten maken maar zal zich dus meer op de midrange toeleggen. De strijd in het 4070 segment zeg maar. Ze hebben dit eerder gedaan ten tijde van de RX480 en RX580. Dat is de grootste groep gamers. 4090 is leuk maar zoveel mensen zijn er niet die dat soort bedragen voor een kaart neertellen. Je kunt op 1080 of 1440 prima gamen, als je eenmaal bezig bent is de visuele weergave snel bijzaak.
Slecht? Hoeveel % van de consumenten is in de markt voor een top-kaart, van €1000-€2000? Vijf procent? Kom je daar al op?

Het voelt alsof ik medelijden moet hebben met mensen die nu Ferrari moeten kopen omdat Lamborghini uit de markt stapt.

Laat ze lekker concurreren in het prijssegment €200-800, daar hebben miljoenen mensen wat aan. Ipv alleen zij die zo rijk zijn dat ze de waarde van een complete game pc aan alleen een videokaart uit kunnen geven.
Zal wel meevallen, immers moet de highend dan wel zoveel verschillen van de midrange om het prijsverschil te kunnen vragen. Dus hoe meer concurrentie in de midrange heeft wel degelijk ook effect op de highend.
Op zich prima, want hier heeft AMD in het verleden ook al de nodige successen mee geboekt. Denk bijvoorbeeld aan de RX 480 en 580, of de HD 4850. Kaarten die nooit wereldrecords hebben gebroken, maar wél goed verkochten omdat ze voor het geld nette prestaties wisten neer te zetten.
het is maar vanuit welk oogpunt je het bekijkt. Voor mij betekend dit simpelweg dat mijn volgende GPU een Nvidia wordt. Erg jammer want ik ben een groot fan van RSR wat nog altijd de enige betrouwbare upscaler is omdat hij voor 95% van de games werkt.
De Nvidia variant is zo lelijk dat die onbruikbaar is en is niet te gebruiken bovenup FSR als dat wel ondersteund is. En bovendien is de ui van Nvidia een gedrocht (vond de oude veel beter)
Zal dat dan simpelweg zijn omdat ze niet de recources hebben om eraan te werken? Spijtig signaal. Kan me wel voorstellen dat een top of the line model wat moet concurreren moeilijker is dan een middenmoot.
Ik snap zeker de redenering erachter als bedrijf. Maar dan hoop ik wel dat hun midrange niet (opnieuw) veel omhoog gaat qua prijs. Want als Nvidia vrij spel krijgt om hun high end te prijzen, dan weet je dat de rest mee opschuift naar omhoog.
Maar uiteindelijk zoals de meeste hier al aangegeven hebben, zijn het de consumenten die deels de markt bepalen.
Stoppen met belachelijke prijzen te betalen, langer doen met die oude gpu, alleen maar midrange kaarten kopen.
Je zou verwachten dat ze die kritische massa al lang en breed hebben. De Xboxen en PlayStations gaan met miljoenen over de toonbank en zijn op dezelfde AMD hardware gebaseerd.

Sterker nog, games waar RT op 11 wordt gezet zijn aardig in balans met games waar men het juist in toom houdt zodat ook consoles het nog bij kunnen benen.

Hopelijk bereikt de PS5 Pro hetzelfde waardoor er wellicht wat voor de 7000 generatie geoptimaliseerd kan worden.
Het zou mooi zijn als game developers dit ook soort van wat meer gaan doen, niet richten op de maximale bling bling maar een beter verhaal, meer de hele ervaring en de diepgang. Maar helaas lijkt het wel makkelijker om aandacht te trekken door een game te maken dat geen enkele high end pc fatsoenlijk aankan.

Doe mij maar nog altijd spelen zoals de originele Deus Ex. Qua grote levels en innovatie was dat spel gewoon ongeëvenaard.
Lijkt me een logische keuze. Veel marktaandeel hebben ze volgens mij nooit gehad in het topsegment. Gelijkertijd domineren ze zowat de "full-sized" console markt en de pc-handheld markt. Ze doen het volgens mij ook goed in de gaming-cpu markt. Met de Strix Halo heb je voor mijn gevoel voorlopig genoeg kracht voor desktop of laptop gaming, zonder dedicated GPU.

Tuurlijk, een RTX4080/4090 kan nog heel wat meer. Maar hoe groot is die markt? En hoe groot kan AMD's aandeel in die markt vervolgens worden?

Op dit item kan niet meer gereageerd worden.