AMD-topman van gpu-divisie Scott Herkelman kondigt vertrek bij bedrijf aan

AMD-topman Scott Herkelman heeft zijn vertrek bij het bedrijf aangekondigd. Herkelman was ruim vijf jaar vicepresident van de graphics business unit en daarna nog zo'n twee jaar senior vice president van dezelfde divisie.

Scott Herkelman
Bron: AMD

Herkelman heeft zijn vertrek bekendgemaakt in een tweet en zegt vanaf eind dit jaar definitief bij AMD weg te gaan. Op de officiële website van AMD staat overigens al dat een andere werknemer zijn positie heeft ingenomen.

De gpu-divisie van AMD werd de afgelopen zeven jaar mede door Herkelman aangestuurd. Hij was dus medeverantwoordelijk voor de release van verschillende Radeon-gpu's, waaronder recentelijk de Radeon RX 7800 XT en RX 7700 XT. Hij werkte daarentegen niet alleen achter de schermen aan videokaarten van AMD, want hij nam ook de presentatie van verschillende gpu's op zich.

Door Yannick Spinner

Redacteur

25-09-2023 • 21:17

120

Submitter: Xtuv

Reacties (120)

Sorteer op:

Weergave:

Ik denk dat het goed is dat hij vertrekt. Ik vond hem onzeker en ongemakkelijk overkomen tijdens presentaties en mist de connectie met de gaming community. Daarnaast hoop ik dat de PR afdeling van AMD nieuw managment krijgt want de line-up van de afgelopen jaren was vreemd gepositioneerd, ook de prijs / strategie was soms vreemd. RX 7900 XT was 900 euro bij lancering terwijl en zeer dicht bij de XTX gepositioneerd terwijl de XTX zeker 20% sneller was. De XT had toen max 700 euro moeten zijn als je kijkt naar de lijn van performance.

We gaan zien wie er voor terugkomt. Persoonlijk hoop ik dat Sam Naffziger meer op het podium komt, zijn tech presentaties over chiplet designs zijn altijd erg interessant.
Tja, zowel nvidia als AMD zaten deze generatie in een spagaat. Beide kampen hadden behoorlijke overschotten van de vorige generatie, mede door de crash van de 'crypto-boom'. Dit laatste heeft ook een boel kaarten op de tweede-hands markt gebracht.

Daarnaast hebben ze investeerders tevreden te stellen en heeft de voorgenoemde 'crypto-boom' de prijzen behoorlijk omhoog geschroefd, die trend willen de investeerders graag verder zien gaan.

Dus beide kampen hadden concurrentie van de vorige generatie, verwachtingen van de investeerders en een sterk afgenomen consumenten-vraag i.v.m. o.a. inflatie. De 'silver lining' voor beide kampen, ik vermoed vooral nvidia, is artificial intelligence. nvidia is daar nu simpelweg de koploper met nagenoeg een monopolie positie.

Dat ze richting gamers toe verder met vreemde marketing komen aanzetten heeft ook niet geholpen, zoals de beruchte 'RTX 4080 12GB VRAM' die feitelijk een 4070 was. De RX 7900XT leek AMD's versie van die dubieuze keuze.

Het kan vanaf hier alle kanten op, ik hoop in het voordeel van de consument/gamer, maar het is waarschijnlijk verstandig daar in eerste instantie niet van uit te gaan.
De XT had toen max 700 euro moeten zijn als je kijkt naar de lijn van performance.
Je moet ook de realiteit van kosten in acht nemen. De videokaart industrie moet geen gesubsidieerde markt worden, dat trekt AMD gewoon niet. Normaal zou een product welke niet goed geprijsd kan worden, niet gemaakt worden. Echter met de pandemie had je een productie issue en daarmee een enorm kosten issue. Die dingen zijn al jaren van te voren gepland, zowel qua design, als productie en niemand had gerekend op een dergelijk pandemie. Een 3080 met een MSRP €719 ging €1650+ kosten tijdens de piek, daar is Nvidia enorm op ingesprongen door alle kaarten fors in prijs te verhogen, want men zag dat teveel mensen alsnog duizenden euros overhadden voor een nieuwe videokaart (en niet alleen de cryptominers). AMD is daar in mee gegaan. En de huidige situatie is daar het resultaat van. Nvidia lijkt gaming GPUs als hobby project te doen naast hun enorm winstgevende datacenter oplossingen (oa. voor AI, maar daarvoor hadden ze ook al veel goed verkopende datacenter producten). AMD zit niet in diezelfde luxe positie, als die volledig gaan inzetten op het laag en midden segment en daar in zouden winnen, dan zou dat wel eens veel winstgevender kunnen zijn voor AMD dan Nvidia bijbenen in het hoge segment.
Het overschot aan RDNA 2 chips was inderdaad de rede waarom de huidige prijzen waren zoals ze bij de launch hadden aangekondigd. Maar dat betekend gewoon dat ze een inschattingsfout hadden gemaakt, dat betekend niet dat je de line-up en prijs / performance hiermee goed kan praten. 900 euro voor een 4070 ti is gewoon niet reëel bijvoorbeeld, ben blij dat AMD uiteindelijk bij de RX 7800 XT launch een normalere prijs hanteerde.
Maar dat betekend gewoon dat ze een inschattingsfout hadden gemaakt, dat betekend niet dat je de line-up en prijs / performance hiermee goed kan praten.
Het ligt er aan hoe je een inschattingsfout uitlegt. Is dat een fout van AMD of gewoon dat AMD nooit de situatie correct in had kunnen schatten door pandemie, tekorten, economische situatie, concurrentie leaps, etc.?

En of €550 een 'normale' prijs is bij launch (die in de praktijk €580+ is) ligt er ook aan hoe je deze kaart bekijkt en plaatst. Tweakers.net noemt dit het middensegment, terwijl Wikipedia dit gewoon high-end noemt. Ter vergelijking een 6 jaar oudere RX 480, een midrange kaart, koste toen €260 (adviesprijs).

Gelazer met prijzen, benamingen en verwachtingen maakt dit er allemaal niet duidelijker op.

Als je naar de tests kijkt van Tweakers.net zelf dan scoort de RX 7800 XT net boven de 4070 en de 4070ti zit ver boven de RX 7800 XT. Een 4070 is nu €600+. En als je naar de prestaties met Raytracing kijkt zit de 4070 ook ver boven de RX 7800 XT. Het is wat je belangrijk vind, wat je speelt, wat is je budget en je vooroordelen zijn...

Bron:
review: Gpu-middensegment eindelijk vernieuwd - AMD Radeon RX 7700 XT en 7800 XT
https://en.wikipedia.org/wiki/Radeon_RX_7000_series
review: AMD Radeon RX 480: CrossFire, VR, DX12 en overklok getest
https://en.wikipedia.org/wiki/Radeon_400_series
Ik weet niet of zijn presentatie skills bij de grote publiekelijke conferences iets te maken heeft met de rol die hij speelt binnen AMD, dus dat vind ik iets raars om als reden te zien dat hij beter weg kon. AMD PR is inderdaad redelijk raar en zou wat bijgestuurd moeten worden.
Hopelijk gaat deze nieuwe topman de ambities bijstellen, zodat AMD ook bij de top kaarten mee wil dingen. Één bedrijf die met de 4090 zover vooruit loopt is niet goed voor de markt.
Waarom is er nog steeds die drang naar top kaarten? Wat bedoel je overigens met top kaarten, highrange performance waarschijnlijk?

Persoonlijk denk ik dat AMD zich goed heeft gericht op de juiste doelgroep, hun sock zit gewoon in iets als de Steam Deck, een ROG Ally, etc. waarbij performance gewoon tegen krachtig, maar betaalbaar aan moet zitten. Zelfde voor de Xbox en PS.

Persoonlijk zit ik niet te wachten op een GPU dat zoveel verbruikt, dat ik mijn woning niet meer hoef te verwarmen in de winter, en waarbij games toch niet zo goed zijn geoptimaliseerd zoals op papier. Dan tel ik mijn energiekosten nog niet eens mee, ook idle is nog altijd kostend. Geef mij maar gewoon een balanced APU, waarbij het zuinig is als ik het nodig heb, en krachtig als ik meer power nodig heb. :)

Ik heb nu een AMD Ryzen 7 5700G, en ik hoef maar naar andere te kijken die veel gekocht worden, en daar zit AMD ook hoog, zowel in CPU's als in videokaarten. Het is gewoon de beste prijs/kwaliteit voor nu, en daar kan een Intel/NV momenteel moeilijk mee omgaan.

Persoonlijke noot: ik ben blij dat de dominatie van Intel/NV eindelijk is doorbroken. Beide hebben nogal voor een dure markt gezorgd, en beide zijn niet vies van prijsafspraken. Is AMD foutloos? Nee, maar ik als Linux gebruiker slaap wel elke nacht in mijn AMD-pyjama (geen idee of deze man daar ook verantwoordelijk voor is geweest?), en hun Ryzen's zijn gewoon ~betaalbaar - al valt de voorraad wel tegen.

[Reactie gewijzigd door HollowGamer op 24 juli 2024 22:54]

De reden voor de drang naar de top is vrij simpel: het is een enorm sterke vorm van marketing. Ik denk niet dat je kunt ontkennen dat de huidige strategie goed werkt voor NVIDIA, gezien hun 80% marktaandeel.
Zelfs al heeft AMD de prestatiekroon, het "gros van de mensen", zal gaan voor een machine met de sleutelwoorden "Nvidia", en een "core i7", en "SSD". Er is ze verteld door kenissen dat ze daar goed zitten, en mogelijk liggen daar ook nog betere marges voor de retail. Bij deze mensen krijg je misschien met moeite een ARC aangepraat, omdat die van intel is, maar AMD is verteld dat het "een b-merk" is. De spookverhalen over incompatibiliteit doen nu nog de ronde en komen zelfs wel eens(zonder referentiekader of daadwerkelijk testen) in specialistische artikelen voor.

Nvidia moet gigantisch de plank misslaan willen ze op de grafische markt hun aandeel verliezen, tenzij ze gewoon stoppen met videokaarten maken voor consumenten.
Ondertussen gaat het gros van de mensen liever voor het sleutelwoord “Ryzen” hoor..
nee hoor, enkel in de eigen builds zie je een duidelijke balans richting ryzen. Loop een media markt en andere prefab shop binnen en spreek daar een verkoper aan "zullen het maar houden bij woord verkoper" en die spreekt vlotjes naar hun volume producten wat veelal intel en nvidia is. Laptop, desktop het maakt niet uit...
Helaas is AMD zeker op mobiel vlak nog slecht verkrijgbaar in nuttige configuraties. (levert met de Ideapad 5 (pro) vaak wel erg goede deals op)

Hier speelt voornamelijk ook chip beschikbaarheid en onduidelijkheid line-up een rol. Zelfs met kennis heb je een hele matrix nodig om te weten welke chip je nu daadwerkelijk koopt.

Probleem is gecreëerd door te korten, overschotten en slechte strategie, AMD houdt van paper launches.

Te veel voorraden van ZEN2 & ZEN3 chips terwijl ZEN 5 nu weer bijna voor de deur staat en nu pas komen langzaam de ZEN4 Ryzen 7040 series beschikbaar in notebooks.

En dit terwijl Intels notebook CPU's echt enorm slecht zijn als notebook CPU's de laatste jaren, power hungry, enorm warm, turbo van maar liefst 55 watt voor de U series waardoor veel thermal designs van notebooks eigenlijk niet meer voldoen.
Ik heb net deze video gekeken: GPU Market Share AMD vs Nvidia [2002-2022]

Mijn conclusie daaruit is dat AMD een kans maakt op veel meer marktaandeel als:
- Ze enkele generaties achter elkaar de beste videokaart hebben (9700 Pro - 9800 Pro - x850) (vertraagde reactie)
- Nvidia het laat liggen (Geforce FX, Geforce 400 series)
- Dat ze bijna geen kans hebben of zelfs veel marktaandeel verliezen als Nvidia een feilloos product heeft. (1080 enz)

Misschien kan het gebeuren als AMD chiplet technologie gebruikt met de 9000 serie(volgens geruchten), en zowel het beste topproduct heeft en de beste midrange kaart. En dat ze dat enkele generaties achter elkaar kunnen herhalen. En Nvidia teveel op de AI gefocust is en/of een slecht procedé gebruikt voor winstmaximalisatie.
Goed punt, maar idem Intel>AMD in CPU's sinds 2016, maar ik vergelijk dat ook met AMD's antwoorden Athlon vs P3 in de Ghz race, en daarna Athlon64x2 vs Socket 478 P4. De amd levert intel 8088-kloons voor 20-25% van de prijs, 40 mhz base clock overwinning in de 386-tijd, en de K6/2/2+/3Dnow/3 vs P1/2 wars was ik ook bij, maar is nu niet meer relevant, gezien de meeste lezers dat als "oertijd" zullen zien.

Waar mijn reactie eigenlijk voor bedoeld is, de naam "Nvidia" is bij de mainstream net zo bekend als "pentium" 25-20 jaar geleden dat de onoplettende, op zijn omgeving vertrouwende koper voor het vertrouwde gaat. Die mensen letten niet op invividuele prestaties, In huidige markt vind ik het ook prima, ik kan "betere" prestaties kopen voor minder geld, en als zowel prestatie, prijs en naamsbekendheid op 1 lijn zouden komen, zouden beide merken ook even duur zijn, en afspraken maken over prijzen, en dan is de consument de dupe. Vergeleken bij de 90's is het speelveld al veel te beperkt zowel qua CPU's als GPU's.
Ik denk dat je het beter kunt omschrijven als "voorkomen dat je product stagneert". Dit hebben we immers voor Zen ook bij AMD gezien. Hun CPU's hadden een goede prijs/prestatie verhouding, desondanks wonnen ze daar geen markt mee. Consumenten willen het gevoel hebben dat ze bij het winnende team zitten.
Consumenten willen gewoon het beste spul voor hun budget. AMD heeft jaren de vloer aangeveegd met Intel dankzij Ryzen omdat zij op alle vlakken een superieur product hadden
Klopt, maar op het moment dat ze weer redelijk aan elkaar gewaagt waren, was Intel meteen weer nummer 1 keuze

Mensen willen wel overstappen, mits ze dit sterk in hun portemonnee en/of performance merken.
Als die 2 zaken niet aan de orde zijn, neemt 9 van de 10 toch weer Intel/Nvidia

En je hebt natuurlijk aan beide kanten mensen die altijd 1 van de 2 kiezen, maar bij bedrijven zoals Intel en nVidia zijn die aantallen volgens mij veel hoger
Ik heb liever een goede midrange/somewhat higher range card die goed geoptimaliseerd is qua hardware and software en vooral op linux.

En als ze ook nog een de zelfde/betere performance halen met een goede % lagere idle/game mode is dat zeker meegenomen.

Het is leuk dat Nvidia de snelste/beste top kaart heeft maar daar heb je bijna soms een eigen powerstation voor nodig. + cooling.
Met mijn huidge 6800 XT draai ik 97% van mijn spellen op linux perfect. En de drives van de gpu en de kernel en alles wordt alleen maar beter elke keer. Ook mede dankzij Valve.
Het is leuk dat Nvidia de snelste/beste top kaart heeft maar daar heb je bijna soms een eigen powerstation voor nodig. + cooling.
Momenteel heeft nVidia efficiëntere kaarten dan AMD..
Genoeg mensen willem meer performance. Ik heb zelf al ruim 10 jaar geen AMD desktop gpu's gekocht want ze bieden de performance niet. Nvidia heeft dus duizenden aan mij verdiend. AMD niet.
Sinds RX6x00 is dat dus onzin, had in 2017 mijn eerste groene videokaart gehaald sinds FX5x00. Grootste morele vergissing die ik ooit heb gemaakt.
Dat is helemmaal geen onzin, AMD heeft al een decenia niet de performance kroon in handen gehad over de gehele linie. Je ziet dat de RX6XXX serie erg competitief was op gebied van rasterized rendering. Maar het kon totaal niet meekomen op gebied van raytracing. Iets waar je nu toch echt wel van kan zeggen dat het een gamechanger begint te worden. Start CB2077 maar eens op met path tracing.
Ik heb een 4090 en start niet op met pathtracing.

Koop gewoon een videokaart afgestemd op de resolutie die je wil spelen, de games en of je wel of geen raytracing wil gebruiken.

Ik speel op 4k of 3440x1440 met high refresh. Nooit met RT, ik zie letterlijk geen voordeel, maar wel het nadeel in framerates. Dat werd duseen 4090. Ik heb voor als er vrienden komen gamen een tweede PC met een normale 1440p high refresh rate monitor en daar zit een RX6800 in. Draait alle games op die resolutie vloeiend en was de goedkoopste kaart die dat deed.

Ik heb ook nog een PC met een 2080Ti met 1080p monitor voor hetzelfde doel die draait ook alles op die resolutie (en een K6-2 retro PC met dos en win95 zodat ik niet met emulatie en vms hoef te klooien)

[Reactie gewijzigd door Verwijderd op 24 juli 2024 22:54]

Ik vind het RT gebeuren zeer goed zichtbaar in de games CB2077, Control etc. Kan het mij eigenlijk niet voorstellen dat je het niet zou zien. Prima dat je liever een hogere framerate hebt dan meer eye candy. maar vele beschouwen RT toch echt als de nieuwe paradigm. CB2077 met path tracing staat mijlenver voor op grafisch gebied dan al het andere op de markt.
Om op je laatste vraag te antwoorden: Nee, bedankt.

En dan zijn we weer bij het begin: Ze waren inderdaad competief voor rasterisatie. Zo blijkt dan weer alles wat je zegt onzin te zijn -- mocht dat ooit het doel zijn: Want iedereen heeft hun eigen voorkeuren. Er bestaan ook nog mensen die helemaal niets van die markettingtrukjes moeten weten zoals RT en DLLS en weet ik veel wat nog allemaal, sommige mensen willen gewoon kunnen gamen tegen een menselijke prijs.
Als je dit "onzin" noemt dan moet je toch je prioriteiten maar eens onder de loep nemen.
Morele vergissing? Financiële vergissing kan ik nog begrijpen, maar wat heeft moraliteit hier mee te maken?
ik denk dat het niet kunnen concurreren met Nvidia in dat segment weinig te maken heeft met ambities, en meer met financiele en/of technologische middelen.
Ik doel op dit gerucht. nieuws: Gerucht: AMD brengt mogelijk geen high-end videokaarten uit in RX 800... Of die klopt weten we niet, maar dat spreekt wel degelijk over ambities (of juist gebrek eraan).
Hoe kom je daarbij? Er staat helemaal niks over hun ambitie in dat artikel.

Ik denk dat AMD de juiste keuze maakt door zich op het midden segment te richten, daar is veel meer geld te halen.

Het ontwikkelen van een top model kaart kost heel veel in R&D en het is maar zeer de vraag of dat wordt terug verdient, want in verhouding worden er daar gewoon relatief weinig van verkocht.
Nu de prijzen steeds verder uit elkaar lopen zal dat nog wel erger worden.

Ik ben er eerlijk gezegd wel van overtuigd dat AMD's ambitie nog steeds is om marktleider te worden.

En wat ze daar op dit moment het meest voor nodig hebben is meer marktaandeel,
niet een kaart die 99.9% van de mensen toch niet koopt.

[Reactie gewijzigd door xenn99 op 24 juli 2024 22:54]

Het aantal mensen dat spectre meltdown krijgen over dat AMD geen high-end RDNA4 gaat maken vind ik wel ironisch. En dan ook nog eens erbij denken dat ze de high-end gaan verlaten is nog ironischer. AMD denkt dat ze wel de top-end van RDNA4 werkend gaat krijgen, maar inderdaad niet dat zij er (genoeg) geld terug gaan verdienen (zoals je zelf al zei). Dat heeft denk ik voornamelijk te maken met dat de gpu markt gewoon bagger is momenteel en we zitten ook in een economische recessie. Al komen we er langzaam weer uit.

Dat ze de high-end de aankomende generatie overslaan, moet me wel denken aan RDNA1. RDNA1 toender tijd had een best goede launch, ondanks AMD er niet voor koos om in de high-end te concurerren met Nvidia.

[Reactie gewijzigd door kyrillajax op 24 juli 2024 22:54]

Het marktaandeel van AMD zegt genoeg dat deze strategie niet werkt.
Ik denk dat het niet perse daarmee te maken heeft. Het zou kunnen, maar ik denk dat het meer in de gedachten zit van de gemiddelde jan die een videokaart koopt.
Kijk naar de Steam survey charts. Je ziet gewoon dat zelfs de hele dure high end kaarten aanwezig zijn in de machines van Steam gamers. AMD is letterlijk zeldzaam in de charts. Deze strategie werkt gewoon niet. Tuurlijk is er een element aanwezig van brand awareness. Maar die brand awareness is gebasseerd op performance.

https://store.steampowered.com/hwsurvey/videocard/
Je weet dat steamsurvey niet het volledige beeld geeft hé. Het is een meetstaaf die je kan gebruiken, maar ik neem het ook met een korreltje zout (af en toe tenminste). Brandawareness is ook niet het enige, er zijn echt gewoon Nvidia fanboys (best een aantal, al heb je dat bij AMD ook. Maar dat even links gelaten) die denken dat Nvidia gewoon superieur is op alle gebieden, of op z'n minst, op veel gebieden. Daarnaast denkt men ook dat de drivers van AMD (nog) steeds slecht is, wat dus niet het geval is de laatste jaren. Sterker nog, AMD's adreneline software is een heel stuk beter dan Nvidia control panel en ik merk dat ook. Het is gewoon de mindset van de gemiddelde jan die een kaart koopt die dat veroorzaakt. Tuurlijk heb je ook andere factoren die erbij spelen, maar wat ik net opnoemde is wel echt een dingetje.

Op dit moment heeft Nvidia wel een voorsprong op het gebied van software, denk aan DLSS ect ect. Daarnaast hebben ze ook betere raytracing performance. Mensen vinden dat AMD hun kaarten dan een stuk lager moeten prijzen om mee te concurreren. Wat op zekere hoogte logisch is, maar soms wordt het uit proportie genomen heb ik het idee.

[Reactie gewijzigd door kyrillajax op 24 juli 2024 22:54]

Mwah, ik heb meerdere vrienden met 7900XTX kaarten die regelmatig driver crashes hebben in Baldur's Gate 3 en andere spellen. Ik ben er zeker nog van overtuigd dat Nvidia gewoon significant betere drivers hebben. Overigens zijn die van AMD inderdaad stukken beter dan vroeger, maar nog steeds (lang) niet op niveau van Nvidia. Dat kost tijd natuurlijk, maar daar heb ik niets aan op het moment, dus gewoon een 4090 in m'n kast gepropt en (hopelijk) volgend jaar een 5090.

Ik denk dat die vrienden van mij overigens ook weer naar Nvidia overstappen zodra ze toe zijn aan een upgrade (zal nog wel eventjes duren).
Je benoemd nu wel games die pas recent uitgekomen zijn. Tuurlijk is de drivers van AMD niet altijd 100% vlekkeloos, vooral met games die maar pas zijn uitgekomen. Ik heb zelf ook problemen gehad met Nvidia kaarten.. Dus wat dat betreft vind ik het niveau van de drivers van AMD en Nvidia wel nagenoeg wel gelijk aan elkaar. Er zijn dus ook genoeg mensen die problemen ervaren met de drivers van Nvidia, maar die hoor je minder dan wanneer AMD problemen heeft met drivers.
Ja is zeker waar, net wat je eigen ervaring er mee is inderdaad. Nvidia is ook zeker niet vlekkeloos.
Ik loop nogsteeds tegen driver problemen aan voor AMD GPU's. Daarnaast zijn ze vrij laat met game optimalisaties keer op keer.

Daarnaast draait de gehele professionele wereld op Cuda, dus je hebt dan al niks aan je AMD GPU. Veel renderers voor 3D stuff kunnen niet eens hun werk doen daarom op een AMD GPU.
Maar die brand awareness is gebasseerd op performance.
Niet helemaal, de brand awareness is inderdaad gestart door performance, maar er zijn genoeg momenten geweest dat nVidia helemaal niet de beste kaarten had, maar als nog vele male meer verkocht dan AMD

De brand awareness is gewoon extreem sterk bij nVidia, en dit is naar mijn mening maar deels terecht.
ik kan soms daarom ook niet snappen dan mensen blind een bepaalde kaart kopen
Kan je letterlijk alsjeblieft eruit halen? Word ziek van die influencers die overal literally and not gonna lie tussen gooien terwijl het niks toevoegt.
Draadje systeem in Tweakers is wat bugged. maar verder snap ik neit wat jouw reactie toevoegd hier.
Net zoveel als jouw van tiktok geïmporteerd taalstijl. Ergenis aan tenminste één zijde.
Het is gewoon dagelijks taalgebruik, zoek hulp.
Het is grammaticale contaminatie, maar thanks voor het kleine stapje richting idiocracy
Je maakt foute aannames alsof ik de taalstijl overneem van influencers. Dit terwijl het gewoon standaard abn is |:( . En dat zelf meerdere grammaticale fouten maken. Dat als enige reactie binnen een discussie zonder op de inhoud in te gaan. Nogmaals, je hebt hulp nodig.

Never go full retard
Jouw generatie is een gezwel
Al die aannames die je maakt, je zit hier tegen iemand uit de mid jaren 80 te ranten over het gebruik van het woord "letterlijk" wat gewoon een veelgebruikt acceptabele Nederlandse term is. Dan nog een generatie een gezwel noemen. Jij hebt echt problemen, zoek hulp.
Welke strategie stel je voor?
Die dat ze betere producten maken dan de concurrent?
Inderdaad sterker focusen op performance, met name in eht hogere segment. Zij claimen dat mensen dat spul niet kopen. Nvidia laat anders zien.
Goed plan. Beter dan de concurrentie zijn. Dat zou ieder bedrijf moeten doen. :z
Je bent echter ook afhankelijk van je concurrentie.
Het gaat er om dat AMD nu claimed dat mensen niet zitten te wachten op high end GPU's. Terwijl de markt wel degelijk laat zien dat mensen hierop wachten.
Ja, dat lijkt me inderdaad onzin.
Misschien dat ze met die chips op zwakkere kaarten meer winstmaximalisatie kunnen halen.
Dat is kansloos. NVidia's high-end is de AI markt; zelfs de 4090 is voor hun dus feitelijk midrange. AMD heeft geen AI business. De ontwikkelkosten die AMD moet maken om met de 4090 te concurreren kunnen ze dus alleen in die gaming high-end terugverdienen
De 4090s worden niet voor ai tasks verkocht.
Als je het NVidia vraagt, nee. Ondertussen hebben we op het werk een hele collectie (vanaf de 980) "gaming" kaarten. Het werkt namelijk prima.

Maar dat was neit eens mijn punt: de AI kaarten delen de R&D met de high-end gaming kaarten.
Ze hebben de nieuwe kaarten wel enigzins "gimped" dat je het voor een deel wel goed kan gebruiken maar voor een ander deel weer niet. Maar het klopt dat de R&D gedeeld wordt.
Nvidia laat anders zien.
Kijk naar het verleden, deze tactieken werken niet al te best voor AMD
AMD kan een kaart maken die veel beter presteert dan nVidia, ik weet bijna zeker dat ze alsnog veel minder verkopen dan hun concurrent

En laten we ook niet doen of het kinderspel is om even betere performance dan nVidia te krijgen... een bedrijf dat vele male meer te spenderen heeft als AMD

En waar claimed AMD dat niemand zit te wachten op High end kaarten?

Volgens mij is het meer dat het te veel geld kost, en te weinig ombrengt om hier vol op in te gaan.. door bovenstaande redenen

[Reactie gewijzigd door Sinester op 24 juli 2024 22:54]

Kijk naar het verleden, deze tactieken werken niet al te best voor AMD
AMD kan een kaart maken die veel beter presteert dan nVidia, ik weet bijna zeker dat ze alsnog veel minder verkopen dan hun concurrent
AMD heeft alleen afentoe een snellere kaart gehad qua rauwe performance, maar qua functies waren het nooit echt koplopers. Nvidia kwam met Gsync, toen pas een jaar erna kwam AMD met een alternatief. Nvidia ging al in op raytracing en later pas AMD. Het is vaak Nvidia welke de markt echt moet aanjagen en ik denk dat hier AMD vooral de plank mis slaat. Alleen rauwe performance is niet genoeg.
En waar claimed AMD dat niemand zit te wachten op High end kaarten?
https://80.lv/articles/am...mpetitor-with-rdna-3-gpu/
Ik heb het niet alleen over GSync en Raytracing, IMO is Raytracing inderdaad iets om een nVidia kaart te kopen als je dat interesseert, maar GSync totaal niet

Maar dit zijn allemaal relatief nieuwe zaken, vroeger toen AMD/ATI en nVidia stuivertje wisselde was het alsnog zo dat nVidia altijd vele malen beter verkocht... als voorbeeld in de tijd van de FX serie van nVidia wat echt een flopper was, verkochten ze nog steeds 2x zoveel als de concurrent die op dat moment echt beter was

En je ziet dat ook met kaarten zoals de 1050/3050 waarvan de concurrent vaak vele malen sneller is/was en ook nog eens goedkoper, maar toch zijn dat kaarten die hun concurrent er uit verkochten als een malle

En zulke momenten zijn er meer geweest, echter heeft dat nooit geleid tot echt meer marktaandeel voor AMD.

Als dat keer op keer gebeurd, hoeveel geld wil je er dan nog in steken?
En waar claimed AMD dat niemand zit te wachten op High end kaarten?
https://80.lv/articles/am...mpetitor-with-rdna-3-gpu/
Zal wel blind zijn er te snel doorheen lezen, maar ik zie nergens dat AMD dit beweerd..

Wat ik wel zie is dat ze een snellere kaart konden maken, maar dat deze insane veel power zou vragen en heel duur zou worden, wat ze blijkbaar niet de moeite vonden

[Reactie gewijzigd door Sinester op 24 juli 2024 22:54]

Maar dit zijn allemaal relatief nieuwe zaken, vroeger toen AMD/ATI en nVidia stuivertje wisselde was het alsnog zo dat nVidia altijd vele malen beter verkocht... als voorbeeld in de tijd van de FX serie van nVidia wat echt een flopper was, verkochten ze nog steeds 2x zoveel als de concurrent die op dat moment echt beter was
Toen lag het wel dichter bij elkaar. Al had Nvidia de drier kant wel altijd goed op orde.
En je ziet dat ook met kaarten zoals de 1050/3050 waarvan de concurrent vaak vele malen sneller is/was en ook nog eens goedkoper, maar toch zijn dat kaarten die hun concurrent er uit verkochten als een malle
Ik denk dat er vaa konderschat wordt dat het totaal plaatje belangrijk is. Ja een 3050 presteerd minder dan zijn AMD tegenhanger. Maar het heeft al in dat segment een hele lange tijd mooie hardware encoders aan boord, werkt met cuda acceleratie etc. De kaarten zijn echt af op functioneel gebied.
Zal wel blind zijn er te snel doorheen lezen, maar ik zie nergens dat AMD dit beweerd..

Wat ik wel zie is dat ze een snellere kaart konden maken, maar dat deze insane veel power zou vragen en heel duur zou worden, wat ze blijkbaar niet de moeite vonden
Dit is het gehele interview, ze halen meerdere malen de kosten aan. Alsof het teveel zou zijn voor gebruikers.

https://wccftech.com/amd-...-to-increased-cost-power/
Deze strategie heeft AMD eindelijk winstgevend gemaakt dus dat valt te betwisten.

Marktaandeel terugwinnen is gewoon een lastig gevecht als je moet opboxen tegen twee grootmachten die zoveel meer kunnen spenderen.

En dat zie je terug in alles, betere R&D, marketing en support voor developers.

Een gedeelte van het probleem ligt ook wel bij een in mijn ogen onterechte reputatie van slechte kwaliteit van drivers en game support.

Ooit was dat wel een probleem, waarbij er wel is een spel was dat niet werkte en je dan misschien een paar weken zat te wachten op een driverupdate.
Maar dat was meer in de tijd dat het nog ATI was, en dat is toch echt al wel heel erg lang geleden.
Op de een of andere manier is dat verhaal nooit echt verdwenen.

Zelf kan ik me eigenlijk de laatste keer niet herinneren bij zowel AMD als Nvidia dat ik een driver nodig had omdat een spel niet werkte.
Tegenwoordig gaat het meestal om wat extra frames.
AMD is vooral weer winstgevend geworden dankzij hun CPU divisie, met name met hun enterprise oplossingen.

Op GPU gebied loopt het juist vrij slecht.
Marktaandeel terugwinnen is gewoon een lastig gevecht als je moet opboxen tegen twee grootmachten die zoveel meer kunnen spenderen.
Het marktaandeel krimpt juist, ze winnen niks terug. Het is nu nog slechter dan een aantal jaar terug.
Een gedeelte van het probleem ligt ook wel bij een in mijn ogen onterechte reputatie van slechte kwaliteit van drivers en game support.

Ooit was dat wel een probleem, waarbij er wel is een spel was dat niet werkte en je dan misschien een paar weken zat te wachten op een driverupdate.
Maar dat was meer in de tijd dat het nog ATI was, en dat is toch echt al wel heel erg lang geleden.
Op de een of andere manier is dat verhaal nooit echt verdwenen.
Dit is nogsteeds probleem, zelfs met AMD sponsored titels kom je rare rendering glitches tegen. Zie bijvoorbeeld met Starfield waarbij de sterrenhemel snachts niet gerendered kan worden op AMD GPU's. De sterrenhemel in een space exploratie game./
AMD is vooral weer winstgevend geworden dankzij hun CPU divisie, met name met hun enterprise oplossingen.

Op GPU gebied loopt het juist vrij slecht.
En jij denkt dat een tegenhanger van de 4090 dat zou oplossen?
Ik denk van niet..
Als je kijkt in de steamcharts naar welke kaarten het meest gebruikt worden dan is dat toch echt vooral het lage en midden segment.

Doordat ze winstgevend zijn kunnen ze in ieder geval meer geld investeren om de gpu tak te verbeteren.
Of dat zich ook vertaald in meer verkopen kun je eigenlijk pas een generatie later zien,
maar met de macht die Nvidia heeft op de markt zal het lastig blijven.
Dit is nogsteeds probleem, zelfs met AMD sponsored titels kom je rare rendering glitches tegen. Zie bijvoorbeeld met Starfield waarbij de sterrenhemel snachts niet gerendered kan worden op AMD GPU's. De sterrenhemel in een space exploratie game./
Dat is gewoon een bug in het spel, en dan ook nog eentje die je in 10 seconde met een ini modificatie kan oplossen.
Daarnaast doet die bug zich niet alleen voor bij AMD kaarten maar ook bij Nvidia kaarten, alhoewel het dan wel om oudere modellen gaat.

Persoonlijk was het mij bij het spelen van Starfield niet opgevallen, maar een beetje slordig is het inderdaad wel.
Vooral aangezien AMD direct betrokken was bij de ontwikkeling.
En jij denkt dat een tegenhanger van de 4090 dat zou oplossen?
Ik denk van niet..
Als je kijkt in de steamcharts naar welke kaarten het meest gebruikt worden dan is dat toch echt vooral het lage en midden segment.
Je meot hierbij geografie in acht nemen en ook enigzins cultuur. China heeft bijvoorbeeld zeer veel internet cafe's met 1060s. Daarnaast zijn er heel veel oudere systemen nog aanwezig in deze lijst. Terwijl je toch in de top 20 relatief veel HIgh end Nvidia spul ziet.
Dat is gewoon een bug in het spel, en dan ook nog eentje die je in 10 seconde met een ini modificatie kan oplossen.
Daarnaast doet die bug zich niet alleen voor bij AMD kaarten maar ook bij Nvidia kaarten, alhoewel het dan wel om oudere modellen gaat.
Het is een bug betreft de rendering pipeline van AMD. Dit is niet present op andere GPU's. Maar er zijn meer voorbeelden waarbij er problemen zijn met AMD GPU's in nieuwe games waarbij er gewacht moet worden op een driver.
Dat heeft denk ik voornamelijk te maken met dat de gpu markt gewoon bagger is momenteel en we zitten ook in een economische recessie. Al komen we er langzaam weer uit.
Onzin ,

https://www.tomshardware....on-explosive-ai-gpu-sales.

Dis markt is al jaren hard aan het groeien en zal nog bijven groeien.
Ja, je pakt de AI boom erbij. Dat is niet wat ik bedoelde. Ik heb het over de game markt, die gaat niet zo goed. Tuurlijk is de groeit de gpu markt nu met AI. Maar die bubbel gaat wel weer knappen, en dan?
Nee ik kijk naar de GPU markt, dat jij louter PC GPU's wil meepakken slaat nergens op. Daarbij als je enkel naar gaming hardware kijkt dan groeit die markt gewoon door met 5-10% per jaar.

Btw: we zitten niet in een recessie zowel BE als NL hebben een heel goed 2022 achter de rug enverwachten 1-2% groei de komende jaren. Wereldwijd is het dat al zeker niet het geval.
Dus neen geen bubbel laat staan 1 die zal knappen. Wat nu?
Naast de inflatie die we hebben, hebben we misschien niet veel last van een recessie. Misschien heb ik me vergist met de andere markten, zoals die van de US. Dus excuus daarvoor. Maar ik praat wel over game markt, daar heb je geen groei in, na ja, buiten Nederland of Europa gezien denk ik. Met AI erbij groeit de markt dan degelijk wel inderdaad (zoals je aangaf).

Anyway, ik heb wel het idee dat AI een soort bubbel is. Beetje vergelijkbaar met Crypto, daar riepen mensen toen ook wat. Althans, het gaat dan ook afnemen. Maar goed, het is eigenlijk ook koffiedik kijken, we gaan het zien wat er met AI gaat gebeuren in een aantal jaren.
VS groeit nog harder, er was wat vertraging (zeker EU dan) maar dat was eerst door pandemie en dan door oekraine maar beide zijn al achter de rug.

En nee AI is hier om te blijven alle grote spelers investeren en talloze kleine. Die markt zal boomen zoals gek en zal een enorme impact in de echte economie hebben. Helemaal niet zoals crypto dus.
Hmm, dan heb ik denk ik het verkeerd gehad. Ik twijfel zeker niet dat AI nog blijft boomen, maar ik denk dat het uiteindelijk wel een stuk gaat afnemen en gaat dalen in hype, al duurt dat een stuk langer dan dat crypto naar beneden daalde.
Dat zou misschien kunnen, maar enkel als GPU's zo krachtig worden dat AI bij wijze van spreken in je smartphone zit/of het zo goedkoop is dat het algemeen geworden is.
Zal denk ik nog een tijdje duren, tot zoalng zal zeker nvidia die daar een hele voorsprong heeft daar blijven fors verkopen.
Ja, ik zat net te kijken naar NVidia.. bubble of realistisch? Ik durf het niet te zeggen.
Ze zijn wel heel erg toonaangevend in AI.
De vraag die ik me blijf stellen, wat als AMD hetzelfde budget zou hebben als Nvidia ?
Dan was AMD waarschijnlijk flagship houder ?
Naar mijn persoonlijke mening doet AMD het supergoed de laatste 4 jaar.
Zowel op CPU vlak tegen een wereldleidend bedrijf zoals Intel, als tegen een wereldleidend bedrijf als Nvidia op GPU gebied.
Één bedrijf die met de 4090 zover vooruit loopt is niet goed voor de markt.
Volgens mij ligt daar het probleem niet. De RTX4090 is een flagship. Het wordt duur verkocht maar amper verkocht.

De echte battle zit in het middensegment. Daar worden de omzetten gedraaid.

Nvidia zit met de 4090 tegen de limieten aan. Ze weten idd dat AMD daar niet aankan want je loopt snel tegen een power-limiet aan en mogelijk doel je daar op want:

Een andere cash cow is AI voor B2B. Als producent wil je zoveel mogelijk rekenkracht per watt produceren want dat bepaald de prijs dat je per chip kan vragen. Ook is uw AI ecosysteem bepalend voor de vraag in de markt en daar is Nvidia de winnaar op dit moment.

AMD loopt een beetje achter op hun chips wat betreft gaming en AI. Niet veel maar het is wel merkbaar.

Geen idee of het met ambitie te maken heeft of slecht management. Ze staan op CPU gebied aan de top en maken het intel flink lastig en op GPU gebied staan ze een beetje achter op Nvidia wat betreft AI en gaming Gpu’s. Maar AMD heeft wel de consolemarkt in handen.

Wat mij betreft doet AMD het goed en zitten de ambities goed. Eigenlijk is er nood aan een betere 3de partij. Intel is daar maar ondanks hun ambities kunnen ze geen potten breken. Wat wat mij betreft wijst op een competitive markt.
Dat was ook de bedoeling maar RDNA3 heeft z'n targets niet gehaald. Zie ook de presentatie en hoe de laat in sommige games presteerd. Ze hebben denk ik gehoopt het nog met drivers te kunnen fixen maar dat is so far niet gelukt. De prestaties zijn underwhelming tegen over RDNA2 zeker gezien de specs op papier.

RDNA2 is dichtbij de top gekomen de 6900XT kon de conturrentie met de 3080 Ti aan en soms de 3090 verslaan. De 6950XT deed het niet slecht tov de 3090 Ti zeker als je naar performance per watt ging kijken.

Maar inderdaad ik hoop dat ze wel wat meer effort in de gpu devise steken.
Maar ik zou nog liever zien dat het marketing team een keer goed om de schop gaat. Want daar worden helemaal rare keuzes gemaakt. Met zo wel de presentatie, promotie als prijs stelling.
DDat RX 6000 het zo goed deed kan ook mogelijk verklaard worden door de nodes. TSMC 7nm lijkt een stuk beter dan Samsung 8nm, en nu dat beide makers op ongeveer dezelfde node zitten kan AMD meteen niet meer bijbenen.
Qua verbruik is. Maar als je kijkt naar de performance van de 7000 serie kaarten met 5nm tov de 6000 is het teleurstellend.

De 7600 is amper sneller dan de 6600XT
De 7900XT is niet veel sneller dan een 6900XT.

Gezien de nieuwe generatie had je gewoon meer verwacht. In een paar games zie je wel leuke winst maar in andere zijn de prestaties bijna gelijk ondanks de nieuwe architectuur en meer shader units in het geval van de 7900XT.

Er zit duidelijk iets niet goed waardoor de architectuur niet altijd goed uit de verf komt. Gezien de specs zou je meer verwachten.

[Reactie gewijzigd door Astennu op 24 juli 2024 22:54]

Één bedrijf die met de 4090 zover vooruit loopt is niet goed voor de markt.
Dat ligt er maar aan hoe je de markt bekijkt... Is het wellicht niet goed voor de markt qua concurrentie in het topsegment? Sure! Maar er is meer aan de 'markt' dan alleen het topsegment.

Het probleem met het huidige topsegment (GPU) is dat het vrij prijzig is, waardoor het niet betaalbaar is voor het gros van gamers (€1700+ voor een 4090).

De 4090 tilt ook de verwachtingen en de (max) graphics omhoog. Fijn! Hoor ik veel zeggen, maar dat is alleen maar fijn als games ook 'speelbaar' blijven in de laagste segment videokaarten, wat de laatste tijd weer niet het geval lijkt te zijn. We zijn nu drie jaar verder en met cyberpunk 2077 2.0 release lijken de performance issues verholpen te zijn (dan hebben we het niet over bugs). En zo zijn er veel meer games die slecht to niet goed draaien op budget GPUs. Natuurlijk verwachten we geen 4k 120fps+ op en 2060, maar de high performance GPUs beginnen developers (weer) lui te maken en/of de verkeerde beslissingen te nemen. Met UE5 zien we steeds meer games op de markt komen die slecht geoptimaliseerd zijn voor lower end machines/GPUs.

Daarnaast nog eens stroomverbruik van zowel de CPU als de GPU die alleen maar hoger wordt ipv. lager. Die enorme performance gains moeten ergens vandaan komen en die worden deels betaald met meer stroomverbruik. In een tijd dat de energie prijzen hoog zijn, er niet genoeg (groene) energie is en dat de gemiddelde temperatuur omhoog gaat (warmte van een dergelijke machine zal een steeds groter deel van het jaar moeten worden gecompenseerd met airco).

We zien dat Intel zijn nieuwe GPU niet in 2023 uitbrengt, maar waarschijnlijk pas in 2025. Ook Nvidia gaat van een nieuwe gaming GPU generatie eens per twee jaar naar eens per drie jaar (RTX5000 ook waarschijnlijk pas in 2025). AMD wil kennelijk dat spelletje niet meer spelen en ik geef ze daar groot gelijk in! Laat ze maar flink verder ontwikkelen in het low-end segment (zowel prijs als power). En ik vraag me sterk af hoeveel klanten Nvidia zou hebben voor een RTX 5090. Momenteel zegt de Steam Hardware Survey 0,78% gebruikt een 4090, met 132 miljoen active, is dat ~422k mensen die na een jaar een 4090 kunnen hebben (cijfers zullen wellicht niet kloppen). Hoeveel daarvan zouden in de huidige economische situatie een 5090 kunnen (en willen) betalen?

Kijk naar de Concorde, heeft bijna 35 jaar rondgevlogen als enige in dit segment. Er was concurrentie (oa. Boeing), maar die hebben (al vroeg) de stekker eruit getrokken ivm. het economische klimaat en het enorme verbruik (zelfs de VS wilde daar geen geld verder insteken).

Waar ik op hoop is dat AMD zich meer gaat richten op het energie zuinige segment en daar grotere stappen zal maken dan dat ze nu doen. Want veel van de vooruitgang in dit segment is gewoon meer power er tegenaan gooien. Dit is ook de reden waarom een Valve Steam Deck waarschijnlijk pas in 2025+ een nieuwe Steam Deck uitbrengt, de nieuwe Z1 Extreme (in oa. de Asus Ally) is een stuk sneller dan de iGPU in de SteamDeck, maar trekt ook bijna het dubbele (effectief een 4800u vs een 7840u).
4090 is voor 99% van de markt totaal overkill. AMD richt zich op het segment waar het meeste volume te verkopen valt en een tikkie daarboven. Lijkt me een prima strategie.
Hopen dat ze snel iemand weten te vinden met een nieuwe visie want het is duidelijk dat ze steeds tegen dezelfde problemen aanlopen. Ook nu kunnen ze helaas niet met Nvidia mee komen met als in de 480/580 tijd en met vega. De huidige speculaties bieden ook niet veel goeds en baren me zorgen. Helaas is een design cycle van een GPU erg lang en als je dus eenmaal achter ligt is het lastig om weer bij te komen op korte termijn.

Zonder AMD en met Intel nog op een te grote achterstand gaat het nog lang duren voordat de GPU markt weer gezond word.
Nvidia heeft gewoon goed vroeg geïnvesteerd in AI/ML waardoor ze nu gewoon ver voor liggen op AMD die geen antwoord hebben op Cuda.
Nvidia, heeft ook veel meer geld te besteden, dus volledig normaal. Intel heeft gewoon jaren lopen slapen lijkt het. Voor de consument is dit erg slecht. Ben ook super blij dat Nvidia bijvoorbeeld ARM niet mochten overnemen, dat zou ook heel de tech markt opschudden op een negatieve manier. Diversiteit is rijkdom, want lagere prijzen en betere ontwikkelingen.
Intel had problemen met fabricage. Ze hebben altijd meer aan R&D besteed dan AMD en Nvidia.
Ze kunnen misschien wel even veel hebben uitgegeven maar het resultaat was er niet. Tussen ruwweg de 3000 serie en de 8000 serie was er vrijwel geen vooruitgang in Intel CPUs, terwijl de nodes toch wel verbeterde in die periode.
Het is ook logisch dat Intel meer aan R&D uitgaf, want Intel heeft eigen fabrieken. Dat deel van de business vereist ook hoge R&D uitgaven. AMD heeft dat in het verleden afgestoten (GlobalFoundries), en GF kon de R&D voor EUV niet meer betalen. NVidia is altijd fabless geweest en heeft daar dus nooit R&D in hoeven doen.
AMD heeft zeker wel een antwoord op CUDA en dat is ROCm. Het is aan ontwikkelaars om naast CUDA ook ROCm ondersteuning toe te voegen aan hun applicatie. CUDA heeft daar momenteel nog een voorsprong in, omdat CUDA in 2007 op de markt kwam en ROCm pas in 2016.
Bijna 10 jaar later komen met een inferieure eigen variant is gewoon te laat. ROCm is gewoon niet interessant om te gaan gebruiken en zal waarschijnlijk ook nooit worden.
Dat niet mee komen vind ik wel mee vallen hoor, alleen met Raytracing vallen de prestaties wat tegen, maar als je naar de RX 7900 XTX kijkt tegen over de veel duurdere RTX 4090 zitten ze daar niet heel veel van af.
Die RX 7900 XTX van mij haald overigens wel hogere scores dan in de GPU Advies benchmarks, en zit nog veel dichter op de RTX 4090.

Maar goed, we weten niet wie zijn vervanger is en waarom hij weg is gegaan en wat hij nu gaat doen.
Ze moeten er alleen relatief gezien veel meer stroom doorheen pompen om tot enigszins vergelijkbare resultaten te komen.
Dat klopt, maar er zitten ook fouten in de architectuur van RDNA3. Dus dat is voor een deel ook te verklaren dat de huidige generatie wat tegengevallen zijn wanneer het komt op verwachtingen. Al neemt het niet weg dat het alsnog slechter is dan Lovelace. Daarentegen is slechter ook weer relatief, niet dat de 7900 XTX dan in eens een slechte kaart is, maar dat terzijde.
Dat valt te bezien hoe je dit opvat natuurlijk :)
Je betaald 1000€ minder voor een GPU, vraag je dan eens af hoeveel uur je GPU moet draaien voor je die 1000€ aan stroom uitgespaard hebt ?
En in game benchmarks valt het stroomverbuik verschil relatief goed mee hoor, waar de 7900 xtx soms zuiniger is.

[Reactie gewijzigd door Politicfrustati op 24 juli 2024 22:54]

Gemiddeld 25% in het voordeel van de RTX 4090 vind ik nog best veel maar de RX 7900 XTX is wel flink goedkoper.
25% met Raytracing aan zeker, zelfs wel meer bij sommige games.

review: Videokaart Best Buy Guide - De beste gpu's in september 2023

En de benchmarks die ik daarvan zelf heb gedraaid scoor ik allemaal hoger op mijn Gigabyte RX 7900 XTX Aorus Elite terwijl ik een Ryzen 9 7900X (geen OC) heb en Tweakers met een i9-13900K @5.5GHz All Cores OC testen.
Nee 20-30% zonder RT, dit k9mt overeen met de reviews. Met RT gaat het richting de 70% verschil.

[Reactie gewijzigd door 3DEXP op 24 juli 2024 22:54]

Dat zie ik niet terug de test waar ik naar linkte of eerdere tests die ik heb gezien van RTX 4090 v.s. RX 7900 XTX.
In jou li k staat 27% verschil wat nog 2% meer is dan in de review van voorig jaar.

Tweakers GPU Prestatiescore 2023-3 - 4k ultra
Minimum- / Gemiddelde framerate in fps (hoger is beter)

En dan kun je klikken en zie je het percentage. Je kunt dan ook nog kiezen voor DXR waar het verschil zelfs 76% is.

[Reactie gewijzigd door 3DEXP op 24 juli 2024 22:54]

Ik zie al hoe jij kijkt, ik klik op de RTX 4090 de en kijk dan naar percentage, dan staat er -41,4% bij de RX 7900 XTX
Ook nu kunnen ze helaas niet met Nvidia mee komen met als in de 480/580 tijd en met vega.
Welke 480 / 580 tijd precies?

https://www.anandtech.com...was-it-worth-the-wait-/13

Volgens mij deed AMD het rond die tijd helemaal niet zo slecht.

[Reactie gewijzigd door Olaf van der Spek op 24 juli 2024 22:54]

Wrong 480.

De AMD RX 480 was halverwege 2016 en was gewoon een matig product en het snelste wat ze hadden.

De directe competitie was de 9/10 serie van Nvidia. Ok die waren een stuk duurder maar ook soms 2x zo snel. Qua ruwe performance konden ze dus niet mee komen.
Intel is toch flinke stappen aan het zetten op dit gebied? Hun drivers worden ook steeds beter, al blijft het allemaal wat karig volgens kenners.
Ze doen het goed voor een first gen maar battlemage is er nog lang niet en hoe langer ze wachten des te verder ze achter komen te liggen.
Ook nu kunnen ze helaas niet met Nvidia mee komen met als in de 480/580 tijd en met vega.
En dan vind ik het toch vreemd dat zowel de Xbox als de Playstation beide al veel langer exclusief AMD CPU/GPU gebruiken. Zelfs de Steam Deck, Asus Ally, etc. gebruiken AMD. Alleen Nintendo (Switch) zit in het Nvidia kamp... Begrijp me niet verkeerd, als ik een high end videocard zou kopen voor een Windows bak, dan zou het ook gewoon Nvidia zijn. Maar zowel Sony, Microsoft, Valve, Asus, etc. verkiezen (momenteel) AMD, ongeacht hun positie tov. Nvidia nu en toen.
Ik betwijfel of Nvidia tegen huidige console prijzen een deal zou maken om voor de consoles te produceren. AMD verdient zeer weinig aan deze contracten met hoe prijsgevoelig dit is. Inplaats daarvan kan Nvidia al zijn fab allocation gebruiken voor dure consumenten kaarten of nog veel duurdere professionele kaarten.

Daar ook nog naast kan het sterk in het tegendeel werken als Nvidia console contracten overnam. Nvidia heeft AMD nodig als concurrent, als ze een complete monopolie zouden bouwen komen ze in het vizier van de overheden. Dit deel van de markt overlaten aan AMD is zo in hun eigen voordeel.

[Reactie gewijzigd door Sagittary op 24 juli 2024 22:54]

Ik betwijfel of Nvidia tegen huidige console prijzen een deal zou maken om voor de consoles te produceren.
...
Dit deel van de markt overlaten aan AMD is zo in hun eigen voordeel.
Maar hoe verklaar je dan de Nintendo Switch met de Nvidia Tegra X1(+)? En de geruchten gaan al langer rond dat de Switch opvolger ook een Nvidia chip onboard heeft...
De Switch gebruikt een zeer oude chip, zoals je zelf benoemd. De Tegra X1 kwam uit in 2015 en werdt/wordt gemaakt op TSMC 20 en 16nm, daar worden GPUs al jaren niet meer mee gemaakt. Ook de nieuwe Switch zou volgens het gerucht met de Ampere architecture gemaakt worden, dus Samsung 8nm waar de 30 series mee gemaakt was, niet de chips die ze nu maken. Tegen de tijd dat we een Switch 2 zien (2024?) is het al helemaal een oude technologie voor Nvidia.

De mainstream consoles zijn iets heel anders, die vereisen veel meer dan wat Nintendo vraagt, die graag achterloopt op de technologie om het allemaal wat goedkoper te houden.

[Reactie gewijzigd door Sagittary op 24 juli 2024 22:54]

De X1+ is van 2019, de Switch OLED waar de X1+ in werd gebruikt kwam twee jaar later uit.
Zowel de nieuwste Xbox als Playstation zijn gemaakt op Zen 2 (7nm). De PS5 kwam een jaar na de introductie van Zen 2 uit.

Uit de Tegra serie, waar de X1(+) deel van is is bv. de Orin al op 8nm gemaakt (2022), van Thor is nog niet bekend waarop het gemaakt gaat worden.
Maar de X1+ is nog steeds dezelfde chip als de X1, alleen met betere power efficiency omdat hij op 16nm is inplaats van 20nm, dat hij dan in 2019 uitkwam inplaats van 2015 maakt niet veel verschil. Het feit dat PS en Xbox op veel nieuwere nodes uitkwamen drie jaar geleden is dus precies mijn punt.

Als Orin wordt gebruikt voor de Switch 2 in 2024 dan zal dat ook al twee jaar na dat Nvidia die node gebruikte voor hun hoofd producten zijn.
AMD trekt het gewoon niet meer en uiteindelijk zullen Sony en Microsoft ook overstappen.
Hoe bedoel je "ook" overstappen?
Naar Intel als SoC leverancier bedoelt ie denk ik. Nu is Intel wel geinteresseerd in foundry services, maar da's vooral wafers draaien als TSMC/Samsung.

Wat ik er van begrijp worden die Xbox en PS SoCs ook voor een groot deel door AMD ontworpen en is een hoop custom.
Overstap (voor consoles) naar andere gpu producent zeer onwaarschijnlijk vanwege BC/FC en Intel's achterstand in de gpu markt. nVidia, op moment van schrijven te duur voor consoles, afgezien van de switch.

Blijft AMD voorlopig alleen over als enige leverancier met de beste prijs/prestatie verhouding. Ze hebben nog 4-5 jaar om hun achterstand in rt/ai/ml in te halen. Of dat gaat lukken wordt nog interessant. Natuurlijk kan de situatie veranderen binnen een bestek van 4 jaar maar aangezien de afspraken (contracten) worden vastgezet 4 jaar voor launch is afwijken van huidige situatie 'onwaarschijnlijk' en niet praktisch.

[Reactie gewijzigd door parryfiend op 24 juli 2024 22:54]

DLSS op consoles zou een hele verbetering zijn, kunnen games eindelijk 60 FPS draaien.
Consoles maken al gebruik van fsr. De amd variant. Zie starfield b.v.
Vandaar de 30 FPS lock zeker?
De gpu van de series x is niet sterk genoeg om native 4K te draaien stabiel op 30fps. Fsr is nodig. Er zijn meerdere artikelen over te vinden. Trouwens.
Gaat hij zeker ook naar Intel?
Ik heb het ergens anders nog gelezen, zou Geforce zich niet beter af splitsen van nVidea? Geforce voor gaming bvb en nVidea voor AI? Zoals bvb ATI, Radeon bij AMD? Of zie ik dat verkeerd?

Op dit item kan niet meer gereageerd worden.