AMD houdt op 6 januari persconferentie tijdens CES 2025

AMD gaat tijdens de technologiebeurs CES een persconferentie houden. Deze vindt plaats op 6 januari om 20.00 uur Nederlandse tijd en is te volgen via het officiële YouTube-kanaal van de chipfabrikant.

AMD schrijft in de aankondiging dat Jack Huynh, de senior vice president van AMD, een presentatie gaat geven over 'pc's, gaming en de AI-producten van de fabrikant'. Het is mogelijk dat AMD meer informatie gaat delen over de eerste RDNA 4-videokaarten. In oktober bevestigde de fabrikant al dat de eerste gpu's met RDNA 4-architectuur begin 2025 worden uitgebracht.

amd ces 2025

Door Loïs Franx

Redacteur

03-12-2024 • 18:30

83

Reacties (83)

Sorteer op:

Weergave:

AMD zit lekker in de wedstrijd. Ik vraag me af of ze RDNA4 echt nodig hebben nu.
Nou op de GPU markt hebben ze echt wel wat nodig. Tegen nVidia kunnen ze maar niet opboksen. Hun marktaandeel is klein, en Intel klopt aan de deur met Battlemage.
Omdat veel mensen klakkeloos bij nvidia blijven hangen. Ja, ray-tracing, heel leuk maar veel mensen zoals mezelf zien het gewoon niet. Niet side-by-side, laat staan ingame. Dan is voor mij de keuze snel gemaakt, zeker op een Linux machine.

Mijn 6800XT is gewoonweg een topkaart voor 1440p die nog perfect mee kan.

[Reactie gewijzigd door iqcgubon op 3 december 2024 22:05]

Raytracing is vooral voor een handvol games een must .. eigenlijk is het nog steeds een verhaal. Bijvoorbeeld .. ik wil Cyberpunk 2077 spelen en om hier optimaal van te kunnen genieten moet ik dit in 4K met de Raytracing functies kunnen spelen en dus moet ik een Nvidia GPU kopen uit de hogere prijsklasse.

Niemand verplicht iemand dit te kopen, maar toch willen de meeste gamers een RTX4080 of RTX4090 in hun systeem. Het is niet zo verwonderlijk dat de RTX**80 GPU's telkens als zoete broodjes verkopen .. :9


.

[Reactie gewijzigd door MPIU8686 op 4 december 2024 07:31]

Cyberpunk deed het nochtans prima bij mij. En zelfs beter op Linux dan op Windows :9
Cyberpunk deed het nochtans prima bij mij. En zelfs beter op Linux dan op Windows :9
Ik spreek hier over in 4K gamen met alle raytracing opties.
ja maar je schrijft : raytracing is vooral voor een handvol games een must. Dat terwijl dat niet is, je kan dat, ik toch, perfect zonder raytracing spelen. Het is voor jouw een must, dat begrijp ik, maar het is voor dat game geen must. Dan zou het bij de minimum requirements staan.
Voor mij helemaal niet, nergens zeg ik dit. Raytracing is geen must voor mezelf aangezien ik enkel in 4K game en raytracing net overal uitschakel omdat dit teveel van mijn GPU vraagt die ik momenteel gebruik.

Maar de jeugdige gamers die bij ons in de winkel een gamecomputer komen kopen spreken over niks anders meer, het moet allemaal met raytracing zijn. Daarom haal ik dat voorbeeld aan van het optimaal genieten in 4K en raytracing. Dit gaat over die jeugdige gamers .. :)
Bij jeugd is het doodnormaal dat je een bepaald iets wilt omdat je peers dat ook willen.

Je schreef: MPIU8686 in 'AMD houdt op 6 januari persconferentie tijdens CES 2025'
Raytracing is vooral voor een handvol games een must
Je kunt op een Steam Deck heel leuk gamen. Raytracing ga je niet nodig hebben. Ook niet als je Cyberpunk 2077 zou willen spelen. Raytracing is geen must, maar een gimmick.
laat dat meeste gamers maar weg :) ik vond de 2 serie belachelijk duur en de 3 serie was van het zotte he.
En de 4 serie is ook veel te duur dus er zijn maar weinig gamers die een plaat op hun voor hoofd hebben.

Zij zien gewoon dat wij bereid zijn om te betalen!!! dus de 5 serie zal wel dik boven de 2k kosten.
Net als de ps5 pro die nu 800 kost dan gaat de ps6 1000 kosten.

dan worden de prijzen straks alleen voor de elite mensen met diepen zakken.

[Reactie gewijzigd door noway op 4 december 2024 06:53]

279 euro voor een 4060 is toch niet duur?
Tweedehands 200 voor een 3060 Ti is toch niet duur? Je kan voor ongeveer 600 euro een hele goeie 1080p systeem bouwen. I5 12400f, 16 GB DDR4 en een 3060 Ti. Dit is exact wat ik heb gedaan.

PC gaming is in de laatste 5 jaar niet zo goedkoop geweest als nu

[Reactie gewijzigd door Dekar op 4 december 2024 09:58]

laat dat meeste gamers maar weg :) ik vond de 2 serie belachelijk duur en de 3 serie was van het zotte he.
En de 4 serie is ook veel te duur dus er zijn maar weinig gamers die een plaat op hun voor hoofd hebben.
Tja .. dus wat ga jij dan doen .. helemaal niet meer gamen om je statement te halen ?


Heb zelf in 2019 een MSI GeForce RTX 2080 Ti 11GB OC gekocht voor minder dan €900 ..

Is dit duur gezien de inflatie sinds de invoering van de euro in 2002 ?

Aangezien je toen in 2002 voor een GeForce4 Ti 4600 128MB ook al snel €500 neertelde.

En dat is 22 jaar geleden

En nu in 2024 betaalde je net geen 2 maanden terug
voor bijvoorbeeld een : MSI GeForce RTX 4080 SUPER 16G VENTUS 3X OC
.. net geen €950 op amazon

En dit vind jij dus allemaal belachelijk duur ?

Ik noem dit zelf nog steeds redelijke prijzen, ligt er maar aan waar je prioriteiten liggen natuurlijk.
Voor de euro was het goedkoper en andere tijdperk.
Jullie moeten echt ophouden met de inflatie gelul.
Dus met andere woorden ....jij laat je alles wijsmaken?

In de gulden tijd kocht je een highend kaart voor 500 gulden das 250 euro.
Vroeger kocht je een levi spijkerbroek voor minder dan 150 piek....dat werd 150 euries later he.
Die bubbel klapt vanzelf.
Wij kunnen niet zogwnaamd alles duurder maken....zoals jij typt kosr straks een brood 25 euro of niet?
Brood en koffie zijn ook meegegaan met hogere prijzen. En salarissen ook best wel. Dus ja, je brood gaat ook naar 25 euro
Serieus haal je dit nu aan als argument. Mijn salaris is nu in guldens meer als 10.000 gulden per maand, dit is tijdens de gulden periode toch volledig ondenkbaar. En is toch meerdere keren over de kop gegaan net als de prijzen?
Zij zien gewoon dat wij bereid zijn om te betalen!!! dus de 5 serie zal wel dik boven de 2k kosten.
Net als de ps5 pro die nu 800 kost dan gaat de ps6 1000 kosten.

dan worden de prijzen straks alleen voor de elite mensen met diepen zakken.
De prijs bij uitkomen is soms heel even duurder, maar niemand verplicht u deze dan onmiddellijk aan te kopen. U kan altijd een prijsdaling afwachten, op amazon durven de prijzen per uur en dag nog al eens serieus schommelen.


En die PS5Pro heb ik met discdrive en staander ge-predorderd voor €950 bij SONY zelf ter opvolging van mijn PS4Pro en reeds enkele weken in gebruik nu, deze is zeker zijn geld waard. Mijn dochter is hier zeer tevreden mee, als ik zelf de tijd heb ga ik hier ook wel eens serieus op gamen .. ;) .. Nu was het enkel testen en alles in orde zetten.

Ook een mooie prijs trouwens,
een gamePC met hetzelfde equivalent kost al snel richting de €2500 tot €3000.
Dus wat is dan €950 voor een console, met die discdrive zet je trouwens al je aangekochte tweedehands PS4 games op disc over naar PS5. Die 4K UHD speler gebruik ik dan ook nog eens om mijn 4K blu-ray films af te spelen. Het gaat er gewoon over op welke manier je jouw aankopen gebruikt zodat dit geen miskopen worden.


.

[Reactie gewijzigd door MPIU8686 op 4 december 2024 07:30]

Je mist de punt....maar goed he.
Jij en de rest zou eigenlijk niet de pro versie moeten kopen.
Ik kan anders ook prima Cyberpunk 2077 met Raytracing spelen met mijn 7900XTX op 4K. Ik heb in het verleden ook NVIDIA gehad, maar ik vind je argument een beetje slap. Met een beetje finetunen kom je al een heel eind. Dit is zowel bij NVIDIA als bij AMD het geval.
Ik kan anders ook prima Cyberpunk 2077 met Raytracing spelen met mijn 7900XTX op 4K. Ik heb in het verleden ook NVIDIA gehad, maar ik vind je argument een beetje slap. Met een beetje finetunen kom je al een heel eind. Dit is zowel bij NVIDIA als bij AMD het geval.
Jij hebt 24GB GDDR6 VRAM .. :)
... Ik heb 11GB GDDR6 VRAM ...

Jouw 7900XTX is wel een categorie van minstens 60% hoger in performance dan mijn RTX2080Ti .. ik game in 4K met mijn RTX2080Ti en daar valt verder niks meer aan te sleutelen dan enkel en alleen raytracing uitschakelen en (enorm) blij zijn dat ik hiermee nog in 4K kan gamen .. :D


.

[Reactie gewijzigd door MPIU8686 op 4 december 2024 14:33]

Omdat veel mensen klakkeloos bij nvidia blijven hangen.
Klakkeloos? Weet niet hoe 't met jou zit, maar ik kies NVIDIA omdat ze marktleider zijn op gebied van graphics innovation. DLSS, raytracing, frame-generation, ray-reconstruction - allemaal technieken waar NVIDIA het voortouw neemt. Het duurt telkens jaren voordat AMD met hun eigen alternatief komt, en dan is de kwaliteit (FSR 2, FSR 3 frame-gen) ook nog ondermaats vergeleken met NVIDIA en zelfs Intel (XeSS vs FSR 2).
Al die hocus pocus is heel tof hoor, maar die heb ik niet nodig. Geef mij maar gewoon de "native" performance voor een deftige prijs.
Al die hocus pocus is heel tof hoor, maar die heb ik niet nodig.
Die hocus pocus, zoals jij het noemt, is wel de toekomst van realtime graphics. Dat kun je accepteren of niet. Native resolutions en framerates zul je steeds minder tegenkomen. Je ziet nu al in de recommended specs van moderne games dat upscaling steeds vaker verwacht wordt. Rasterized technieken hebben enorme limitaties - daar kun je niet omheen. Realtime ray-tracing en pathtracing is het logische gevolg.
De wat nieuwere AMD kaarten ook wel wat beter overweg met Ray Tracing.

En qua ruwe performance zijn het voor gaming top kaarten.
Ja, ray-tracing, heel leuk maar veel mensen zoals mezelf zien het gewoon niet. Niet side-by-side, laat staan ingame
Bedoel je dan het verschil tussen de RT van nVidia en van AMD? Dat kan ik me inderdaad voorstellen. Het verschil tussen geen RT en wel RT is natuurlijk duidelijk zichtbaar. Of het ingame ook echt een verschil maakt? Voor de spellen die ik speel in ieder geval niet, dus mij kan het ook gestolen worden, maar sommige mensen hechten veel waarde aan hoe een spel eruitziet. Ik persoonlijk heb altijd liever features dan graphics gehad.

Wat mij vooral verbaast is dat mensen totaal niet naar de prijs/prestatie-verhouding lijken te kijken. Een 4070 Ti Super is gemiddeld zo'n €100 (13%) duurder dan de 7900 XT, terwijl de 7900 XT volgens de meest recente BBG 4,5% beter presteert. Voor mij is de keuze dan toch echt simpel hoor. Ik heb nog altijd Intel en nVidia gehad in m'n systemen, maar een jaar of 6 terug ben ik overgestapt naar een AMD CPU, en binnenkort komt daar ook een AMD GPU bij. De meerprijs voor Intel en nVidia is gewoon niet te rechtvaardigen naar mijn mening.
Bij AMD heb je een 7900 XTX 24GB GDDR6 VRAM GPU voor nog geen €900

Terwijl je bij Nvidia voor een 12GB GDDR6X VRAM Ti GPU meer dan €1000 mag betalen.

Voor het lagere segment van AMD betaal je ook niet veel meer, dit hangt dan louter af bij welke board partner je deze koopt.
> Bedoel je dan het verschil tussen de RT van nVidia en van AMD? Dat kan ik me inderdaad voorstellen. Het verschil tussen geen RT en wel RT is natuurlijk duidelijk zichtbaar.

Nee, ik bedoel echt de side-by-side filmpjes van Nvidia zelf "RTX ON - RTX OFF". Ik zie GEEN verschil in die vergelijkingen. Heel misschien als ik extra had op de schaduwen let of zo. Dat is my de impact van 50% FPS en een schijtedure kaart echt niet waard.

Mijn volgende wordt weer een AMD. Zeker aangezien Nvidia zijn eigen consumer kaarten al meteen een handicap meegeeft vanuit het fabriek met veel te weinig VRAM.
Sorry maar als je het niet ziet word het tijd voor een opticien bezoek. De meeste gamers boeit het misschien wat minder want liever hoge fps als ray tracing. Echter is het wel een goede en mooie toevoeging. En nu met path tracing erbij al helemaal prachtig. Games als cyberpunk of elke single player game met goede implementatie voelen stukken frisser aan. Belichting en reflecties doen echt enorm veel voor de sfeer in de game.
Ik denk dat het vooral neerkomt op de implementatie zoals je zegt. In games zoals Elden Ring is de grafische kwaliteit van RT ambient occlusion zéér matig, maar is de performance cost wel gigantisch (om nog maar te zwijgen over de extra frametime spikes). Het zal nog vele jaren duren voordat we meer games zien met full pathtracing zoals Cyberpunk 2077 - en dat is helemaal oké. Niet elke studio hoeft graphics te pushen zoals de grote jongens dat doen. Maar uiteindelijk (lees: over 5, 10, 20 jaar) zal raytracing ongetwijfeld overal de standaard zijn.
Oh dat zeker, alleen zoals er gezegd werd dat je het niet ziet is natuurlijk onzin. Het voeg in single player games echt veel toe. Maar ook in shooters kun je info halen uit de schaduw en reflectie van een andere speler in multiplayer. Zodra het in meerdere engines makkelijk word om ray tracing toe te voegen zul je zien dat het een algemeen iets in games word. Het kost nu nog veel kracht van een gpu maar al behoorlijk minder als bij 2 gpu generaties terug. Dat AMD achterloopt is duidelijk alleen je ziet wel dat ze proberen bij te benen. Dus ze geloven er zelf ook wel degelijk in. Meestal heb ik ook het gevoel dat mensen vooral zeggen dat ray tracing niets is om zichzelf niet te kort te doen simpelweg omdat ze een gpu bezitten die het niet bij beent. Zelfs op consoles is het nu een standaard iets. En dat zal ray tracing alleen maar meer pushen.
Toevallig net een filmpje op YT zien passeren van Hardware Unboxed.

YouTube: Is Ray Tracing Good?

Sorry, maar waar zit het verschil? De reflecties op de grond zijn wat beter. That's it.

Ook later in het filmpje: YouTube: Is Ray Tracing Good?

Cyberpunk 2077 is letterlijk het enige spel waar er iets te zien is. En het enige wat je ziet zijn betere reflecties. In scenes waar er geen shiny materialen te zien zijn is er ook weer totaal geen verschil te zien.

Nee, sorry. Dit is mij echt de waanzinnige impact in FPS niet waard.
Kijk vooral eens naar hoe licht zich gedraagt. Schaduwen, reflectie, licht bronnen die weerkaatsen, etc. Als je enkel naar de reflectie kijkt beperk je jezelf tot de mogelijkheden.
Het zou ook goed zijn voor de consument als AMD zich actiever opstelt op de GPU-markt. De prijzen voor midrange- en low-endkaarten zijn momenteel extreem hoog.

Nvidia heeft een marktaandeel van bijna 80%. Zo'n marktaandeel krijg je niet als je enkel de high-end bedient. AMD vraagt simpelweg te veel geld voor hun kaarten. Ze moeten niet een klein beetje onder Nvidia zitten voor dezelfde performance, maar een stuk meer; anders kiezen mensen alsnog voor Nvidia voor een paar tientjes extra.

Ik hoop dat RDNA 4 generatie een prijsvecht generatie wordt! Als Intel dan ook nog deelneemt aan de competitie, zie ik het rooskleurig in voor de consument.

We zitten momenteel in een PC-gamingboom, en het zou geweldig zijn als de 'price of entry' lager wordt. (Zoals ik eerder al schreef op deze site: 'strike the iron while it is hot.')
Nvidia heeft een marktaandeel van bijna 80%. Zo'n marktaandeel krijg je niet als je enkel de high-end bedient. AMD vraagt simpelweg te veel geld voor hun kaarten. Ze moeten niet een klein beetje onder Nvidia zitten voor dezelfde performance, maar een stuk meer; anders kiezen mensen alsnog voor Nvidia voor een paar tientjes extra.

Vraag me af waar dat op gebaseerd is? Het is gewoon bekend dat NVIDIA de beter naam en de betere marketing heeft.(ze gooien er blijkbaar genoeg geld tegen aan) Ik lees hier onder ook nog betere drivers, maar dat betwist ik zelfs.
Heb zelf nooit problemen met beiden drivers gehad.. Die van AMD zijn net up to par.
Maar voordeel voor NVIDIA blijft toch wel DLSS wat ze goed op de markt hebben gezet en natuurlijk Raytracing.. Waar AMD het momenteel minder doet.
Maar heel veel consumenten hebben ook daarnaast een mindset op nvidia.. Dus dan is het vrijwel lastig voor AMD om er een spelt tussen te krijgen.
Al zal je de AMD kaart goedkoper maken.. zeker bijna iedereen gaan nog steeds voor Nvidia.

[Reactie gewijzigd door Robin4 op 4 december 2024 00:28]

Heel veel mensen kopen ook Nvidia vanwege de betere drivers, en de bekendheid van de midrange kaarten. Vooral 60 en 70 serie worden zoveel verkocht.
Zojuist de bestellingen gedaan voor een nieuwe PC en het gaat toch 'weer' gewoon een nVidia kaart worden. CUDA cores helpen mij ontzettend met video editing en over het algemeen zie ik veel meer stabiliteit bij games die ik speel.

Maar ik doe nu pas een upgrade vanaf een GTX 1070. Ik heb gewoon 8 jaar met dezelfde PC kunnen doen dus mijn ervaring met nVidia is gewoon ook top. Zelfs nu hoef ik eigenlijk niet echt te upgraden, maar ik verwacht volgend jaar absurde prijzen vanwege politiek en andere wereldproblemen.
over het algemeen zie ik veel meer stabiliteit bij games die ik speel.
Meer stabiliteit dan bij AMD? Als je de laatste 8 jaren geen AMD had kun je dat niet echt zelf vergelijken, dunkt me.
Ik bedoel aan de hand van reviews die ik zie. Ik heb er niet hele excel sheets bij gepakt maar ik zag bij AMD (voor mijn gevoel) meer 1% lows of groter verschil tussen bepaalde titels. Nvidia heeft voor mijn gevoel vaker consistente prestaties over de gehele linie van games (van Cyberpunk tot Cities Skylines bijvoorbeeld) en dat AMD dus soms uitschieters zou hebben.

Maar dat is even wat ik heb waargenomen in mijn zoektocht tijdens het shoppen. Ik geloof van harte dat het ook andersom kan zijn in gevallen.
Aaah OK, stabiliteit in de zin van voorspelbare performance. Ja dat kan goed kloppen. Ik dacht dat je stabiliteit in de zin van "niet crashen" bedoelde.

Zelf heb ik trouwens nog steeds een nV 1060, aangezien ik performance / Watt belangrijk vindt (ik wil geen herrie) en hierin nV destijds (en ik geloof nog steeds) het beste was.
Mijn kaar loopt ook nog eens met 50% TDP setting, wat nog steeds 80% van de performance geeft, wat ik goed genoeg vind.
Zelfs dikkere kaarten kunnen muisstil zijn. Heb hier een MSI RTX2070 en speel 1080p. Maar GPU is muisstil altijd.
Heel veel mensen kopen ook Nvidia vanwege de betere drivers, en de bekendheid van de midrange kaarten. Vooral 60 en 70 serie worden zoveel verkocht.
Nu zet je het neer alsof het een feit is, terwijl het niet meer dan een mening is.
Een mening gebasseerd op Choice-supportive bias welteverstaan. Geen enkele tech website of tech youtuber heb ik in de laatste twee decennia ooit ook maar een opmerking zien maken over dat de drivers van AMD minder zouden zijn. Dit fabeltje komt van ATI kaarten (pre 9000 serie van ruim 20 jaar geleden) en wordt al die tijd puur in stand gehouden door de combinatie Choice-supportive bias en het feit dat Nvidia altijd marktleider is geweest. AMD komt er dan ook pas vanaf als het een aantal jaren een marktaandeel van minstens 50 procent kan vasthouden.
Dit fabeltje komt van ATI kaarten (pre 9000 serie van ruim 20 jaar geleden)
Kleine nuance: de drivers voor de X800 serie, de opvolger van de 9000 serie, waren ook gewoon grafbrak. Ik bewaarde diverse versies, want iedere update was er wel weer een spel wat niet wilde draaien. Om maar niet te spreken over TruForm (een vroege vorm van tesselation) wat van het een op het andere moment volledig foetsie was. Dat was nota bene een feature waarmee ATI de X800 serie aan prees.

Neemt niet weg dat de drivers van AMD vandaag de dag echt niet te vergelijken zijn met de staat van een goede 15 jaar geleden.

Ik ben door dat TruForm debacle ruim 10 jaar weggebleven bij ATI/AMD, de staat van de drivers was voor mij een aangename verrassing toen ik een aantal jaar terug toch maar weer koos voor het rode kamp.
Je leest het overal, het is zeker niet mijn mening. En ook de verkopen laten zien dat de 60-70 kaarten de hoogste aantallen halen, ver boven AMD. Jij bent erg weinig geinformeerd dat je het bestempeld als een mening. Wellicht meer artikelen lezen en overal forums bezoeken.
niet helemaal waar ga maar kijken op het forum van nvidia ...mensen klagen over de slechte drivers
Dat is zeker geen waarheid daarover. Op een AMD forum klaagt men over AMD drivers, op een Nvidia forum klaag je over Nvidia drivers. Dat zijn altijd de extremen die je daar leest.

Slechte source die je aanhaalt. Ga naar een game forum, daar zie je meer betrouwbare resultaten.
Ze moeten niet een klein beetje onder Nvidia zitten voor dezelfde performance, maar een stuk meer; anders kiezen mensen alsnog voor Nvidia voor een paar tientjes extra.
Ik zie het niet snel meer gebeuren, nVidia is echt te dominant

Zelf als AMD de kaarten veel goedkoper gaan aanbieden zullen mensen nog steeds nVidia kopen, dit hebben we nu al keer op keer gezien en deze mindshare word alleen maar meer en meer

en is ook maar de vraag hoeveel lager in prijs kunnen ze gaan

Intel met Battlemage gaat daar ook echt geen verandering in brengen denk ik, die zullen hooguit met AMD concurreren voor dat mini beetje markaandeel wat niet van nVidia is

[Reactie gewijzigd door Sinester op 4 december 2024 14:58]

Dat zou jammer zijn. Ik koop bijna altijd Nvidia maar in de tijden dat AMD betere kaarten/deals had stapte ik meteen over.

Sinds Nvidia zowel in het hoge segment als ray tracing en upscaling heerst is er helaas geen keuze meer in dat deel vd markt. Maar in het lage segment liggen denk ik toch nog wel kansen als de prijzen maar laag genoeg is.
Mensen kopen Nvidia omdat het AMD alternatief schijnbaar niet aantrekkelijk genoeg is voor de prijs. Ik hoop dat de 8000 serie een aantrekkelijk alternatief wordt.

Als dat niet kan door middel van betere prestaties, hogere kwaliteit upscaling en concurrerende ray tracing, zullen ze de prijs fors moeten verlagen en niet met een paar tientjes want dan kiest 80% voor Nvidia zoals we nu zien.

We hebben stevige concurrentie nodig
Intel gaat volgens geruchten stoppen met GPUs, dus zal mogelijk van korte duur zijn.
Dat heeft Geslingerd gezegd, maar dat kan snel veranderen dus :+ overigens zijn na Battlemage Celestial en Druid confirmed dus minimaal de komende +- 4 jaar zullen we nog nieuwe kaarten zien.
Zie intel.
Lekker achteroverleunen gaat je een keer bijten.
Ze leunen niet achter de achterstand op software stack en nv eco systeem dat markt bind aan nV. Nv heeft dat in de client maar ook pro server en AI flink uitgebouwed met de jaren. Intel en AMD kunnen wel de hardware ontwikkelen maar op software is monster taak om dat te dichten. En dat gaat heel langzaam. Vanwege die achterstand kunnen ze dezelfde hardware als spect voor dezelfde prijs als nv verkopen moeten zie voor die feature gebrek wat lager zitten. Dat maakt dure nodes ook niet handig maar goedkoper node zorgt dat je op mobiel gpu achter gaat lopen in efficientie dus ze zitten in de tang. Intel heeft hetzelfde probleem. Die moeten hun software stack ook opbouwen en hebben nog grotere achterstand dan AMD.
Ze leunen helemaal niet achterover. Hebben net Arrowlake uitgebracht met veel moderne technologien. Nu Battle Mage met veel verbeteringen erin. Qua servers is het natuurlijk Intel die aandeel verliest, maar zelfs dat is een natuurlijk verloop als je komt van 100% marktaandeel. Zolang AMD goed bezig blijft op dat vlak gaat het zeker richting 50-50. Dat kan geen enkele Intel CEO veranderen.

Het zijn meer de media die Intel op één of andere manier graag de grond in boort. En aandeelhouders/brokers overal die graag heen en weer springen met dollartekens in de ogen.

Natuurlijk Intel zelf ook wel wat te verwijten zoals te vroege release van Arrow Lake (commercie wint het van bugfixing).
Het zijn meer de media die Intel op één of andere manier graag de grond in boort
Natuurlijk is Arrowlake een verbetering. Maar het geeft geen performance winst en daar wordt sowieso eerst naar gekeken - for better or worse, een desktop platform met Thunderbolt lijkt me bijvoorbeeld best wel een upgrade. Zie ook de kritiek op de 9000 series van AMD voordat 3D chips werden uitgebracht.

Maar qua servers loopt Intel nog steeds achter AMD aan, zeker als het gaat om de high end (en zolang high end goedkoper is dan meerdere midrange loop je dus achter in het algemeen mbt datacenters). Ze hebben wel een andere en misschien betere feature set op die server CPU's, dus daar is de hoop wel aanwezig.

Wat betreft de volgende GPU hoop ik dat ze beter scoren, maar momenteel kunnen ze op geen enkele manier mee met nVidia of AMD. Hoe veel retailers zitten op Intel te wachten denk je? Ze zijn nu al bijna niet te verkrijgen, en ze hebben een ronde of twee moeten passen.

Qua netwerken: als ik die verdoemde I226-V chip uit mijn moederbord kon zagen zou ik het graag doen. Ze hebben wel goede Wifi chips maar die brengen weinig op.

Alle nieuwe andere technologieën zoals flash en XPoint is Intel uitgeserveerd.

De high-end NUC's zijn ze al mee gestopt. Ze zijn wel leuk bezig met x86 op de embedded platformen maar dat is echt low budget, en voor de meeste aansturing kan je beter een ARM kopen. Gaming consoles is volledig voor AMD.

En dan hebben we het nog niet over instabiele CPU's gehad, echt een no-no in computerland. Daar kunnen en willen we niet aan beginnen.

Ik vind Intel best een mooi bedrijf hoor, maar de huidige situatie ligt gewoon niet aan de media, het ligt aan de producten die ze maken en de - helaas mislukte - uitstapjes naar opslag etc.

De enige plek waar Intel nog erg groot is en waar ze misschien direct resultaat kunnen blijven halen is hun laptop platform.
https://www.tomshardware....s-intels-share-drops-to-0

12% marktaandeel voor AMD, volgens mij hebben ze nog wel wat nodig om lekker in de wedstrijd te komen op gebied van GPUs.
Jawel, Intel's nieuwe B570 en B580 zijn gericht voor de budget/mid-range markt. Ze beweren dat de kaarten beter presteren dan RTX 4060 en dus waarschijnlijk ook beter dan RX 7600. Ray Tracing en up scaling en Frame Gen zijn verbetert bij Intel. Precies waar AMD tekort komt t.o.v. NVIDIA.
De nividia 5xxx serie wordt ook dan aangekondigd dacht ik. Dan kan AMD maar beter toch een 8xxx serie hebben om daarmee te concurreren...
Gezien ze praktisch niet voorkomen in de lijst meest voorkomende GPU's op steam en 12% market share volgens @Sissors , hebben ze uberhaupt iets nodig om een significante speler te worden. AMD videokaarten zijn vaak prima value de laatste jaren, maar dat zie je niet in de verkoop cijfers.

Dus er moet IETS veranderen voor ze.

[Reactie gewijzigd door youridv1 op 3 december 2024 20:13]

Ja? Op gpu vlak is amd echt heel zwak qua marktaandeel.
In de HPC-wereld (GPUs voor deep learning, trainen van LLMs ed) hebben ze helaas nog wat in te halen. Dat gaat verder dan de GPU: om te schalen naar vele GPUs tegelijkertijd (100'en tot 1000'en) heb je een stevige interconnect nodig die alle communicatie goed kan regelen. Die loopt bij AMD nog achter tegenover NVIDIA. Ook ROCM (de AMD software tegenhanger van CUDA) kan beter, al is die erg verbeterd het afgelopen jaar.
Ben zeer benieuwd wat de nieuwe GPU(s) gaan bieden. We weten al dat ze niet zullen meedoen met de top Nvidia kaarten, maar daar zit ook niet het merendeel van de GPU verkopen. Een higher midrange kaart is de sweet spot en als die voor een goede prijs te koop is dan zal ik de 1e zijn die hem koopt.
Eigenlijk zijn de 7800XT en 7900XT al prima AMD kaarten, maar ben dus benieuwd of de nieuwe wat betere ray tracing krijgt.
Waar ik juist weer benieuwd naar ben is de 5090 / 5080 verhouding. Had laatst een leak gezien die zei dat de 5090 21k+ CUDA cores zal hebben en de 5080 maar rond de 10k, in ieder een geval een daling van > 50% in CUDA cores van tier tot tier ( in het geval dat de leaks correct zijn ).

Wil wel zien hoeveel ze gaan kosten en wat voor performance ze zullen opleveren, en ik zou vooral willen weten hoeveel het verschil in performance is tussen de 5090 en 5080.

Zag overigens ook een leak over een 8800 XT die de raster performance zou moeten halen van een 7900 XTX maar met betere RT performance en lagere power draw, gooi daar FSR4 bij met ML en dan heb je als je het aan mij vraagt een prima kaart zolang die niet te duur is ( in het geval dat de leaks correct zijn ).
Toch na 5 jaar een 9900x gekocht geen zin meer om te wachten op wat nieuws in januari.
Op 9900X3D en 9950X3D na, komen er voorlopig geen nieuwe cpus van AMD uit. Althans, niet de opvolger van zen 5.
Oke nog mooier, die 2 zullen wel wat sneller zijn maar dat ga ik niet merken omdat in van de 3900x afkom.
Ik denk ook dat die 2 170 Watt gaan verbruiken.
9900X3D is meer ook een CPU die ze uitbrengen omdat ze wat met de mindere kwaliteit CPU's moeten. Echt goed is hij niet. Langzamer dan 9900X op multicore vlak, en veel langzamer dan een 9800X3D op games vlak (vanwege maar 6 cores tegen 8 cores en core parking is ook nooit sneller dan het niet hebben).
Ik weet niet echt goed wat core parking is maar dat moet opgelost zijn volgens deze gast.

YouTube: AMD Core-Parking problems FIXED once and for all!
Dit maakt de boel beter, maar je blijft altijd latency hebben tussen de CCD's. Dus de 9800X3D is altijd beter voor games, omdat die maar één CCD heeft.
Wat is hier de nieuwswaarde van? Is hij de enige die een presentatie geeft? Of worden we de volgende dagen overspoelt met aankondigingen? Beetje zinloos allemaal.
Helemaal eens!
Volgende nieuws item: Intel gaat ook een persconferentie houden, mogelijk meer informatie over de Core 200 cpu's.
Idem voor Nvidia, mogelijk meer informatie over GeForce RTX 50#0!

En dan een advertentie plaatje eronder wat groter is dan de hoeveelheid tekst in het artikel...

Tip aan de redactie: bewaar dit artikel voor volgend jaar en doe bij een aantal getallen +1
Het nieuws is dat ze dan dingen gaan melden dus nieuws.
Geldt niet voor ieder bedrijf op de CES?
AMD is een grote speler op de markt.
Klinkt als Apple.
Dit is gewoon wat “de media” doen, als er geen nieuws is dan maar dat melden (en doen alsof) zodat we toch weer even langer blijven hangen en nog een advertentietje meepikken. Als AMD op CES niks nieuws te melden zou hebben (en dat nu al bekend zou zijn), dan is het nieuws nu is het gewoon de krant vullen want we hebben recht op 30 pagina’s.
Dat is dus de datum dat AMD Intel overneemt?
:P
Daar heeft AMD niet genoeg geld voor, nVidia daarentegen die hebben wel geld genoeg.
Dat wil je niet. Competition is goed voor de markt, en de consument.
Precies wat ik dacht. Maar ik denk dat Intel, met zijn eigen productiefaciliteiten, te log is voor AMD. AMD heeft niet voor niets zijn eigen fabs van de hand gedaan. Daarnaast zoud zo'n overname nooit worden goedgekeurd omdat er dan een enorm monopolie ontstaat.
AMD zou zo het low/midden desktop segment kunnen pakken met hun APU’s. Dan denk ik dat Intel het moeilijk gaat krijgen op de GPU markt.

En ik hoop echt wel op een derde goede speler, om Nvidia weer wat in te houden met hun prijzen.
Ik heb het zelf kopen van gaming PCs en dus GPUs opgegeven. Ik speel lekker via GeforceNow. Geweldige specs zonder investering

Op dit item kan niet meer gereageerd worden.