Bijna de helft van AMD's omzet is nu afkomstig van datacenterproducten

AMD heeft zijn financiële cijfers voor het tweede kwartaal van boekjaar 2024 bekendgemaakt. Het bedrijf boekte een omzet van 5,8 miljard dollar en een winst van 265 miljoen dollar. Dat komt grotendeels door een hoge vraag naar datacenterproducten van het bedrijf.

De omzet uit AMD's datacenterdivisie is in het vorige kwartaal gestegen naar 2,8 miljard dollar, meldt de chipmaker op woensdag. Dat is volgens de fabrikant een toename van 115 procent ten opzichte van dezelfde periode in 2023. Daarbij zijn datacenterproducten nu goed voor bijna de helft van AMD's totaalomzet.

Onder het datacentersegment vallen AMD's EPYC-processors en de Instinct-gpu's. De fabrikant biedt momenteel EPYC 9004-processors op basis van Zen 4 of Zen 4c, naast MI300-gpu's met een chipletontwerp. Later dit jaar introduceert de fabrikant de eerste EPYC-processors op basis van Zen 5 en in 2025 volgt een nieuwe generatie Instinct-gpu's.

Ook AMD's clientdivisie, die verantwoordelijk is voor consumentenprocessors, draaide vorig kwartaal meer omzet dan een jaar geleden. Dat kwam neer op 1,5 miljard dollar, een groei van 49 procent. Volgens AMD komt dat voornamelijk door de verkoop van AMD's Ryzen-processors. De gamingsegmenten voor gpu's en consolechips, en het embeddedsegment draaiden respectievelijk 59 en 41 procent minder omzet dan een jaar geleden.

Voor het volgende kwartaal verwacht AMD een omzet van ongeveer 6,7 miljard dollar. Het bedrijf komt in die periode met nieuwe processors voor consumenten. AMD's Ryzen 9000-desktopchips met Zen 5-cores komen, na uitstel, in augustus op de markt. Het bedrijf brengt ook Ryzen AI 300-laptopprocessors uit, ook op basis van Zen 5. Tweakers publiceerde onlangs een review van de eerste laptop met een dergelijke chip.

AMD-kwartaalcijfers Q2 2024

Door Daan van Monsjou

Nieuwsredacteur

31-07-2024 • 11:08

106

Lees meer

Reacties (106)

106
103
28
2
0
51
Wijzig sortering
De gamingsegmenten voor gpu's en consolechips, en het embeddedsegment draaiden respectievelijk 59 en 41 procent minder
1 mensen wachten op de volgende generatie.
2 AMD verkoopt hun gpu net onder nvidia prijs, dus voor veel mensen niet echt interessant.
2 AMD verkoopt hun gpu net onder nvidia prijs, dus voor veel mensen niet echt interessant.
Mwah, meestal heb je snellere raster graphics voor een lagere prijs, lijkt mij een no brainer. Echter zijn er nog steeds hordes mensen die NVidia kopen, want NVidia...

Zelf ben ik van een 1080ti (welke 7 jaar dienst heeft gedaan en nu in mijn sim pc zit en nog prima zijn werk doet) overgestapt naar een 7900XT. Mijn inziens de beste GPU qua prijs/prestatie. Sneller dan een 4080s 4070ti op raster graphics en veel goedkoper. De 7800XT hier net onder heeft wellicht nog wel een betere prijs/prestatie verhouding.

edit: oh en AMD stopt zijn upsampler techniek FSR3 ook niet achter een generatie muur waardoor je bij die andere partij verplicht bent een nieuwe GPU te kopen voor DLSS3. Dus de sympathie factor hebben ze ook nog eens.

edit2: 4070ti i.p.v. 4080s

[Reactie gewijzigd door TTLCrazy op 31 juli 2024 15:09]

Als die beter is dan nvidia waarom kakt de verkoop in?
Dat horde mensen die nvidia kopen komen zelf ook van nvidia dus voor amd geen klanten die ze verliezen.
Nvidia wint als het niet op graphics gaat dan is het dls, lager stroomverbruik en voor mij de belangrijkste warmte productie!
Mensen kochten ook Nvidia in de Radeon HD 5xxx tijd.

Sorry maar toen was er echt geen enkel valide argument voor het groene team.

Ook de Gtx 260 verkocht uiteindelijk beter dan de radeon 4870. Die laatste was sneller en bij lancering honderden euro’s goedkoper.

Recente de GTX 1060 werd gezien als de mainstream gpu. De AMD concurrent bleek uiteindelijk beter(RX480/580). Met name vanwege de grotere geheugen bandbreedte.
Mooie tijd. Heb mijn hd5850 nog steeds. Voor nog geen €200 nieuwprijs was dat echt een hele goede kaart.
Maar jij beantwoord mij vraag ook niet...
Waarom stort de marktaandeel van AMD in?
Komt niet omdat nvidia gebruikers die altijd al nvidia kochten.
Het zijn amd gebruikers die het niet kopen..
Dus klopt mijn stelling wel.
Omdat Nvidia geld uitgeeft aan marketing en cultforming, wat effectiever is dan gewoon goede producten maken. Mensen denken Nvidia niet omdat ze goed zijn, maar omdat ze goed marketen. Dat maakt wel uit.

Nvidia is de Apple van de GPU wereld, maar dan zonder de gepolijste software en hardware, maar met hetzelfde marketing team.

Vandaag de dag, nu het allemaal zo mainstream is, maken mooie praatjes meer impact dan mooie producten. Zie de hele AI craze.,
Komt het niet door de nasleep van GameWorks? Als nagenoeg alle (moderne) A+ games al decennia een niet te skippen nVidia flash laten zien bij het opstarten, heeft dat denk enorm veel invloed gehad op brand loyalty.

Hetzelfde voor Intel. Maakt niet uit hoe slecht ze hebben gepresteerd en/of hoe duur ze zijn, ze hebben de naam en het werkt.

Net als met automerken zit er veel emotie bij computer hardware, vooral als het gericht is op gaming.
Ik kan alleen voor mezelf spreken, maar ik gebruik af en toe de nvEnc video encoder chip. Het alternatief van AMD wordt vaak niet ondersteund en levert beduidend slechtere kwaliteit.

Als de prijs nagenoeg hetzelfde is, heeft het voor mij geen zin om een AMD kaart te nemen.
Mensen kochten ook Nvidia in de Radeon HD 5xxx tijd.

Sorry maar toen was er echt geen enkel valide argument voor het groene team.

Ook de Gtx 260 verkocht uiteindelijk beter dan de radeon 4870. Die laatste was sneller en bij lancering honderden euro’s goedkoper.

Recente de GTX 1060 werd gezien als de mainstream gpu. De AMD concurrent bleek uiteindelijk beter(RX480/580). Met name vanwege de grotere geheugen bandbreedte.
Je gaat hier wel erg kort door de bocht. De RX 480 heb wilde ik in eerste instantie aanschaffen, echter hij was in alleen stock te koop en dan zat er een hele slechte koeler op. Ik heb toen een GTX 1070 gekocht (voor een relatief gunstige prijs van 450 euro) waar ik uiteindelijk jaren plezier van heb gehaald. Zeker met de prijsexplosie die we in de jaren erna kregen is dat een héle goede zet gebleken. Met zo'n RX 480 had ik moeten upgraden tijdens de mining hype, nu kon ik het uitzitten.

De GTX 260 heb ik toevallig ook gekocht. Dat was een super deal. Ik heb er iets van 120-150 euro voor betaald. Er kwam namelijk een nieuw modelletje op de markt met iets meer shader cores en het 'oude' model ging toen in de opruiming. Van deze kaart ook prima plezier gehad tot de GTX 460 Hawk, een variant van MSI met een hogere voltage limiet waardoor je hem flink kon overclocken https://www.techpowerup.com/review/msi-gtx-460-hawk/31.html. Aanschaf prijs daarvan 165 euro. De heeft los daarvan het jaren lang goed in de steam survey gedaan, tot ze mysterieus begonnen te verdwijnen.

Daarmee komen we meteen bij de HD 5870. Want de overgeclockte 460 Hawk presteerde gelijkwaardig aan een veel duurdere 5870 (300 euro ipv 165 euro).

Dus even los van het hele driver reputatie verhaal is er voor al je voorbeelden een prima reden om voor een ander product te gaan. Opmerkelijk genoeg functioneren alle bovenstaande kaarten nog (heb ze bewaard voor nostaligische redenen).

[Reactie gewijzigd door sdk1985 op 31 juli 2024 12:04]

450 euro is zeker 150 tot 200 euro meer dan de Rx480 op dat moment.

Nou was de GTX 1070 ook duidelijk de betere kaart. En AMD had toen niets fatsoenlijks met meer performance. Maar irrelevant in de stelling met de GTX 1060 die duidelijk lager gepositioneerd zat

Die GTX 260 heb je dan heel laat gekocht.

Ook de GTX 460 kwam veel later uit. Was niet zo snel als de 5870 ook overgeklokt niet. Was wel de enige gpu in Nvidia’s lijn die de moeite was.

De GTX480 was vooral goed als voetenwarmer.

[Reactie gewijzigd door BarnET op 31 juli 2024 14:43]

De EVGA GeForce GTX 260 896MB heb ik circa een jaar na launch gekocht, april 2019. Die kwam op de markt voor circa 249 en zakte na een jaar richting de 145. Wat vroeger eigenlijk normaal was voor videokaarten. De 4870 was toen nog een stuk duurder, maar zakte uiteindelijk ook. Prestaties waren identiek; https://www.techpowerup.c...w-geforce-gtx-260/23.html.

De 460 Hawk was een beest, stock 675 Mhz en overclock richting de 1000 Mhz. Het was overigens inderdaad de 5850, niet de 70. Alsnog uitzonderlijk voor zijn 165 euro en eigenlijk de beste videokaart deal van de afgelopen 30 jaar.

Ook leuk was daarna de MSI 660 Ti Power Edition. MSi had daar iets aangepast en dat ding was met een OC sneller dan een GTX 670; https://www.techpowerup.c...-ti-power-edition/31.html. Zie ook de woorden van de review
Overall, MSI did an excellent job improving on the NVIDIA reference design, resulting in a significantly better card. The card's price of $330 is the same as all other GTX 660 Ti cards we reviewed today. At that price the card easily beats AMD's HD 7950 in all important criteria: performance, power, noise, heat, performance per Dollar, performance per Watt. A lower price, around the $300 mark would put more pressure on AMD though, and would make the card more interesting for the group of gamers shopping in the $250-$300 range.
De GTX 1070 was inderdaad een stuk duurder en tevens 50% sneller. Grootste probleem van de eerste RX 480 was de verschrikkelijke blower koeler. De GTX 1060 was overigens een stukje sneller dan de RX 480 en niet persé duurder, alleen die kwam pas in 2017.Niet lang daarna kregen we de mining hype en waren beide kaarten niet meer verkrijgenbaar. Nou ja, de 1060 3GB was nog lang te koop voor een schappelijke prijs omdat die door zijn 3GB niet interessant voor miners was.

Nvidia heeft over de jaren eigenlijk stelselmatig goede deals afgeleverd.

[Reactie gewijzigd door sdk1985 op 2 augustus 2024 02:59]

Ik had ook juist in dat tijdperk altijd AMD, precies vanwege de beter prijs-hardware verhouding en ben daar sindsdien compleet vanaf gestapt.

GPU's koop ik alleen nog maar van Nvidia. De verplichte software waarmee de drivers van AMD gereleased werden, is echt draconisch. Ja, Nvidia heeft ook extra software, maar de meeste functies daarvan zijn optioneel. Een Nvidia kaart draait prima op core drivers, geeft niet meteen artifacts zodra je er een stuk software op draait dat een dag jonger is dan de drivers en heeft geen problemen met de kleurinstellingen als je via HDMI een film wilt kijken op een oude TV.

Voor CPU's is het dan weer andersom en koop ik liever AMD. Als je rond 2010 twee exact dezelfde CPU's kocht van Intel, was er één gemaakt in Costa Rica met geborstelde dekplaat en ging rustig jaren mee, maar kwam de ander uit China met simpel gestanste dekplaat en kon je er binnen een maand een eitje op bakken.
Januari 2011 kwam Intel met de 2500K en de 2600K. Dat zijn eigenlijk de beste processor deals van de afgelopen 30 jaar gebleken. Die draaiden met een AUTO overclock richting de 5 Ghz terwijl ze stock 'slechts' me 3.4 Ghz draaiden. Zelf heb ik de processor tot 2017 op 4.8 Ghz gedraaid met AUTO voltages. Die 2500K was per ongeluk veel te goed waardoor er een stagnatie ontstond. Ondertussen had AMD jarenlang geen alternatief. De Ryzen 5 2600 was de eerste CPU die min of meer gelijkwaardig presteerde aan een overgeclockte 2500K. Dat was 8 (!) jaar later.

[Reactie gewijzigd door sdk1985 op 2 augustus 2024 03:11]

Toen de 1060 uitkwam had je alleen de 480 bij de lancering zowel duurder in deze regio was (ondanks de lagere MSRP) als trager. Ik weet dat nog goed want ik moest toen de keuze maken en heb dus gekozen voor de 1060 puur voor de prijs. De 580 was uiteindelijk sneller maar die kwam ook bijna een jaar later.
Als die beter is dan nvidia waarom kakt de verkoop in?
Om dezelfde reden dat apple een overgroot marktaandeel heeft in telefoons en sony in consoles.
die van apple verkoopt het meest bij lancering en dan is de verkoop veel maal ingezakt.
en die van sony goed blijft verkopen is omdat microsoft zelf verkeerde keuzes maakt, hmm misschien bedoel je dat AMD dat ook doet?
omdat microsoft zelf verkeerde keuzes maakt
dit geld maar voor een klein deel van de userbase
het overgrote deel koopt alleen een ps om domme redenen zoals(deze heb ik heel vaak gehoord): "xbox is gay"
dus, dezelfde reden als waarom de meeste een iphone oid kopen: status en "fanboyism"

[Reactie gewijzigd door DieMitchell op 1 augustus 2024 09:12]

Zover ik weet ligt de efficientie in videokaarten met AMD en NVIDIA aardig gelijk, in de 6000 serie vs de 3000 serie waren de AMD kaarten efficiënter.
Dat is niet helemaal waar maar het scheelde echter ook niet verschrikkelijk veel. In de linie lag het verbruik bij de 6000 serie iets hoger. Het verbruik van de 6000 series wordt tevens anders weergegeven. Dit is namelijk exclusief memory en controller verbruik, iets wat nVidia wél meetelt. De 6800 verbruikt al ruim 350 watt als deze correct gemeten wordt. Ik geloof dat het verbruik bij de 7000 serie overigens wél weer kan vergelijken met die van nVidia. Ik vraag me af of ze dit destijds expres gedaan hebben om de 6000 efficienter te doen lijken. Het was imho wel erg confusing...

De basic RX6600 is overigens wel erg efficient in idle. En van bijvoorbeeld de RTX 3080 heb je ook weer modellen die je over de 450Watt kan pushen, dus mjah....

[Reactie gewijzigd door BruT@LysT op 1 augustus 2024 16:51]

Mwah bij de 4000 series heb je toch wel wat hogere performance bij Nvidia. Prijs:performance (drivers even negerend) is bij, AMD beter ja, maar dat interesseert een hoop mensen inclusief ikzelf niet.
Huidige prijzen:

7900xt: vanaf €737,-
4070ti: vanaf €825,-

7900xtx: vanaf €990,-
4080s: vanaf €1050,-

De 7900XT is behoorlijk sneller dan de 4070ti op raster
De 7900xtx en 4080s zijn even snel op raster.

Dus als raytracing belangrijk voor je is, koop dan lekker een (te dure) NVidia. Ik speel best veel spellen, raytracing zit denk ik in1 van de spellen die ik wel eens speel. Voor mij dus een non issue en kies dan ook duidelijk voor AMD deze ronde.
Ja klopt, ik had eigenlijk specifiek de 4090 moeten noemen, de anderen hebben een beduidend mindere performance, al helemaal generational.

De 4080/7900XTX zitten vrij dichtbij elkaar dus daar kan ik me voorstellen dat je de stabiliteit van Nvidia prefereert.

[Reactie gewijzigd door Seditiar op 31 juli 2024 14:26]

Stabiliteit moet je uitleggen. Ik heb in al mijn pc's over de jaren AMD en NVidia gehad en beiden hebben ze zowel instabiele als stabiele periodes gehad. De een niet meer of minder dan de andere. Ook fabeltjes over brakke drivers van AMD kunnen allang naar de prullenbak.
Beide vrienden van me hebben een 7900XTX, crashten meerdere keren per uur in Baldur's Gate 3, maanden na launch. Zelf nooit een crash gehad in 2 jaar tijd met Nvidia. 2 andere maten hebben ook Nvidia, nooit een BG3 crash gehad.
Counterstrike 2 crashes rond launch voor beide AMD vrienden, zelf nooit last gehad.

Kleine sample size, voor beide kampen maar ik heb geen idee of iemand ooit grootschalig onderzoek heeft gedaan. Maar binnen mijn kring lopen AMD drivers over het algemeen een paar weken achter op échte stabiliteit. En ja, dat heeft Nvidia ook in het verleden gehad (en AMD ook).

Enige wat zeker is: als je top prestaties wilt hebben, biedt AMD simpelweg geen concurrent aan en van wat er tot nu toe naar buiten komt gaat dat met de volgende series alleen maar een groter verschil worden. Wat jammer is, want concurrentie voor Nvidia in dat segment zou zeer welkom zijn.
Ik heb dezelfde ervaring, op het moment heb ik een 6900XT en over de jaren heen heb ik enorm vaak crashes en andere issues gehad. Vaak met nieuwe driver updates komen er weer nieuwe issues en kun je weer terug naar een oude versie....

Ik heb 2 vrienden met óók een 6900XT en beide ervaren dezelfde instabiliteit. Raytracing is vrijwel onbruikbaar en FSR is niet op niveau van DLSS wat voor mij wel de ervaring drukt. Op mijn 3440x1440 scherm vond ik het vrij blurry en vooral veel shimmering. Nu op mijn 4k scherm is het een heel stuk bruikbaarder, maar de shimmering blijft die je in DLSS niet ziet.

Een andere vriend van me heeft een 7900XTX, héél erg veel gezeur met VR gehad. Ook hij ervaarde regelmatig crashes. Dat is nu eindelijk opgelost zo ver ik weet. Voor VR zijn er grote verschillen tussen AMD compatibility, technieken en performance tegenover Nvidia gebleken.

Weer een andere vriend heeft een paar dagen een 5700XT gehad omdat zijn 970 kapot was gegaan. Na een paar dagen teruggestuurd ivm crashes in Call of Duty.

Ik heb altijd AMD verdedigd omdat ze de 'underdog' waren, redelijke prijzen hadden en er leken te zijn voor de users ipv uitmelken wat ik vind dat Nvidia doet. Maar ik ben toch wel veranderd van mening nu ik zelf vaak issues heb en mijn vrienden ook. Vroeger overigens altijd AMD en Nvidia kaarten gehad, waarvan het merendeel AMD ;).

Ik ben heel erg blij dat FSR een gratis en open alternatief biedt aan DLSS, maar het kan simpelweg (nog) niet tippen.
Zelfs XeSS haalt ze op sommige fronten al in en ziet er beter uit op AMD kaarten in veel gevallen.
De frame generation ben ik ook erg blij mee, dat werkt erg goed. Met de LukeFZ FSR-FG mod ook te gebruiken in DLSS en DLSS FG games, maar als ik het ga vergelijken geeft het me toch niet de premium ervaring die ik zou willen door de shimmering. Ook met frame gen lukt het me simpelweg niet om fatsoenlijke raytracing voor elkaar te krijgen, terwijl dit op Nvidia kaarten relatief eenvoudig gaat.

Ik betaal voortaan liever een paar 100 meer voor een stabielere ervaring met wat meer premium technieken. Maar ik kan me voorstellen dat niet iedereen er zo instaat. Wat mij betreft is raster only niet meer toekomstgericht, ik hoor dat vaak als enige argument om een AMD te halen en het is wat goedkoper. Ook hier in de comments lees ik dat terug.

Zaken als een fors mindere GPU encoder, veel AI/professionele software draait beter op Nvidia, betere (lees: modernere) technieken en vooral meer stabiliteit zullen ervoor zorgen dat zowel mijn vrienden als ik de volgende ronde opnieuw naar Nvidia gaan. Erg jammer, maar in mijn kleine sample size heeft 100% issues ervaren die wij allemaal nooit bij Nvidia hadden.
Ik draai al sinds dag 1 een AMD 6900XT founders edition. Nooit problemen mee gehad. Undervolt prachtig en laats thermalpad vervangen door Honeywell en backplate ram koepad mod gedaan. De DIE is hoewel nu beter gekoeld ietsje heter door dat het RAM ook warmte afstaat, maar ram koelt veel beter. Drivers, nooit issues mee gehad. Windows 10 Pro, schone installatie, geen bloatware en AMD 5950X op Asus B550F moederbord. Ik had eerst wel te weinig koeling voor mijn passieve voeding en ook mn CPU tever under gevolt en slechte ram. BIOS updates van mn moederbord deden wellicht meer aan stabiliteit. Maar zodra ik de juiste voltages had en ander ram dat ik actief koel was alles geweldig (ja ik werk met 4 reepjes van totaal 128GB Ripjaws ivm virtuele machines uitvoering: G.Skill Ripjaws V F4-4000C18Q-128GVK en ja ze draaien met 1.42V op 3600MT/s en cas 18 met actieve koeling perfect)!
Tjah, ik zou eens kijken naar de koeling van je ram op je kaart. Er zijn kaarten aan overleden door ram oververhitting. Het kwam voor dat ram modules niet allemaal even goed gekoeld worden in de 6900XT en die op de achterzijde al helemaal niet. Nu ik die pad's heb komt mn ram niet meer boven de 76 graden terwijl het voorheen soms wel 100+ kan worden. Tot die tijd nog wel eens een crash bij lange game sessies in de zomer nu ook dat niet meer. En nee, het is een pittig karwij. Eerst de juiste Honeywell kopen en de juiste pads en dan er gevoel voor krijgen en precies de juiste druk en dikte vinden zodat de koeler ook goed op de honeywell mount maar ook alle VRM's en RAM meegekoeld worden. Sommige mensen doen copper shim mods, maar dat was mij te duur. Blijf weg van smeerbare pads! Dat wordt een ramp en kan je hem net zo goed weggooien!
YouTube: Thermal Pad Showdown! What you should (and Shouldn't) Buy
https://www.reddit.com/r/...mal_pad_mod_my/?rdt=61502

Succes en veel mod plezier!!! AMD6900XT is een mooie kaart

[Reactie gewijzigd door Student1563424 op 31 juli 2024 20:28]

Ik ga niet op alles reageren, maar dit viel me wel op:
Ik draai al sinds dag 1 een AMD 6900XT founders edition. Nooit problemen mee gehad.
Tjah, ik zou eens kijken naar de koeling van je ram op je kaart. Nu ik die pad's heb komt mn ram niet meer boven de 76 graden terwijl het voorheen soms wel 100+ kan worden. Tot die tijd nog wel eens een crash bij lange game sessies in de zomer nu ook dat niet meer.
Feitelijk zeg je dus dat je een hardware mod hebt moeten doen om crashvrij te zijn.
Feitelijk zeg je dus dat je een hardware mod hebt moeten doen om crashvrij te zijn.
De 6900XT kwam uit eind 2020. Er werd gezegs dat die mod pas laatst gedaan is. Als ik laatst vertaal naar "een paar maanden geleden", dan heb je het dus alsnog over een periode van ~jaar crash vrij (en potentieel ook langer zonder mod, maar dat zullen we nooit weten)
De RTX 3090 had ook last van te hete RAM chips.

De 3rd party RX6900XTs hadden trouwens betere koeling dan de uitgave van AMD zelf.

Wat veel mensen niet doorhebben is dat RDNA2 het systeem zodanig kan stresseren dat nakende stabiliteitsproblemen ineens merkbaar worden, bv instabiele RAM settings, een voeding die tegen zijn limiet loopt, etc.
Hangt er vanaf wat normaal gebruik is. Maar hoe vaak kom je wel niet tegen dat een product niet af is... Het hele punt van community support. De "founders edition" van de 6900XT werkt gewoon maar je moet gewoon een goed geventileerde kast hebben. Vroeger hadden CPU dies geen oververhittings bescherming. Nu wel. Zelfde met RAM nu, die hebben geen temperatuursensor in iedere ram chip. En ja, je kan pech hebben met de koeling. Het is alles behalve een makkelijker koeler en de tijd van gewone koelblokjes op RAM is denk ik verleden tijd. Ook mijn mijn systeemgeheugen. Het is gewoon niet koel genoeg met passieve koeling en het voltage dat ik gebruik en de Samsung DIE's hebben een erg specifiek temperatuur bereik waarin ze optimaal presteren. We zitten hier toch op tweakers of niet??!?!? Dit is wat wij doen!
Klinkt eerder dat er iets in hun hardware niet klopt dan dat het aan AMD kan liggen, sinds het elke keer dezelfde vrienden met verschillende spelen een probleem hebben.
Vrienden dus kans dat ze dezelfde hardware hebben gekocht die niet erin hoort.
Zou je denken, maar nee. Hadden beide super stabiele hardware en alleen de gpu vervangen. Ook zijn er altijd een hoop klachten te vinden als zij vaak crashen, en 2 weekjes later is het door de devs gefixed (soms uiteraard sneller of langzamer).
Ik heb nog nooit een probleem vrije ervaring gehad met een AMD gpu. Bij Nvidia wel. Als je buiten gamen nog iets met je gpu wil doen dan houd het bij AMD al snel op. Meerprijs van Nvidia is het sowieso waard en ik raad iedereen in mijn omgeving aan om bij team groen te blijven.

Zelfs linus heeft onlangs nog een video gemaakt, heel het team op AMD. En een tijdje enkel daarop gegamed. En dezelfde rare issues duiken op welke ik heb gehad in het HD5*** en R9 2** tijdperk.

Mensen die Nvidia blijven kopen zijn heus niet gek hoor ;)

[Reactie gewijzigd door BlaDeKke op 31 juli 2024 19:01]

Ik zou Nvidia kopen voor

Efficiency
DLSS
Productiviteit

Tesselation is gewoon veelste dure techniek voor mij in 2024. Als je daar op een beetje monitor van wil genieten ga je naar een grafische kaart die duurder is als mijn huidige PC.

Ik heb dan voor AMD gekozen vanwege de betere rauwe prestaties per euro.
Dan is de 7900 GRE die ik nu heb 1 van de beste opties.

Al had ik liever een RTX 4070 ti super gehad. Maarja zover ging het budget niet.
edit: oh en AMD stopt zijn upsampler techniek FSR3 ook niet achter een generatie muur waardoor je bij die andere partij verplicht bent een nieuwe GPU te kopen voor DLSS3. Dus de sympathie factor hebben ze ook nog eens.
Al dat openstellen helpt ze alleen niet. Het is klassiek good guy AMD, maar feitelijk betekent het dat je met een AMD GPU alleen AMD technieken hebt en met NVIDIA veelal de technieken van beide kampen. Met dat soort good guy behaviour win je geen marktaandeel in hun huidige positie.

Die generatiemuur niet implementeren is goed, maar het zou wellicht beter zijn als AMD ook gewoon hun technieken AMD exclusive maakte en blockte op Nvidia hardware. Op korte termijn kut voor gamers, maar het is op lange termijn nog kutter als het slechter gaat met AMD omdat GPU's een oligopolie zijn

Als ik naar AMD kijk, vind ik eigenlijk een van de weinige echte argumenten dat je die nieuwe stekker niet nodig hebt. Ja de raster performance per euro is beter, maar er komen steeds meer RT en DLSS/FSR games uit en dan is een Nvidia GPU veelzijdiger.

[Reactie gewijzigd door youridv1 op 31 juli 2024 11:49]

RT is een grafisch foefje dat de meeste mensen zelfs niet zien. Zelf in side-by-side filmpjes zie ik het verschil absoluut niet, tenzij je super hard op schaduwen begint te letten want je tijdens gamen gewoon niet doet.

DLSS/FSR is het tevoorschijn toveren van frames en pixels die niet bestaan. Geef mij dan maar gewoon de pure performance op native resolutie.
Dit mens heeft gewoon een 4060 gekocht vanwege het bijna halve energieverbruik. (Ja, ik weet dat gammel underclocken een optie is met AMD) Die hele typering dat mensen Nvidia alleen kopen voor het merkje is echt verschimmeld.
Nou mensen die een 4060 kopen bewijzen wel dat mensen Nvidia kopen voor het merkje.

De 7700 XT is in dat budget simpelweg een no brainer.

Vanaf de RTX 4070 wordt het wat moeilijker kiezen.
Die 7700 XT heeft 50% meer ram geheugen en is ook 30% sneller.

Je kan hem aardig onder klokken en undervolten en nog performance overhouden.
De 7700 XT heeft een stroomverbruik van 240W Ik had het over de keuze de 7600 vs 4060. En undervolten ga ik niet aan beginnen. Dat is net dat ik niet meer processors overclocken begin. Dat is hier wel vaker aan bod geweest. Met undervolten ondermijn de stabilliteit van de videokaart die producent in gedachtenhad en dus ook getest is. Hiermee destabilliseer je mogelijk je hele computer. Je bent niet raar als je het doet, maar dat is ook weer zo'n keuze die weloverwogen niet acceptabel gevonden kan worden.
De goedkoopste 4060 is op dit moment 285 euro De goedkoopste 7700XT is nu 414 euro. Tja performance per euro denk ik dus de 7700XT de betere kaart mits je dus een 240W GPU in je computer kast wil hebben
De Geforce 4070 Super die duurder is en nauwelijks minder stroom verbruikt is natuurlijk niet aantrekkelijk op dit moment. Daar ben ik het met je eens.

[Reactie gewijzigd door AtariXLfanboy op 31 juli 2024 22:17]

Ter referentie; ik heb hier een RTX 4070 en die verbruikt op 3440x1440 op Ultra in Diablo 4 met DLSS quality en fps cap op 120 fps (ivm 120 Hz) 147W. Dat is een load van circa 80%. Zonder dlss pakt hij circa 200W.
Dit mens heeft gewoon een 4060 gekocht vanwege het bijna halve energieverbruik
Jij bewijst mooi zijn punt

Zo'n beetje elke reviewer heeft de 4060 afgebrand omdat het voor de prijs gewoon een zeer slechte kaart is, maar toch wordt hij masaal gekocht
Die hele typering dat mensen Nvidia alleen kopen voor het merkje is echt verschimmeld.
Kan je vinden, ik weet echt zeker dat dit voor vele mensen gewoon een feit is.. is ook de enige reden die ik kan bedenken om bijvoorbeeld een 3050 over een AMD concurrent te verkiezen

[Reactie gewijzigd door Sinester op 31 juli 2024 11:52]

Dus heeft hij gelijk want jij beantwoord zijn argumenten niet de stroomverbruik en niet vergeten warmte!
Mijn punt is dat de 4060 voor zijn prijs en vergeken met de andere kaarten gewoon geen goeie deal is

Sowieso energieverbruik en warmte in deze klasse kaarten is echt het laatste waar ik me druk over zou maken, maar dat is persoonlijk

Maar 8 GB en best belabberte prestaties voor die prijs is waar ik op doel.. ik zou deze nooit kopen of maar aanraden

YouTube: RTX 4060 vs RTX 4070 vs RX 7700 XT vs RX 7800 XT - Test in 15 Games
YouTube: RTX 4060 vs RX 7600 XT - Test in 10 Games
Dat is idd persoonlijk, maar schilder dan mensen die dat als wel een prioriteit zien af als dat ze het voor het merkje gekocht hebben. Wat ik bij reviewers iig mis is dat keuzes als PCI 4.0 x8 en 8Gb juist dat lager energieverbruik helpen te bewerkstelliggen. Voor mij was de keuze die tussen de RX 7600 en de RTX 4060 makkelijk toen ik het verschil in stroomverbruik zag : 185W vs 110W
En bedenk je dat voor een deel van de wat volwassener mensen wat lagere scores in benchmarks halen niet iets is waar ze wakker van liggen. Dan zal ik wel een beetje af zijn als tweaker ;)
Dat is idd persoonlijk, maar schilder dan mensen die dat als wel een prioriteit zien af als dat ze het voor het merkje gekocht hebben.
Dat heb ik nergens letterlijk gezegt.. wat ik wel heb gezegt dat ik zeker denk dat er vele en vele mensen zijn die nVidia kopen omdat het nVidia is

en de 4060 vind ik persoonlijk een mooi voorbeeld.. als gaming kaart is het gewoon een slechte deal, zelf vaak slechter als ze voorganger, en gaming is toch echt het gene waar de meeste mensen videokaarten voor kopen
Voor mij was de keuze die tussen de RX 7600 en de RTX 4060 makkelijk toen ik het verschil in stroomverbruik zag : 185W vs 110W
Dat is je goed recht, ben het er persoonlijk alleen niet mee eens, stroom verbuik is niet buitensporig hoog dat dit een echt issue zou zijn, de prijs en prestaties is wat voor mij veel belangrijker is en daar is de 4060 gewoon niet al te best
En bedenk je dat voor een deel van de wat volwassener mensen wat lagere scores in benchmarks halen niet iets is waar ze wakker van liggen
Weet niet wat je precies probeerd te zeggen met dit stukje, ik zal er maar verder niet op in gaan

Jij zegt dat de keuze snel gemaakt is door het stroomverbruik.. bij mij is die makkelijk gemaakt als je kijkt naar de prijs en prestaties

[Reactie gewijzigd door Sinester op 31 juli 2024 13:02]

Even context die je lijkt kwijt te zijn : De orginele post( niet van jou) had het over Hordes zelfs! Doordat ik aangaf dat er uitzonderingen op zijn ,maar jij dat dus weersprak, impliceerde jij in mijn ogen dat alle kopers voor het merkje/marketing gaan. Of heb je een andere argument dan energieverbruik? Nee zelfs niet bij 'alle gamers' Juist gamers zitten lang achter de computer en velen daarvan zullen dus minder luidruchtigheid weten te waarderen boven wat extra FPS. We spelen niet allemaal online FPS shooters hoor.
Fatsoenlijk framerates is hier nogal discutabel. Ja, als framerate absoluut essentieel is om snel en precies te kunnen schieten misschien. Maar dan nog is vaak enkele settings verlagen vaak genoeg. Maar ach ja ik heb lang in een nog veel lager budget segment gezeten dus ik heb er mee leren leven dat ik dat soms moet doen en speelde zelfs games in de single digit fps :D
Even context die je lijkt kwijt te zijn : De orginele post( niet van jou) had het over Hordes zelfs! Doordat ik aangaf dat er uitzonderingen op zijn ,maar jij dat dus weersprak
Er zijn altijd uitzonderingen, betekend niet dat er alsnog "hordes" zijn die deze kaarten kopen puur omdat het nVidia is... daar twijfel ik geen seconde aan

En omdat punt kracht bij te zetten pakte ik je voorbeeld dat je een 4060 hebt gekocht, wat naar mijn mening een zeer slechte deal is.. en voor mij lijkt dat die kaart alleen gekocht is omdat het nVidia is

Dat jij dan naar mijn idee tot vage conclussies komt dat ik denk dat alle nVidia gebruikers alleen voor het merk gaan... sorry maar dat is niet mijn probleem en ook totaal niet wat ik gezegd heb

Verder ben ik het ook niet eens dat mensen in deze klasse kaarten problemen hebben met luidruchtige koelers... en dan maar liever een langzame EN duurdere kaart kopen. De meeste koelers zijn prima en hoor je totaal niet.. ook niet op een7600xt.. en dan kom ik weer terug op waarom een 4060 kopen?

Overig wil ik in elke game een stabiele framerate, niet alleen in online shooters (die ik overig niet eens speel)
ik heb er mee leren leven dat ik dat soms moet doen en speelde zelfs games in de single digit fps
Dat had ik vroeger ook ja... puur omdat ik het geld er niet voor had om iets beters te kopen
Nu als volwassen man met een vaste baan is dat niet iets waar ik nog naar streef

Verhaal kort, ik vind Prijs/Prestaties het meest belangrijke wanneer ik een videokaart koop
Jij blijkbaar niet en dat is prima.. ik snap dat alleen niet zo goed

[Reactie gewijzigd door Sinester op 31 juli 2024 13:24]

'Je bewijst mooi zijn punt'
Hou op met die flauwekul joh
[...]

Dat heb ik nergens letterlijk gezegt.. wat ik wel heb gezegt dat ik zeker denk dat er vele en vele mensen zijn die nVidia kopen omdat het nVidia is

en de 4060 vind ik persoonlijk een mooi voorbeeld.. als gaming kaart is het gewoon een slechte deal, zelf vaak slechter als ze voorganger, en gaming is toch echt het gene waar de meeste mensen videokaarten voor kopen


[...]

Dat is je goed recht, ben het er persoonlijk alleen niet mee eens, stroom verbuik is niet buitensporig hoog dat dit een echt issue zou zijn, de prijs en prestaties is wat voor mij veel belangrijker is en daar is de 4060 gewoon niet al te best


[...]

Weet niet wat je precies probeerd te zeggen met dit stukje, ik zal er maar verder niet op in gaan

Jij zegt dat de keuze snel gemaakt is door het stroomverbruik.. bij mij is die makkelijk gemaakt als je kijkt naar de prijs en prestaties
Probleem is dat wanneer we echt diep in de argumentatie duiken juist de argumenten in de richting van 'het succes van Nvidia is onterecht' het heel snel steeds subjectiever wordt.

Objectief gezien is de 4060 in ouderwetse benchmarks min of meer even snel/traag als een RX 76000, zie https://www.techpowerup.c...rtx-4060-gaming-x/32.html . De RX 7600 heeft ook 8 GB vram en is ongeveer gelijkwaardig geprijsd (de populairste is 271 momenteel bij de 4060 is dat 285). Het is allemaal heel gelijkwaardig. Vervolgens blijkt de Nvidia kaart een stukje zuiniger te zijn; 125W vs 152W. Maar de grootste troef is DLSS. Dankzij DLSS haal je of een enorme bak meer fps óf is je kaart veel zuiniger en stiller.

Voor wie op 1080p gamed is een 4060 een prima no nonsense kaart voor een gunstige prijs (anno 2024). Een RX 7600 onderscheid zich ondertussen nergens in. Heb je al een Nvidia kaart, bijvoorbeeld een 1060 dan kun je de kaart zonder überhaupt drivers te (her)installeren in je systeem clicken en gaan gamen. Het is niet zo vreemd dat Nvidia zo groot is. Ze verkopen iets dat voor het gros van de klanten out of the box werkt en de grote user base houdt dat in stand.

[Reactie gewijzigd door sdk1985 op 1 augustus 2024 03:25]

Een 4080 Super is sneller in games dan een 7900XT. Duurder ook dat klopt.
review: RTX 4080 Super - Drie keer is scheepsrecht
Als je optimale ray tracing performance wil kom je uit bij het groene kamp. Dan legt AMD het toch te hard af naar mijn smaak. Zie bijv dit overzicht. Voor de prijs van jouw 7900XT heb je een 4700Ti die in 4k zo'n 25% meer FPS haalt.

Sure, zonder ray tracing haalt de 7900XT 10% meer dan de 4700Ti, maar wanneer je al royaal boven de 60FPS zit maakt dat voor mij niet echt meer uit. Buiten dat ondersteund zo goed als elke grafisch echt interessante game ray tracing dus wil ik daar zelf iig de maximale performance (heb nu nog een 3080 overigens).
Zelf ben ik van een 1080ti (welke 7 jaar dienst heeft gedaan en nu in mijn sim pc zit en nog prima zijn werk doet) overgestapt naar een 7900XT. Mijn inziens de beste GPU qua prijs/prestatie. Sneller dan een 4080s 4070ti op raster graphics en veel goedkoper. De 7800XT hier net onder heeft wellicht nog wel een betere prijs/prestatie verhouding.
Een groot probleem voor AMD kaarten dat ik heb is gewoon dat Nvidia er beter uitziet. In de nieuwste spellen ben je min of meer veplicht om een upscaler te gebruiken en zelfs als dat niet het geval is dan kan je nog DLSS gebruiken om een betere IQ te krijgen per prestatiedoel dan wat je met AMD kaarten kan doen.
Rare reactie dit, NVidia ziet er beter uit? Wanneer dan? Verplicht een upscaler te gebruiken? Zelf gebruik ik echt bijna nooit een upscaler met mijn 7900XT op 1440p/144Hz.
En DLSS om een betere IQ te krijgen? Ik vind je reactie erg onduidelijk.

En dat DLSS beter zou zijn dan AMD's FSR dat zal wel. Als ik naar de video's kijk waar ze dat zeggen vind het reuze meevallen. Ik durf zelfs te beweren dat in een ABX test niemand consequent DLSS en FSR kan onderscheiden.
Dan denk ik toch echt dat je hier niet oprecht reageert, er zijn echt talloze videos waarin verschillen worden getoond en dat pakt niet goed uit voor AMD. Shimmering, ghosting en simpelweg pixelige movement. FSR heeft het (helaas nog) allemaal.
Mijn hoop is dat ze met de volgende generatie ook een AI upscaler gaan gebruiken en daarmee een betere upscaler kunnen leveren.

Ik heb zelf een 6900XT en zowel op mijn oude 3440x1440 als mijn 4k scherm zie ik overduidelijk dat de techniek niet op niveau van DLSS is tegenover de videos die je op Youtube kan vinden.

YouTube: FSR 3.1 vs DLSS 3.7 vs XeSS 1.3 Upscaling Battle, 5 Games Tested
YouTube: Did AMD Lie?? - FSR 3.1 vs DLSS vs XESS! In 4 Games, 7 GPUs
YouTube: Upscaling Face-Off: FSR 3.1 vs DLSS 3.7/ XeSS 1.3 - Has AMD Improved?
YouTube: FSR 3.1 vs DLSS 3 Side-By-Side Comparison
YouTube: FSR 3.1 vs DLSS 3.7.10 - Visual & Performance Comparison 4K - RTX 4090
YouTube: FSR 2.2 vs FSR 3.1 vs XeSS 1.3 vs DLSS 3.7 - Which one is BETTER and...

Met de huidige moderne games op hoge resolutie, hoge settings en raytracing aan ben je nagenoeg verplicht om een upscaler te gebruiken. En ja, dan ziet het er bij Nvidia vaak beter uit.

[Reactie gewijzigd door vliegendehommel op 2 augustus 2024 10:30]

2 AMD verkoopt hun gpu net onder nvidia prijs, dus voor veel mensen niet echt interessant.
AMD verkoopt hun GPUs ver onder de nvidia prijs. Als je van plan bent om op Linux te gamen, en/of je hebt geen boodschap aan raytracing is AMD een no-brainer en ook voor mij de reden geweest om na jaren eindelijk eens Team Red te gaan in mijn gaming build. Nog geen seconde spijt van gehad.
Neushoorn 7800XT vs RTX 4070 scheelt z’n 100 euro. De Nvidia heeft betere features, is energie zuiniger, maar ook minder geheugen. Uiteindelijk zijn de verschillen in prestaties klein.

De 7900 GRE is zit wel op een eiland.

Dan moet je eigenlijk naar een RTX 4070ti.
En die is fors duurder.
Het hangt inderdaad af van wat je wilt. Als casual gamer ben ik een half jaar geleden voor de oude generatie AMD kaarten gegaan. Een 6900 XT. Puur omdat deze genoeg VRAM heeft om de komende jaren vooruit te komen. Bij Nvidia had ik dat ook gekunt alleen zat ik qua prijsklasse dan meteen 50% hoger waarmee ik over m'n budget ging.
RTX-4070 heeft wel 4GB minder ram (12GB vs 16GB), wat ongetwijfeld nog wel van pas zal komen op langere termijn en lagere raster perfomance. Dus voor 100 euro minder is de 7800XT zeker geen slechte deal
Absoluut, 16gb geheugen is absoluut een plus. Al zou ik dan eerder voor de 7900 GRE gaan. Meerprijs is lager dan de extra performance.

DLSS is wel een betere feature als FSR wat de lagere raster performance ongedaan kan maken.

Voor beide zijn er goede argumenten
Nvidia heeft nu ook de kernel driver voor lunix opengegooid dus als de community hier werk van maakt is ook lunix geen argument meer om AMD te gaan over een paar jaar
Valt vies tegen. Wat Nvidia open heeft gegooid is echt een vooruitgang ten opzicht van wat het was, maar de echt belangrijke stukken blijven closed source.

Bij AMD zijn alleen de stukken die vanwege licenties niet opensource mogen closed source (dingen zoals audio over HDMI).

Nvidia maakt meters, maar voor de aankomende tijd is de Linux support van AMD veel beter.
dat is jammer wat ik begrepen had was wat NVIDIA genoeg voor het schijven van een eigen display driver waardoor je net als bij AMD een volledige community driver zou kunnen hebben

blijkbaar dus niet helemaal juist
"Over een paar jaar". Ik wil graag vandaag gamen, en dan zitten we weer 2-3 gens verder.
oh zeker ik geef allen maar indicatie dat dat voordeel dus kan verminderen
Wat dat niet alleen de kernel modules, niet alles? Het is een stap, maar ze zijn er nog lang niet.
correct maar mij was verteld dat je met dat in principe je eigen display driver en systeem eromheen kunt bouwen maar gelet op @KillerZero86 zijn reactie is dat onjuist
AMD verkoopt hun GPUs ver onder de nvidia prijs.
Dat hangt stevig af van het marktsegment. De RTX 4060 is bijvoorbeeld stukken goedkoper dan de tegenhanger van AMD.
en/of je hebt geen boodschap aan raytracing
Ray tracing werkt prima op RDNA 3. Dat is ook niet zo zwart wit meer.
Welke tegenhanger bekeek je dan?

Als ik het goed heb is de RTX4060 te vergelijken met de RX7600, welke volgens de pricewatch €284,90 en €261,99 te verkrijgen zijn.

Vergelijk je misschien andere kaarten, of heb je andere prijzen in gedachten?
Je verkondigd onzin.
Eens. AMD is qua prijs-performance en ook op gebied van videogeheugen koning. Enige reden dat NVIDIA kan maken wat ze doen, is CUDA. Dat is ook de reden dat ik nvidia kaarten (op Linux) draai - ik gebruik CUDA en totdat AMD zo ver is dat ze CUDA of een variant daarvan weten te draaien - om alle patenten e.d. heen - kan NVIDIA dit allemaal maken. En de reden dat hun 'gaming'-lijn zo weinig videogeheugen heeft is om niet te concurreren met hun véél-duurdere zakelijke lijn van quadro-kaarten. Waar je duizenden en duizenden euro's betaald voor een kaart met 32 GB VRAM, terwijl die kaart voor de meeste klante waarschijnlijk niet eens veel sneller zou hoeven zijn dan een 4060 of 4070.
Het is voornamelijk de dalende verkoop van consoles, die inmiddels richting het einde van hun cyclus gaan.
De verkopen van consoles zullen teruglopen maar de generatie zelf is nog lang niet op zijn einde, alleen de ps5 pro al zal deze generatie met jaren oprekken.
Ik had het over de verkoop cyclus inderdaad.
En de ps5 pro is een nieuw product die ze nu nog niet verkopen, en de geruchten erover drukken de verkoop van de huidige.
Kun je nagaan hoe weinig Radeon kaarten er worden gemaakt/verkocht. Immers Ryzen is ongeveer de helft van Datacenter (1500 vs 2800) en ondertussen is "Gaming" weer minder dan de helft van Ryzen; 648 miljoen. Onder gaming vallen niet alleen de Radeon kaarten maar dus ook de semi-custom socs van de consoles. Ondertussen behaalt Nvidia in 3 maanden 2600 miljoen aan gaming omzet (en 22 miljard in datacenter!)
ja, monopolies zijn slecht voor de markt, dat wisten we al.
Nja AMD zal dus circa 300-350 miljoen aan Radeon GPU's verkopen. Dit kunnen ze makkelijk met factor 3 laten toenemen door extra gpu's te bestellen en vervolgens te snijden in de prijzen.
Alles is tegenwoordig zo duur geworden :/
Minder dividenden, meer loon!
De volgende generatie lijkt ook niet erg interessant als ik het. eerste vergelijk tussen de 780M (RDNA3) en 890M(RDNA3.5) zie. Als men nog wat meer Intel pijn wilt doen moet men een APU uitbrengen met een iGPU zo krachtig als een 780M of een 890M, de processorkracht van een 8600G en de prijs van de 8400G. Maar ook AMD lijkt op hun lauweren te rusten?
Krijgen we straks de situatie dat Intel AMD structureel gaat verslaan op dit gebied?
heb je dan ook naar een review gezocht die effectief de RDNA 3.5 getest heeft met real world benchies en niet het theoretische van tweakers?

https://www.anandtech.com...-ryzen-ai-hx-370-review/9
Weet je wat deze benches missen? Een vergelijk met discrete GPU's! En dan zit je dus in de buurt van een RTX3040 (3050 6Gb) Een kaart die volgens reviewers veel te slecht is.
Dit lijkt me wel een goede met de 8700G
YouTube: Ryzen 7 8700G vs RTX 3050 6GB - Test 14 Games
(En als ik het teruglees. Ik wou dus niet beweren dat Intel al iets beters heeft, maar die zaten al in de buurt van de 8700G.)

[Reactie gewijzigd door AtariXLfanboy op 31 juli 2024 13:51]

Hoezo structureel verslaan? Ze verslaan ze totaal niet. Tenzij je 2 cpu generaties met ernstige defecten als verslaan ziet, of dubbel het stroomverbruik?
En vergeleken met intel is de iGpu fenomenaal.

En de nieuwe generatie is nog beter.
AMD heeft niet op hun lauweren gerust, maar intel, tot het punt dat ze effectief irrelevant zijn geworden.

Dat jij er een fulltime baan van maakt AMD af te branden met drog argumenten, het verstrekken van foutieve informatie en het beledigen van hun kopers maakt nog niet dat je gelijk hebt.
Dat structureel verslaan doelde ik godbetert in de toekomst in de benchmarks in games. De 890M steekt ook weer niet zo ver boven de 780M uit dat het boven de RTX3050 6gb uitkomt. Maar je hebt gelijk als je naar stroomverbruik kijkt dan wordt het dus daar waarschijnlijk niet verslagen. Ik moet daar eerst meer informatie voor hebben.
En verder wat ontmasker je hier jezelf met deze persoonlijk aanval.Heb je belang bij de verkoopcijfers van AMD ofzo? Je klinkt als een zieke fanboy die je hier wel meer hebt die niet goed kunnen lezen en daarbij dus dingen gaan verdraaien om maar iemand te kunnen 'ontmaskeren' De afgelopen maand heb ik me slecht in enkele discussies over dit onderwerp gemengd omdat ik weet wat voor patienten hier rondlopen in dit forum.
Dat jij dus hier over begint zou je eens goed over jezelf na moeten denken. Get a life. Je hoeft het niet met me eens te zijn. Maar zo'n persoonlijke aanval ga ik me echt niks van aantrekken. Waar is die foutieve informatie dan? Ik kom nog zelfs met een link met een vergelijk?
(BTW wie na deze reactie denkt dat ik een structurele AMD hater ben ... Mijn main build heeft een 5800X3D CPU. )

P.S. Waar beledig ik letterlijk AMD gebruikers?

[Reactie gewijzigd door AtariXLfanboy op 31 juli 2024 17:03]

1 mensen wachten op de volgende generatie.
Ik heb niet het idee dat dat enthusiasme er daadwerkelijk is. De games vallen gewoon tegen. Er zijn wel goede games, maar de echte hits zijn tegenwoordig voorbehouden aan Nintendo en de PC.

Ik heb lang naar cijfers gekeken, en ben tot de conclusie gekomen dat het door één ding komt:
Xbox en EA liggen al anderhalve consolegeneratie volledig buiten de competitie als het aankomt op topgames.
Deze uitgevers hadden voorheen games als Gears of War, Halo, Mass Effect, Mirror's Edge en Skyrim (valt nu onder Xbox tenminste). Maar door verschillende redenen zijn deze ontwikkelaars en series uit het topsegment gevallen, en er is eigenlijk niks van dit kaliber voor terug gekomen.

Het aantal topgames per consolegeneratie is hierdoor zo'n beetje gehalveerd (gebaseerd op Metacritic cijfers).

Wel goed nieuws: er lijkt een stijgende lijn in te zitten.

[Reactie gewijzigd door Wolfos op 31 juli 2024 12:56]

marge zijn dan ook te klein om hier een prijsdump in te gaan doen en het blijft toch zoals steeds, alleen op nvidia kan je gamen en dlss is de enige oplossing...
Gaming
Net revenue $ 648 $ 922 $ 1,581
Operating income $ 77 $ 151 $ 225

trouwens waarom kostbare waffers en TSMC capaciteit aan GPU gaming besteden als ze veel meer opbrengen door waffers af te leveren voor EPYC of Instinct?
Ik denk dat het eerder ligt aan het feit dat bedrijven veel meer kunnen betalen voor produkten dan particuleren. De datacenters groeien als paddenstoelen uit de grond, en die hebben allemaal apparatuur nodig, die vaak ook maar zoveel jaar meegaan, en worden dan weer vervangen.

De AI hype heeft dit nog veel verder aangewakkerd, dus dat is nu een veel grotere markt dan die paar pc's en consoles van ons, die ook nog eens niet te veel mogen kosten.
VInd ik toch wel bijzonder dat ze zoveel omzet halen halen uit datacenter producten. Aantallen geloof ik wel, maar als ik zie wat ik voor HPE servers met AMD betaal versus eenzelfde categorie servers met Intel dan moet AMD hun producten tegen bodemprijzen leveren. De AMD server zijn soms duizenden euro's goedkoper terwijl de rest van de hardware (PSU, RAM, storage, networking, etc) hetzelfde is.
Ehh het is net Intel die hun CPU dumpen met mega kortingen om toch maar verkocht te geraken. Het is net OEM met Inel die alles op stock heeft omdat er amper vraag naar is... tenzij jij geen goed vergelijk maakt van catagorie.... AMD levert niet etgen bodemprijzen, zij houden juist hun marge aan, Intel verre van.
en ik spreek in grote aantallen hier :)

vraag een prijs op van INtel en AMD met een in totaal zelfde core count en je gaat zien dat die INtel goedkoper is... dat deze dan 50% meer verbruik heeft en een 25% minder IPC door lagere all core boost clocks dat gaat intel (en presales) wel even lekker achterwegen laten ...
Als je bedenkt dat alle hyperscale cloud providers ook klant zijn van de datacenter producten, dan heb je opeens een gigantische afzetmarkt. de prijzen daar zijn uiteraard anders onderhandeld dan waneer jij een HP server koopt..

[Reactie gewijzigd door Yalopa op 31 juli 2024 14:11]

Amd heeft met een chiplets een enorm voordeel in het maken van server chips.

Ze gebruiken dezelfde 8-core dies voor desktops als voor servers. Deze zijn klein en makkelijker te produceren.

Bij een server zitten er simpelweg meer losse dies op de CPU. En zo kunnen ze veel goedkoper performance opschalen als Intel.

Ook is hun efficiëntie beter (op de E-cores na mits je daarmee wegkomt) wat heel belangrijk is voor servers.

AMD moet mbt. Servers meer kijken naar ARM dan naar Intel.
Geen nieuws waar je als consument blij van moet worden. Des te minder afhankelijk ze zijn van de consument des te minder ze voor je gaan doen.

Het hele we love the gamer is ook al dood door datacenter en er lijken geen high end GPU's te gaan komen omdat dat veeeeel meer oplevert in datacenters.
Probleem is ook wel dat de gaming community dat een beetje zelf verknald heeft bij AMD.

Ook als ze feitelijk de beste kaarten voor het geld leverden kregen ze amper marktaandeel.

Tja als je dan een betere markt vind met meer marges. Dan krijg je vanzelf dat het bedrijf zijn koers verlegt.
Het probleem is dat ze juist geen betere GPU's leveren dan Nvidia, of in ieder geval dat imago hebben.. Dan is het leuk dat je "voor het geld" zogenaamd iets beter bent maar dat doet dus weinig voor je imago in de markt.. Je ziet bij hun succes bij de CPU's dat als je wel gewoon een tijdje de snelste en beste spullen levert dat je wel beter gaat verkopen.. Zo simpel werkt het kennelijk nog steeds, de consument kiest meer voor imago i.p.v. puur voor prijs.. De top AMD GPU's kosten tegenwoordig trouwens ook al meer dan 1000 euro, dus wat dat betreft kan je het ook geen koopjes meer noemen.. Geruchten zijn dat hun voilgende generatie slechts een soort refresh wordt zonder noemenswaardige prestatiesverbeteringen, dus hun positie in de markt zal waarschijnlijk niet gaan verbeteren, in tegendeel zelfs.. Niks met de gamning community te maken die hun producten niet wil kopen, dat veroorzaakt AMD helemaal zelf door gewoon niet te leveren wat de markt wil..

[Reactie gewijzigd door Inflatable op 31 juli 2024 15:13]

toen ze eindelijk een beetje een degelijk product maakte (6000 series) heeft het werkelijk 8 maanden geduurd voordat veel problemen opgelost werden in de drivers. En bij 7000 kwamen een ghroot deel van de problemen weer terug en bij fixes voor 7000 werd 6000 weer een probleem kindje. En dat is dan ook precies waar het bij AMD gpu divisie fout gaat. De software is gewoon niet up to par en fixes duren veel te lang.

Ik ben qua prestaties prima tevreden met mijn 6900XT ondanks dat hij te duur was voor wat het is maar de software is tot op de dag van vandaag een probleem. Ik heb letterlijk 7 driver versies en DDU op mijn desktop staan omdat verschillende games verschillende drivers nodig hebben om überhaupt te werken. Met de verkeerde driver crashen games, heb ik mega microstutters of artifacts in windows apps/games.

De enige reden dat ik nog niet overgestapt ben naar Nvidia is door de in driver per game undervolding en underclocking en RSR. Hiermee draait mijn 6900XT op maar 55-145 watt afhankelijk van de game met minimaal performance verlies. Dat is meer dan 50% power savings. en scheelt me honderden euro's.

[Reactie gewijzigd door computerjunky op 31 juli 2024 15:42]

> feitelijk de beste kaarten voor het geld leverden

Ik kocht AMD toen ik krap bij kas zat. Zodra ik genoeg geld had, kocht ik gewoon Nvidia omdat ik meer features er voor terugkreeg: betere opnames van games, geluidssuppressie, ray tracing, en nu krijg ik Nvidia Remix. Pricey, but worth it.

Nvidia heeft nu al jaren gewoon meer features dan AMD. AMD krijgt ze uiteindelijk ook wel, maar tegen die tijd zijn die van Nvidia meer gepolished en hebben ze nieuwe dingen klaarliggen.

Het is jammer, want Nvidia heeft gewoon niet genoeg competitie, en Intel weet het ook niet voor elkaar te krijgen.
Probleem is ook wel dat de gaming community dat een beetje zelf verknald heeft bij AMD.

Ook als ze feitelijk de beste kaarten voor het geld leverden kregen ze amper marktaandeel.

Tja als je dan een betere markt vind met meer marges. Dan krijg je vanzelf dat het bedrijf zijn koers verlegt.
In de eerste plaats is het AMD die het winstgevende Ati Radeon heeft overgenomen voor 5 miljard om daar vervolgens 2 miljard op af te schrijven en daarna als gevolg van die financiele blunder in de jaren erna het R&D budget letterlijk hebben gehalveerd om vervolgens te concluderen dat pc gaming geen toekomst meer heeft. Pas bij de terugkeer van Raja Koduri geloofde AMD weer in PC gaming, op basis van de VR hype, en zijn ze aan de slag gegaan met o.a. Ryzen. De consument heeft hier geen schuld aan.

Verder is er geen feitelijke superioriteit. Het is altijd een subjectieve discussie.

Los van die discussie heeft AMD erg lang te maken gehad met beperkingen aan de productie kant. Ze kopen vaak erg voorzichtig productiecapaciteit in. Zelfs tijdens de mining hype ging AMD nauwelijks omhoog in volume. Consumenten wilden dolgraag videokaarten kopen, AMD hoefde ze alleen maar te leveren.
Ik betwijfel dat amd de consumenten de rug toekeerd voor zich te richten op hun datacentertak. Een omzet van 2,8 miljard dollar in de server markt stelt niet zoveel voor. Intel heeft datacenter omzet van 3 miljard dollar en Nvidia een omzet van 22 miljard dollar. Als je hun omzet omrekend naar het aantal wafers die ze daar mogelijks voor nodig hadden, dan lijkt dat niet zoveel. De datacenterproducten zijn gewoon duur.

Wat uit de R&D van de datacentertak komt, kan ook gebruikt worden voor de andere onderdelen. De kosten kunnen zo gespreid worden en zijn ze ook niet afhankelijk van één tak.
Revenue is revenue dus dat laten ze niet 123 liggen maar eerlijk is eerlijk de prioriteit van zowel Intel, Nvidia en AMD zijn allemaal verschoven naar big data omdat de winst marges daar 10-20x zo hoog zijn.

Wat de echte impact van de AI hype gaan zijn zien we pas ergens Q1 volgend jaar wanneer we een heel jaar hype gehad hebben.

Nvidia's vooruitzichten : https://nvidianews.nvidia...first-quarter-fiscal-2025

Dat zijn precentages waar je echt misselijk van word. En dat komt 99% bij datacenter/AI vandaan.

Kan helaas geen data vinden over hoeveel meer of minder wafgers ze tot hun beschikking hadden.
Ik weet dat AMD niet al te veel geld over heeft, maar het zou ze sieren als ze wat meer aan softwareontwikkeling kunnen besteden naast hardware.. Voor het AI gebeuren is het een must dat ROCm snel volwassen wordt. Daar zit het geld. Een ROCm implementatie die 100% stabiel met 70% performance t.o.v. Nvidia zal zorgen dat AMD veel omzet genereert.

Ik vraag me alleen hoeveel werk het kost om dit te realiseren (hoeveel resources/ developers nodig ) in een jaar.
Lees bij Heise dat de Gaming business voor AMD catastrofaal inkakt.

Op dit item kan niet meer gereageerd worden.