AMD Radeon RX 9070 XT verscheen bij Amerikaanse retailer vanaf 700 dollar

De mogelijke prijzen van AMD's komende Radeon RX 9070-videokaarten stonden vermeld bij Micro Center. De Radeon RX 9070 XT was daar beschikbaar vanaf 700 dollar. AMD heeft de prijzen zelf nog niet bevestigd.

Micro Center heeft de prijzen inmiddels verwijderd, maar Tom's Hardware had ze al opgemerkt. Volgens die website stond er één Radeon RX 9070 van ASRock vermeld, tegen een prijs van 650 dollar. Van de Radeon RX 9070 XT waren meerdere varianten zichtbaar, waarvan de goedkoopste 700 dollar kostte, wederom van ASRock.

Uit deze dollarprijzen valt ook de mogelijke Europese adviesprijzen op te maken. AMD rekent de dollarprijs om naar euro's en telt daar vervolgens nog 21 procent btw bij op. Dat wil zeggen dat de getoonde Radeon RX 9070 ongeveer 750 euro kost. De goedkoopste Radeon RX 9070 XT kost dan ongeveer 808 euro.

Het is overigens niet bekend of dit de officiële adviesprijs van de RX 9070-serie wordt. Het kunnen ook placeholders betreffen. AMD heeft de adviesprijzen voor zijn komende gpu's zelf nog niet bekendgemaakt. AMD kondigde de Radeon RX 9070-videokaarten begin januari aan, maar deelde toen nog geen concrete details over de videokaarten. AMD deelt op vrijdag meer details tijdens een livestream, mogelijk deelt het bedrijf dan ook de adviesprijzen. De release volgt begin maart.

Onlangs lekten de mogelijke prestaties van AMD's nieuwe videokaarten al uit bij techwebsite VideoCardz. Daaruit bleek dat de Radeon RX 9070 XT gemiddeld zo'n 42 procent sneller zou zijn dan de RX 7900 GRE bij 4k-gaming op ultra. De RX 9070 non-XT zou 21 procent beter presteren. Die cijfers zouden door AMD gedeeld zijn tijdens een briefing met de media, claimde VideoCardz.

De Radeon RX 9070-videokaarten worden gebaseerd op een nieuwe RDNA 4-architectuur, met betere raytracingcores en ondersteuning voor de komende FSR 4-upscalingtechniek. De gpu's zouden gebruikmaken van een nieuwe Navi 48-chip, die wordt geproduceerd op een N4-procedé van TSMC. Uit geruchten blijkt ook dat de kaarten 16GB GDDR6-vram krijgen.

AMD Radeon RX 9070 en 9070 XT

Door Daan van Monsjou

Nieuwsredacteur

27-02-2025 • 13:27

251

Lees meer

Reacties (251)

251
249
70
1
0
132

Sorteer op:

Weergave:

Ik lees hier veel dat de kaarten onder de 600 euro moeten gaan kosten.

<600 euro voor een 9070XT is gewoon echt niet realistisch. Ik snap dat veel mensen daarop zitten te wachten, maar de kaart is 20 tot 40% sneller dan de 7900GRE en (waarschijnlijk) sneller dan de 7900XT maar minder snel dan de 7900XTX. Er gaat een gerucht dat de kaart qua RT waarschijnlijk wel gelijk aan presteert met de 7900XTX (en minder energie verbruikt).

De 7900GRE heeft altijd 600 a 650 euro gekost, de 7900XT kost op dit moment 700 euro en de 7900XTX rond de 1000 euro.

Hoe kan je dan zeggen dat de 9070XT dan maar sub 600 euro moet gaan kosten? Ik snap die logica niet... vanuit het huidige pricing point gezien zou de 9070XT ergens rond de 800 moeten gaan kosten. En zelfs dan is de prijs nog gerechtvaardigd tegenover de 5070 en 5070Ti (als je die al kan krijgen).

Tuurlijk als AMD de 9070XT voor 599 euro op de markt zet (en die prijs blijft redelijk constant unlike bij Nvidia) dan verslaan ze Nvidia 100% deze generatie en winnen ze waarschijnlijk een significant marktaandeel terug.

De vraag blijft; kan AMD die prijzen permittieren? Als ze nog wat tientjes marge over houden dan zou ik zeggen ja, maar als ze verlies draaien dan zie ik ze het niet doen. Het is geen console waarbij AMD nog winst maakt over de spellen die ze verkopen...
Hoe kan je dan zeggen dat de 9070XT dan maar sub 600 euro moet gaan kosten?
1) omdat de 7000 serie inmiddels meer dan twee jaar oud is
2) omdat AMD met hun prijsstrategie in de vorige generatie "nvidia min 10%" is weggezakt naar een marktaandeel van ongeveer 10%. Als je kijkt naar de steam hardware survey dan haalt de populairste 7000 kaart nog geen 1% marktaandeel.

Dus tja, jij kan nu heel hard wijzen naar de prijzen van de amd kaarten van 2 jaar terug, maar de realiteit is dat klanten verwachten dat ze met een nieuwe generatie meer waar voor hun geld krijgen.
En sure, dat doet nvidia niet, maar zij zijn veruit marktleider, op enkele procenten na een monopolist. Die uitdagen moet je doen door significant beter te zijn.
AMD probeert nu al 2 generaties lang hetzelfde: "wij bieden 10% procent meer waarde dan nvidia" en het werkt gewoonweg niet. Als elke consument volledig rationeel was zou het werken (ik heb verdorie een 7900XT), maar je ziet aan de cijfers dat dit niet zo is: voor 100€ meer koopt men gewoon nvidia.

Dus ik geef mensen hier 100% gelijk: de 9070 moet extreem aggressief geprijsd worden. Verkoop ze voor 450 en 550€, en je zal zien dat AMD eindelijk marktaandeel haalt.

Maar ik houdt mn adem er niet voor in: AMD Radeon is extreem goed in falen wanneer de sterren net uiterst gunstig staan, zoals nu (nvidia prijzen zijn debiel, hun gpus hebben allerlei defecten, en de kaarten zijn amper verkrijgbaar).

[Reactie gewijzigd door kiang op 28 februari 2025 14:05]

Bedankt voor het rechtvaardigen van een hogere prijs tegen onze belangen. Beetje vreemd en dom ook ...
Dan nog 25% er boven op nu Nederlandse shops het scalpen hebben ontdekt, dus zal wel 900 en 1000 euro worden.
In heb in 2014 een GTX 970 STRIX gekocht voor 369 euro, twee weken na de release. Inmiddels is een vergelijkbare videokaart in de huidige serie (5070 Ti) bijna 1200 euro, bijna dus een verdriedubbeling in iets meer dan 10 jaar. Deze prijzen zijn abnormaal en niet meer betaalbaar voor een gemiddelde consument.

Edit: instap > vergelijkbare

[Reactie gewijzigd door Apart op 27 februari 2025 15:23]

Een 5070Ti is wel van een wat hoger kaliber dan een 970, de mid en high end zijn flink verschoven de laatste 10 jaar, de mid en high end kaarten van nu zijn veel sneller dan de high end kaarten 10 jaar geleden.
Daarom zie je dat een 5070Ti meer stroom verbruikt dan een 970, terwijl je zou denken de kaarten zijn toch efficienter geworden, hoe kan een 70 serie uit 2025 meer verbruiken dan een 70 serie uit 2014, ze hebben de gpu's flink groter gemaakt in het aantal transistors en hoe groter een chip hoe duurder productie.
Een 5070Ti voor 500 euro zou onrealistisch zijn.
En doe hetzelfde eens voor cpu's, ja het is niet helemaal vergelijkbaar, maar in jouw logica zou een mid tot high end cpu dus ook zomaar 1500 tot 2000 euro moeten kosten. Ook CPUs gebruiken veel meer stroom en ze zijn veel sneller met veel meer transistors.

Nee, eenvoudig nee.

Een gtx970 van toen was mid tot high end, nu is mid tot high end minstens verdubbeld in prijs, puur vanwege schaarste en omdat de klant het blijkbaar geaccepteerd heeft, plus productiecapaciteit wordt elders ingezet.
Mijn huidige cpu gebruikt minder stroom dan de cpu's die ik 10 jaar geleden gebruikte. ryzen 5 5600, 10 jaar geleden gebruikte ik een 2600k die bijna 2x zoveel stroom verbruikte.

Dat de cpu's in vergelijking zo '' goedkoop'' zijn vergeleken vroeger komt omdat Intel een lange tijd de markt in handen had en quad core cpu's als high end cpu's verkocht voor 300+ euro. De CPU en GPU markten zijn niet hetzelfde je kan ze lastig zo vergelijken.
Andersom toch? Een 970 had 54% vd cores (1664 vs 3072) van een Titan X (generationeel top model). Een 5070 heeft 28% vd cores (6144 vs 21760) van een 5090 TI en een 5070 TI 41% vd cores (8960 vs 21760). De moderne 70 class is lower end dan de 970 was.

Ja, moderne kaarten zijn een stuk potenter geworden, maar ook een heel stuk duurder. Meer dan inflatie kan verantwoorden. Dit komt voor een deel doordat de moderne productie processen de kosten per transistor niet zo verlagen als vroeger (misschien zelfs verhogen?), maar vooral doordat nVidia geen concurrentie heeft en kan vragen wat ze willen. Wat gamers niet afnemen nemen bedrijven of hobbyisten wel af voor AI.
Een 5080 is nu bijna volledig een doormidden gesneden 5090. De 5090 kan je vergelijken met de Titan van toen. (al was de Titan toen bedoeld voor commercieel gebruik officieel gezien)

[Reactie gewijzigd door MrFax op 27 februari 2025 18:38]

De IGPs en APUs hebben eerst de low range en vervolgens de mid range gekilled. Wat vroeger high range was, is nu mid range. Wat nu high range is, is een compleet nieuwe (en duurdere) categorie.
Nvidia's marketing werkt beter dan ik dacht. ;)

Vroegah waren verschillen tussen generaties een stuk groter dan nu, dus toen kon je een stuk beter gefundeerd zeggen dat een nieuwe generatie een hele nieuwe categorie was dan nu. En de prijzen gingen toen niet of nauwelijks omhoog tussen generaties. Er zijn geen hogere prestatie categorieën bijgekomen, dezelfde prestatie categorieën zijn naar nieuwe duurdere prestatie categorieën verhuisd.

Als gamers de enige mogelijke afnemers van GPU's waren zouden de prijzen niet zo rap opgelopen zijn. Nvidia heeft de prijzen op kunnen voeren doordat eerst miners geld konden verdienen aan GPU's en nu AI bedrijven kunnen verdienen aan GPU's.

Sommige gamers zijn bereid om bedragen aan GPU's te spenderen, die eigenlijk alleen voor bedrijven interessant zouden moeten zijn. Dat trekt de prijzen van alles omhoog. AMD lijkt dat ook best te vinden en verdient liever 50% marge op 10% vd markt dan 10% marge op 50% vd markt.
Dat de kaarten de sneller zijn dan de kaarten van 10 jaar geleden is logisch, dat is vooruitgang. De kaarten van 10 jaar geleden waren ook weer een heel stuk sneller dan kaarten van 10 jaar daarvoor (die zagen zelfs een grotere verbetering dan de afgelopen 10 jaar).

Transistors worden kleiner en goedkoper. Je moet kijken naar de oppervlakte van de chip. Bedrijven zoals Nvidia betalen per wafer. De GTX 970 had een chip met een grootte van 398mm2, terwijl de RTX 5070 Ti een chip gebruikt die 378mm2 is.

Nvidia vraagt dus meer dan het dubbele voor een chip die zelfs ietsjes kleiner is. Natuurlijk moet je ook rekening houden met inflatie en dat de prijs van een wafer bij TSMC ook hoger is geworden. Maar is dat de verdubbeling waard? Of betalen we nu inmiddels zo veel, omdat Nvidia een monopolie positie heeft?
Het is vraag en aanbod. het is omdat iedereen het toestaan om dit soort prijzen te betalen.

Dit terwijl vanaf 2010 pakbeet hoofdhoven water houden, naar 64% operationele winst. Ze willen volgende kwartaal zelfs naar mid 70% winst. Dat zou pakbeet 40miljard omzet zijn en 30miljard winst. Het is gekkenwerk dat we het toelaten.

https://companiesmarketcap.com/nvidia/operating-margin/
64% is echt gekkenwerk hoor. Daar durft menig bedrijf niet eens van te dromen. 64% is dan ook een percentage waarvan je mag zeggen: Hier moet je anti-trust onderzoek naar doen. Dat kan je gewoon niet meer negeren.

[Reactie gewijzigd door MrFax op 28 februari 2025 06:14]

Ik denk dat we zoveel betalen omdat teveel mensen persé zo snel mogelijk het beste en nieuwste moeten hebben en te veel mensen bereid zijn daar belachelijke prijzen voor te betalen. Als niet zoveel mensen dit zouden doen denk ik dat de prijzen naar beneden zouden gaan.
Ik vind zijn vergelijking best OK
900 serie had 5 kaarten, hij pakt de middelste.
Nu zijn er al 4 kaarten, zogenaamd high en mid range.. allemaal duurder dan 1000€
En de 5070 is bijna 2x zo duur als zijn 970 van toen.

En dan komen er nog 5060, 5050, TI, Super, etc ect... Als het allemaal zo duur is, waarom maken ze dan zoveel verschillende versies? en klopt het dat het allemaal dezelfde chips zijn? alleen presteren de ene beter dan de andere, en die krijgen dan de stempel 5090 of 5080 enz (maar ik weet niet of dit daadwerkelijk zo is)
Nee het zijn niet allemaal dezelfde chips, ze verschillen in grootte, een 5090 is een veel grotere chip dan een 5080, en is dus ook duurder om te produceren.

De 970 van @Apart heeft 1664 rekenkernen; uitvoering: MSI GeForce GTX 970 GAMING 4G

de 5070ti waarmee die het vergelijkt heeft 8960 rekenkernen, dat is meer dan 5x meer rekenkernen, en dan zijn die rekenkernen ook nog eens vele malen sneller dan die van de 970.

Zelfs een RTX4060 heeft met 3072 al 2x meer rekenkernen dan een GTX970, en dat is een 60 serie.

Zoals ik al zei de mid en high end zijn flink verschoven, ik denk vooral door 4k gaming. Als je op 1080p of 2k gamed heb je helemaal geen RTX5070Ti nodig, dan heb je aan een RX7700XT meer dan genoeg, en die kost niet zoveel meer als een GTX970 10 jaar geleden als je inflatie meerekent.
Maar die van de 5080 en 5070ti zijn wel dezelfde chips?
En ik snap wel meer stroom nodig, dus duurder.
Grotere chips, dus duurder.
Meer rekenkernen, dus duurder.

Maar waarom? moeten we op een punt komen dat 10000€ voor een kaart normaal is, en de PC zelf nog steeds onder 1000€ kan?

[Reactie gewijzigd door pakkiwakki op 27 februari 2025 15:29]

Nee ook die van de 5080 en 5070ti zijn niet dezelfde chips. Kan zijn dat de 5070ti een 5080 is met een paar defecte rekenkernen uitgeschakeld, zo doen de fabrikanten dat. Zo is een 5060 weer een afgekeurde 5070 waar de kapotte rekenkernen van zijn afgesneden of uitgeschakeld.

Je hoeft helemaal geen gpu te halen van 1000+ euro, er zijn ook gpu's van 300 euro. Ik kan zo'n beetje alle games spelen die ik wil, inclusief nieuwe titels, en game op een gpu die mij 2 jaar geleden tweedehands 200 euro heeft gekost. ( 6600XT op 1080p)

Ik denk dat het ook komt door de transitie van 1080p naar 4k waardoor gpu's nu belachelijk veel performance moeten hebben om nieuwste titels op de hoogste settings te kunnen draaien. De gpu's van 10 jaar geleden waren nog lang niet klaar voor 4k gaming, toen 4k gaming meer mainstream werd moesten gpu's opeens veel sneller worden in korte tijd.
Probleem is combinatie van Ray tracing, 4k transitie én 144 herts (vs 60 hertz) transitie.

Die 3 tesamen (en nog eens veel te zware, niet geoptimaliseerde unreal 5 engine), maakt dat er plots een te kort aan performance in kaarten zitten en een bepaalde 'ik moet het hebben no matter what' factor inzit.

Bv in Cyberpunk and black myth wukong kan 5090 op hoogste settings geen deftige framerate (60) creëeren, dat is echt heel slecht. Ik vind het persoonlijk zot dat die games dat uberhaupt doen. Vroeger had je zoiets als vinger aan de knip 'we doen zot met ultra mode, maar het moet speelbaar blijven, zotter doen we niet', maar makers zijn het noorden kwijt.

Ik betaalde 200 euro voor 6950 (oudste versie), daarna geen keus alle kaarten opgefokt door mining, ook 1070 gtx al, dusja 1080 gtx boven m'n budget gekocht, achteraf gezien prachtige keus (had eigenlijk 1080 ti moeten doen maja). Gaat al 7 jaar en 5 maanden mee.

Maar nu begin je dan te denken 'als ik al zoveel betaal moet de kaart lang megaan, goed verbruik hebben 1440p knallen 4k deftig (60 fps) aankunnen, goede Vram hoeveelheid enzovoort... En Nvidia was gewoon te slechte daarop (zeker met 650€ cap die ik had ingesteld, omdat 6950xt die prijs had gehaald en qua performance had wat ik wou (maar niet qua verbruik).

Amd 9070 (xt) is m'n enigste hoop op dit moment. Maar ik ben geduldig, impuslaankopen in zo'n zieke markt doe ik niet tenzij plots uberdeal. Had 7900xt op 700€maar later gecorrigeert naar 650€ (door naderen RDNA4), heeft het net niet gehaald. Een korting en ik was vertrokken.
Ik denk ook dat als ik geen 5070Ti neem, dat ik niet meekan voor een paar jaar met de settings die ik wil.
En ik hoop idd dat AMD zijn prijzen aantrekkelijker zijn, want prijs performance leken ze mij de laatste jaren goed te doen.

Ik denk ook dat console markt er iets mee te maken heeft.
Al sinds ik CS 1.6 minimaal op 100fps en 100hz (CRT) moest spelen, zag ik COD spelers gamen op 60fps omdat het ook beschikbaar moest zijn voor consoles. En ik denk dat de keuze om fps in te leveren voor grafische pracht snel gemaakt is. En dan later afkomen met updates, remasters en remakes dat beter moete presteren op de huidige hardware. Ok, maar had het dan van de eerste keer goed gedaan.
De 6600 van 10 jaar eerder dan de 970 had een stuk of 50 cores.
Een 5070Ti is wel van een wat hoger kaliber dan een 970
Relatief gezien valt dat best mee. De GTX 970 presteert in games uit die tijd best vergelijkbaar met een RTX 5070 Ti.

Control is inmiddels zelfs zes jaar oud en haalt op High 2160p nog steeds geen 60FPS.

[Reactie gewijzigd door Wolfos op 27 februari 2025 15:15]

Is control zo'n zware game? wow. Goed om te weten gekocht omdat ik trailer te max vond, nog geen tijd gehad om te spelen. Zit nu op 1080gtx, ik aas op 9070 (xt)/7900xt.
Processoren zijn ook een heel stuk sneller dan 10 jaar geleden, maar zijn niet, nauwelijks of zelfs goedkoper geworden.
SSD's zijn ook veel sneller en groter geworden, maar zijn een heel stuk goedkoper.

Ik vind dus dat de vergelijking van @Apart wel degelijk hout snijdt
Is niet waar...het blijft een medium kaartje he....en geen top kaart!
Als we zo alles gaan goed praten dan kost de pot pindakaas straks 100 euro.
Een 5070 Ti een instapkaart? Grapjas.

xx60: budget/instap
xx70: mid-range
xx80: high-end
xx90: flagship

en dan zijn er de Ti en super varianten om wat variatie te bieden in ieder segment.

Dat de RTX 5060 nog niet eens aangekondigd is, of dat de prijzen (veel) hoger zijn dan vorige generaties doet hier in mijn ogen helemaal niets aan af.
Voorheen was een generatie omhoog meestal ongeveer gelijke prestaties voor een stapje omlaag. Dus een 970 een 1060. Een 1080 een 2070. Een 3090 een 4080. En als je dat door rekent bij rauwe prestaties had je dus eigenlijk de 5070ti maar een 5060 of 5060ti moeten noemen, en had ie dus ook maar voor midrange prijs verkocht moeten worden. En nu lijkt AMD hetzelfde te gaan doen als je alle geruchten leest. 9070 XT presteert bijna zoals een 7900XTX, dus prijs moet gelijk zijn daaraan. Zo is het nog nooit geweest. Zo gaan er ook nooit heel veel betere kaarten gemaakt worden. Of de 6090 moet straks 6000 MSRP worden want toch wel net iets sneller dan een 5090. En de 6080 gewoon op 4080/5080 niveau, en dan met inflatie enzo weer meegerekend, dus gewoon tegen de 2000 euro MSRP.
Ik hoop echt heel erg op tegen de 7900 XTX prestaties, voor een 7700 of 7800 XT prijs. Zo'n kaart wil ik. Zo'n kaart wilt iedereen. Zulke kaarten kunnen ze niet bijhouden met produceren. Zulke kaarten zorgen ervoor dat volgende generatie kaarten weer door nog veel meer mensen gekocht gaan worden. Dat is waarom mensen gaan overstappen van Nvidia naar AMD. Zelfde prestaties voor hetzelfde geld gaat weer helemaal niks aan extra marktaandeel opleveren.
"Voorheen was", "moeten noemen", "dus prijs moet gelijk zijn daaraan" "zo is..." "zo gaan..." en dan de uitsmijter: "Zo'n kaart wil ik."

... Ik wil net als m'n moeder 50 jaar geleden voor tienduizend gulden een huis aan de rand van het centrum van Groningen kunnen kopen. En weer kunnen roken in de trein. En op straat kunnen lopen zonder ID. En... en.. en.

[Reactie gewijzigd door Alxndr op 28 februari 2025 10:51]

Okay, dan vindt jij het lekker wel normaal om geen prestatie verbeteringen te krijgen en wel meer te betalen.
Ik durf te stellen dat er nog nooit een kaart geweest waarbij de prestaties per euro omlaag zijn gegaan.

Denk na: dan zouden mensen simpelweg de oudere kaarten blijven kopen.

Maar ik zie graag bewijs dat ik het fout heb, dus prove me wrong...
Nvidia 1080 is grofweg gelijk aan de 2070 en de 3060.
1080 msrp $599
2070 msrp $499
3060 msrp $329
Dus een dalende prijs bij dezelfde prestaties.
..dat is precies het tegenovergestelde :?

Je had het over gelijke prestatie bij een hogere prijs...
Msrp 40 series en 50 series is vrijwel gelijk, alleen echte prijzen in de winkels zijn misschien wel dubbel zo hoog. 4070 = 5070 qua rauwe prestaties, 4070 ti = 5070 ti, 4080 = 5080 en dat dan allemaal voor meer geld. Om te janken
De onderkant van de markt wordt opgegeten door iGPU's. Vroeger waren GPU's ook nog relevant voor doorsnee desktops, bijvoorbeeld als je twee schermen nodig had. Maar de beste iGPU's nu zijn al beter dan de midrange 970. Daarom kun je niet zomaar het oude dGPU aanbod vergelijken met het huidige.
Euhm, nee. De iGPU van bijv. een 8700G kan nog niet eens op tegen een GTX 1650 van alweer 6 jaar oud op 1080p, pas als de iGPU op 720p wordt gezet is hij iets beter dan een i3 met een 1650 die nog op 1080p loopt. De GTX 970 is dan nog weer gemiddeld 17% sneller dan een GTX 1650.

En ik vergelijk in mijn post ook de performance niet, enkel het model nummer en de prijzen van nu tegenover prijzen van toen voor zo'n XX70 model. De RTX 5070 gaat ook wel richting de 1000€ kosten jammer genoeg, zeker met de huidige politieke situatie.

[Reactie gewijzigd door Apart op 28 februari 2025 00:48]

Euhm, nee. De iGPU van bijv. een 8700G kan nog niet eens op tegen een GTX 1650 van alweer 6 jaar oud
Klopt, maar daar gaat waarschijnlij heel snel verandering in komen. De nieuwe IGPU's van AMD zijn vergelijkbaar met een 4070 mobile

Als dat eenmaal de standaard ism zullen er denk ik nog weinig echte budget kaarten op de markt gaan komen
Dat is slechts alleen op het ultra-high end AI MAX 395 APU met een 8060S GPU chip. Komt niet eens bijelkaar in de buurt van dezelfde prijsklasse.

Je hebt al een laptop met een 4070 Mobile voor 1200€, een ASUS ROGFLOW Z13 met AI MAX+ 395 kost je 2500€, en van wat ik kan vinden is de GPU van deze APU alsnog iets langzamer in bepaalde taken dan een 4070 Mobile.
inderdaad, ik zie IGPU's meer als budget/instap. Kijkend naar die ryzen AI Max chips, met gpu performance van een 4060.....
Vroeger koste een T-ford geen zak, een mclaren is nu echt wel overpriced....
Ik zou een 970 nu niet in verhouding zetten met een 5070, maar eerder met de 5060 of 5050 (als er zo al ooit iets bestaat). Vroeger was high end een sli setup met 2 of 3 kaarten. Ikzelf gebruikte 2x 980TI in sli. Dat was ook al 1200€... Maar kennissen gingen voor 3x 980TI wat ook al rond de 1800€ zat. En dan vloeken omdat de games niet van dag 1 de sli ondersteunden en vloeken op microstutter met die dure setups...
Inderdaad. Komt door mede door afgezwakte wetgeving en regels.
In 2018 kocht ik voor 379 euro een GTX1060. Dat voelde al als diefstal van mn portemonnee en iets wat we verder moesten afwachten..
Dat was diefstal van je portomonnee.

Heb €300,- betaald meen ik voor een RX580 8GB. En die is met de kennis van nu de betere kaart behalve stroomverbruik.

Mensen kopen te gemakkelijk zonder verder te kijken team groen.
Ik ben altijd team rood geweest dus dat was de eerste optie maar de 8GB versie was toen telkens niet leverbaar. En 4GB was toen niet meer voldoende voor cities skylines met allerhande mods.

Maar tijd en leverbaarheid zal nooit meer een blokkade vormen om nvidia te boycotten met de ontwikkelingen sindsdien.

[Reactie gewijzigd door Chrono Trigger op 28 februari 2025 13:00]

Waarom zouden we Nvidia willen boycotten.
Ze maken vrijwel altijd de beste producten in het hoge segment.

AMD is zeer wisselvallig geweest. De Fury's en 290x VEGA 56 64 waren alleen goed als straalkachel.
Het is ook terecht dat ze met die producten markt aandeel verloren. Maar we moeten als consument wel AMD het succes gunnen als ze het betere product hebben. Zoals de 7700XT en 7800XT tov the 4060TI
De 7900XT was daarentegen tijdens release gewoon DOA.
In welk opzicht DOA? Hij bood geen goede DLSS alternatief, maar was de betere keus in perf/€ in rasterization. Dat is de basis van elke vergelijking imo.

Nvidia maakt de beste producten is alsof je zegt dat McDonald's het beste eten maakt. Branding vertroebeld een objectieve vergelijking, want discrepancy met featureset, drivers, performance en efficiëntie is de laatste jaren verwaarloosbaar geworden tussen de twee. Op losse onderwerpen zal nvidia in min of meerdere mate een voorsprong hebben, maar op sommige zelfs een achterstand. Zoals betrouwbaarheid.

[Reactie gewijzigd door Chrono Trigger op 28 februari 2025 16:18]

De XTX koste maar 100 euro/dollar meer maar was significant beter.
Iets waar AMD duidelijk niet van geleerd heeft kijkend naar de prijzen van de 9070 XT ( non - XT)

[Reactie gewijzigd door BarnET op 28 februari 2025 16:20]

Alleen niet in de praktijk. MSRP zegt tegenwoordig niks, want de markt wordt bepaald door veel meer factoren. In de praktijk was de XTX ~1000 euro en XT ~800 euro. Verhoudingsgewijs waren ze daarmee beiden aantrekkelijk voor zover je die prijzen aantrekkelijk kan noemen.
Frames/Euro was de XTX voor 1000 euro zo slecht nog niet.
De 7900 GRE, 7800XT en 7700 XT waren op dat vlak iets beter. maar ook niet noemenswaardig.

Nvidia heeft de betere features maar je betaald daar aanzienlijk meer voor deze prestaties.'

Als ik kijk naar de specs van de 9070 non XT moet die 100 euro minder kosten. Minimaal.
Dat gaat ook gebeuren. Dit lijkt een terugkerende strategie om hun XT-kaarten beter te positioneren binnen de context van hun eigen line-up. Binnen 2-3 maanden zal je zien dat de non-XT 50-100 euro gaat dalen.
Kunnen ze rustig imperfecte dies sparen de komende maanden. En zoveel mogelijk duurdere 9070XT modellen verkopen. Want met de huidige gekte en problemen in het groene kamp kunnen ze deze voor €699,- makkelijk kwijt.
Dat is de schuld van mensen die persé het nieuwste willen hebben en bereid zijn daar belachelijke prijzen voor te betalen, als niemand het koopt voor scalpers prijzen gaan de prijzen vanzelf naar beneden.
Nou ja het heeft wel twee kanten he. Je kan als bedrijf ook kiezen om je wat consument vriendelijker op te stellen. Maar winst gaat toch voor alles..
Ik begrijp het wel. Als bedrijf kan je ze voor de MSRP te koop zetten, maar dan is de voorraad binnen een paar minuten op en staan ze voor 2, 3 of 4x de prijs op Marktplaats of Ebay. Dit zijn bedrijven die hun medewerkers e.d. moeten betalen, die sponsor ik nog altijd liever dan een willekeurige scalper die er echt alleen maar voor persoonlijk belang zit.

Aan het einde van de rit is het inderdaad vraag en aanbod. En het probleem zit in de aanbod kant (dus bij AMD of Nvidia zo je wilt): ze produceren domweg niet genoeg kaarten (bewust of onbewust).
Je kan ook gewoon ervoor zorgen dat je voorraad hebt. Ben absoluut geen Apple fan, maar als zij een product lanceren kan je het gewoon meteen bestellen op de website en heb je het in je handen binnen een week. Als iPhones maanden na release nog altijd niet vlot te krijgen waren, dan zouden die ook gewoon gescalpd worden. Maar je kan ze gewoon altijd vlot krijgen vanaf dag één dus scalpers proberen het niet eens.

Daar tegenover staat dan Nvidia die voor hele landen soms maar enkele tientallen kaarten heeft voorzien. Ja, daar heb je geen glazen bol voor nodig he. Dan weet je wat er gaat gebeuren. Dan hadden ze beter nog een maandje of twee wat stock gebouwd om dan een echte release te doen. Waarom kan Apple dat wel en Nvidia dat niet? De tijd van de grote chiptekorten is echt wel voorbij hoor, daar gaat het echt niet aan liggen.

Volgens de geruchtenmolen doet Nvidia het met opzet om het idee te geven dat er een enorme vraag is naar de nieuwe generatie, en dat binnen een maand of twee de sluizen opengaan en alles vlot verkrijgbaar gaat zijn (nadat dus de toon gezet is). Ik weet niet of ik het zo helemaal geloof, maar ik kan eigenlijk ook geen andere verklaring verzinnen waarom 2.5 jaar na de 4090 plots nu-nu-nu die 5090 op de plank moest liggen met alle voorspelbare gevolgen van dien.
Alsof winkels niet meer voorraad willen. Die verkopen er natuurlijk ook liever meer dan minder.

Het aanbod loopt gewoon achter de vraag aan, en productiecapaciteit bijbouwen is kostbaar en duurt lang. Als de AI hype een beetje afkoelt zal er weer veel meer voorraad zijn, en dan gaan de prijzen ook gewoon omlaag.
Hoe kunnen winkels daar precies voor zorgen, dat ze voldoende voorraad hebben? Want daar gaat het hier over. Als Nvidia of AMD niet levert, dan kunnen we winkels daar niet echt wat aan doen. De meeste winkels hebben een handje vol kaarten gekregen, als ik de Tweakers podcast van vorige week mag geloven.
Er gaan (grove schatting van mijn kant) zo'n 350 BlackWells uit een 300mm wafer. Dat is best weinig.
Waarom toch (nog) steeds de illusie dat een bedrijf er voor z'n klanten is of dat de klant koning is? Een bedrijf is om geld te verdienen voor de eigenaar = aandeelhouders. We hebben het hier niet over non-profits of liefdadigheidsinstellingen.
Dát idd. Een bedrijf heeft maar 1 reden om überhaupt te bestaan: winst maken.

Kijk naar de blokker, iedereen wist dat het onderuit zou gaan, maar de verkopen in de winkel gingen door alsof er niets aan de hand was. De reden waarom is simpel: een bv heeft maar 1 bestaansrecht en dat is die economische activiteit, als de handelend bestuurders die ene taak niet uitvoeren zijn zij daarvoor aansprakelijk.

Ik heb altijd het idee dat mensen liever emotioneel dingen roepen, omdat ze gewoon niet weten waar ze het over hebben. Bedrijven maken winst, dat is letterlijk hun enige doel en bestaansrecht
Je kan als bedrijf ook kiezen om je wat consument vriendelijker op te stellen. Maar winst gaat toch voor alles..
Dat kan, maar dan wordt de voorraad opgekocht door scalpers.. en heb je als consument alsnog het nakijken.
Nou inderdaad het argument ja maar anders doen andere het alsnog gaat gewoon niet op.. Vraag en aanbod is iets gezonds een beperkte kleine voorraad houden en dit voor 1800-1900 euro verkopen is gewoon misselijk en kan je doen omdat er inderdaad weinig aanbod is maar maakt het geen net zakendoen. Niemand zou het raar vinden of een probleem mee hebben als bijvoorbeeld een webshop een kaart van 899 voor 1100 euro verkoopt omdat de vraag heel groot is. Zelfde als in Afrika flesjes water gaan verkopen voor 50 dollar(voeg valuta toe) en dan zeggen ja het aanbod en vraag is er naar en ik kan dit doen. Ik snap dat water een eerste levensbehoefte is maar allicht voot mensen hun hobby/uitvlucht ook het verschil kan maken letterlijk tussen leven en dood. Ikzelf heb hele donkere tijden doorstaan ook mede door mijn hobby. Bepaalde dingen zijn gewoon niet netjes en iedereen die dit goedpraat wast zn handen gewoon in onschuld en wil over de rug van klanten snel rijk worden. HET IS NIET ACCEPTABEL. Het argument ja maar je hoeft ook niet altijd het nieuwste van het nieuwste gaat ook niet op want er is artificieel een tekort gecreëerd op bijvoorbeeld rtx 30 en 40 series dat maakt dit ook gewoon zo ziek en verkeerd. Daardoor word de waarde van 2e hands hardware ook helemaal opgeblazen want mensen willen die achterlijke prijzen compenseren en doorrekenen aan hun kopers (bijvoorbeeld via tweakers/marktplaats).

[Reactie gewijzigd door Lucifix op 27 februari 2025 14:50]

Je hobby is World of Warcrack en een mount was te duur?
Wat rook je gap?
Ik probeerde je alleen maar uit de tent te lokken. Ik was namelijk / eigenlijk wel benieuwd naar wat voor soort hobby jij beoefende en wat de rol van overpricing daarin was.
Is toch niets onvriendelijks aan als jij iets voor een prijs aanbied en blijkbaar zijn er meer dan genoeg klanten die dat er voor willen betalen, je zou als bedrijf toch gek zijn als je dan minder zou vragen? Zeker als ze nu al als zoete broodjes over de toonbank gaan. Ik zou ook graag een 5070ti voor 300 euro zien maar begrijp zolang er zoveel mensen zijn die daar 1000+ euro voor betalen dat niet gaat gebeuren.
Dus als jouw werkgever vraagt of je 1000 euro netto per maand meer wil verdienen zeg jij nee, omdat je de kosten van de klanten van je werkgever lekker laag wil houden?
Kan je mij dit even toelichten ?

Ik zit momenteel nog op de gtx 1070. Als ik op basis van jouw logica uit ga dan zou ik beter de 4070ti ( super ) kunnen nemen dan de 5070 ti ( even prestaties, en negatieve nieuwsberichten links gelaten ).

rtx 5070 ti gemiddelde prijs wat ik online tegen kom is 1199 t/m 1599

rtx 4070 ti super gemiddelde prijs wat ik online tegen kom is 980 t/m 1389

Ik heb inmiddels 3 generaties aan nvidia kaarten overgeslagen, de gtx 1070 ti heb ik aangeschaft voor 550,- toen de rtx 2080 net een maandje of twee uit was.

Ik wil nu persé de nieuwste kaart hebben omdat ik daaraan toe ben, dus eigenlijk zeg je nu het is je eigen fout dat je nu de nieuwste kaart wilt hebben, daardoor gaan de prijzen alleen maar omhoog.
Als je iets koopt wat je veel te duur vind maar het toch koopt, terwijl je het eigenlijk helemaal niet nodig hebt, dan zie ik dat als je eigen fout. Je stemt met je portomonnee.
Hopelijk komt de 9070XT beschikbaar voor €700,- dan heb je wat te kiezen.
Prijzen zijn na 2 jaar amper lager dus die vlieger gaat niet op.

Scalpers zijn makkelijk aan te pakken, gewoon niet kopen.

[Reactie gewijzigd door TheDeeGee op 27 februari 2025 16:04]

4060/5060 zijn absoluut niet het nieuwste maar toch zijn ook die kaarten heel slechte value, en nog goedkoper is bijna onmogelijk (bij Nvidia).

Dus is niet alleen schuld van early adopters Nvidia maakt ook met opzet minder gpu's om maar AI te kunnen maken. Zo winnen ze (op korte termijn) op twee gebieden, AI verkoop boomt nog meer en gpu markt heeft hogere winstmarge per kaart, zonder dat de markt wafers zuigt. Nadeel: je mindshare kan er serieus van onder druk te komen staan.
Op zich is het logisch voor een bedrijf om de winstmarge te maximaliseren.

Maar als er genoeg voorraad is, heeft scalpen geen zin. Dus hopelijk heeft AMD genoeg voorraad opgebouwd met de vertraging.
Een ding heeft AMD bij de vorige releases niet gedaan: voldoende voorraad hebben.
Dat is nog vriendelijk, voor enkele dagen heb ik een webwinkel een 5090 aangeboden zien wezen hier op T.net voor ~6500 euro, daar heb je een meer dan redelijke tweedehands auto voor.
Zolang AMD zorgt dat de resellers genoeg voorraad hebben, zal het wel wat loslopen denk ik. En de geruchten gaan al dat er al winkels in januari al kaarten hadden, of dat waar is geen idee maar ik hoop het zeker!
Mwhah, dan mag je er nog wel een schep bovenop doen. De dollarprijs is namelijk zonder BTW. ;)

Doorgaans mag je de dollarprijs maal 1.21 doen om grofweg op de (inclusief) startprijs in euro uit te komen, dus ergens nabij de €850 als ze de marges niet opdrijven.

Aangezien deze dingen al sinds begin januari stof liggen te happen bij leveranciers heb ik nog de stille hoop dat de uiteindelijke verkoopprijzen niet absurd gaan worden, maar daar komen we begin volgende maand wel een keer achter..

[Reactie gewijzigd door D4NG3R op 27 februari 2025 13:42]

Die had ik al meegerekent. ;)
AMD rekent de dollarprijs om naar euro's en telt daar vervolgens nog 21 procent btw bij op. Dat wil zeggen dat de getoonde Radeon RX 9070 ongeveer 750 euro kost. De goedkoopste Radeon RX 9070 XT kost dan ongeveer 808
750 + 25% = 937.50
808 + 25% = 1010.

Maar je hebt gelijk, het zou me ook niet verbazen als ze er overheen gaan.
Er liggen er geen stof te happen. Er is namelijk nog geen release geweest.
Dat is tegenwoordig overal zo. De graaicultuur is nu al jaren, en bedrijven schamen zich er ook niet meer voor.

Als iets 5 euro kost met 2 euro winst, dan is dit niet genoeg. Het moet 10 euro zijn, want dan heb je een mooie winst, en mensen betalen het toch wel.

Deze prijzen van videokaarten is echt niet meer normaal. Kan nog herinneren dat 200 euro echt een groot bedrag was, en dat dit high-end werd genoemd. Nu is 200 euro low-end of niet geschikt om te gamen.
De wereld draait om geld. Niet om redelijkheid of netheid. Dat is al 50 jaar zo. En ik denk dat we dat ook zeker de komende 50 jaar niet gaan veranderen.

Wen eraan, en doe je aankopen slim. Scheelt een hoop geld waarmee je weer andere leuke dingen kan doen.
Lol. De laatste 50 jaar? De Gold Rush in Californië is bijna twee eeuwen geleden, en toen kon je een pikhouweel ook prima verkopen voor $10 in plaats van $5. Tulpenbollen waren nog eerder. Vraag en Aanbod is van alle tijden, en als mensen zichzelf gekmaken dat een aankoop absoluut essentieel is dan exploderen de prijzen.
Het is ook een geval van aanbod. Als er genoeg voorraad geleverd is (er gaan al geruchten dat ze in januari al in de schappen lagen) dan komt er ook vanzelf een reële marktprijs. Niet alleen vanwege concurrentie, maar ook qua bedrijfsvoering:

Met voldoende voorraad kunnen ondernemingen ook gaan gokken van: we kunnen of 100x €5 winst maken of 250+x €2 winst. Daar ga je niet op gokken als je voorraad beperkt is.
de US prijzen zijn zonder VAT maar die betaal je wel.Misschien dat het per staat verschilt
Ja, het is daar zo krankzinnig dat zelfs de prijzen in de supermarkt op het schap vaak ex vat staat, dus kom je bij de kassa nog wel eens voor een verrassing te staan.
Zolang er genoeg stock is denk ik niet dat dat zou gebeuren.
Dan zou de kaart duurder zijn dan de 7900xtx die beter is. Of zie ik dat verkeerd
En wat als je voor inflatie corrigeert ?
High end was vroeger 500 euro, nu 5x zoveel. In dezelfde tijd is het geld de helft minder waard geworden.
dat scalpen zal alleen lukken als er geen aanbod is. als er aanbod is, dan zal de vrije markt het probleem van scalping snel oplossen.
Moeten we niet -25% import tax? Wij hebben toch geen Trump tariff tax.
Ach ja, dan gaan we, net als voor zoveel tegenwoordig, even naar Duitsland.
Het is niet per se 'scalping' wanneer een webshop meer vraagt dan de adviesprijs. Dit valt onder vraag en aanbod. Blijkbaar is de vraag groter dan het aanbod, en het betreft geen eerste levensbehoeften. Of zie ik iets verkeerds?
Of zie ik iets verkeerds?
Ja, helaas wel... Bijvoorbeeld; ook nu alle webshops honderden 9800X3D's op voorraad hebben liggen de prijzen nog steeds flink boven de adviesprijs. Dan zie je toch dat "de vraag hoger is dan het aanbod" hier duidelijk geen factor is?
Dat valt toch wel mee? In de pricewatch bieden de eerste 10 webhops het allemaal voor een meerprijs wat op of onder de +10% zit van het adviesprijs incl. verzendkosten. Dat vind ik niet flink boven een adviesprijs. Adviesprijs is ook maar een theoretisch bedrag, bedacht door een fabrikant/leverancier.

Wederom vraag en aanbod en dat ze nu flink voorraad hebben is niet zo gek toch. Denk dat veel consumenten terecht nog even aankijken. Met zoveel voorraad zou ik als consument nog zeker even wachten, want de prijzen zullen wel weer dalen.
Volgens die logica zou de Albert Heijn ook de prijzen van melk moeten verlagen. Daar hebben ze ook honderden pakken op voorraad.

Je moet kijken naar hoeveel dagen omzet er in voorraad is, en dat moet je ook afzetten tegen de houdbaarheid. AH gooit een 35% sticker op producten die vandaag de winkel uit moeten, maar een 9800X3D is volgende maand ook nog te verkopen.
Allemaal leuk en aardig, maar met 'de Appie' vergelijken is wel heel letterlijk 'appels met videokaarten' vergelijken... :+

Wat wel relevant zou zijn is als jij een tech product weet te noemen wat overal ruim op voorraad was maar toch overal 10% of meer boven de adviesprijs bleef, ik zou er geen kunnen noemen over de afgelopen tientallen jaren, behalve 'de idioterie van nu' dan...
Blijkbaar is de waarde van een 9800X3D dusdanig dat de adviesprijs te laag is. Dan is dit gewoon een correctie door de markt.
Daarom halen wij onze computer hardware uit het buitenland veel meer kans op een normale prijs als je niet in de Benelux of Duitsland besteld.
dan zal te iets goedkopers binnen de eu moeten vinden, anders betaal je invoer en btw. Spanje misschien?
Of rijdt naar Duitsland voor andere aankopen/vakantie en koop een kaart in een echte winkel?
die kun je ook online krijgen zonder problemen (als er internationaal bezorgd wordt). Maakt soms een beetje uit in prijs
als ~800 klopt is het toch weer 'nvidia -€50' idee. AMD moet echt lager gaan zitten om marktaandeel te winnen voor de langere termijn.
Dit jaar hoeven ze de prijs niet zo ver te verlagen, aangezien Nvidia een paperlaunch heeft en de meeste mensen al een of twee jaar hebben gewacht op de 5000-serie. Bovendien komen er nieuwe titels uit, zoals Monster Hunter Wild, waarvoor je een krachtige videokaart nodig hebt.

Mensen zullen massaal kopen als de prijs rond de €1100-€1300 ligt, afhankelijk van de boardpartner, hoeveel koeling erop zit en of er RGB-verlichting aanwezig is, aangezien een 5070 Ti momenteel al €1400 kost als je er morgen één in je pc wilt hebben.

AMD is ook gewoon een commercieel bedrijf met aandeelhouders; ze gaan niet uit liefde 300 euro lager verkopen dan hun concurrent omdat ze ethisch zo goed zijn. Voor X3D-chips betaal je momenteel ook een premium bij AMD.
Bovendien komen er nieuwe titels uit, zoals Monster Hunter Wild, waarvoor je een krachtige videokaart nodig hebt.
Aanbevolen systeemeisen:
NVIDIA® GeForce® RTX 2060 Super(VRAM 8GB) or AMD Radeon™ RX 6600(VRAM 8GB)
* insert Captain America "I don't think I will" meme here*

[Reactie gewijzigd door The Zep Man op 27 februari 2025 14:30]

Ja, systeemeisen zien er mooi uit, maar mijn 7900XTX heeft het toch wel zwaar op bepaalde stukken. En niet iedereen speelt op minimale instellingen in 1080p met 30 FPS, hè.

Draai maar de benchmark van Wild, dan zul je wel anders fluiten. Ik heb de bèta gespeeld met een 3070 op 3440x1440, met DLSS Performance en alles op medium, en ik haalde met moeite 60 FPS. Het spel zag er overigens niet uit op die instellingen…

Met de 7900XTX is het echt een wereld van verschil. Pure raw performance, geen AI-upscale troep gewoon 90 FPS average.

[Reactie gewijzigd door Eren op 27 februari 2025 13:54]

Ja, systeemeisen zien er mooi uit, maar mijn 7900XTX heeft het toch wel zwaar op bepaalde stukken. En niet iedereen speelt op minimale instellingen in 1080p met 30 FPS, hè
Kan ook een "jij"-probleem zijn (probleem in jouw specifieke situatie):
This game is expected to run at 1080p / 60 fps (with Frame Generation enabled) under the "Medium" graphics setting.
Als meer mensen dit hebben dan is het gewoon een brak geoptimaliseerd spel. Dan kan je verschillende dingen doen: accepteren, meer hardware ertegenaan gooien, of het spel niet kopen en spelen.

[Reactie gewijzigd door The Zep Man op 27 februari 2025 14:32]

Het is een brak geoptimaliseerde game, de CPU is het probleem. Zelfs met een RTX 4090 loop je al snel tegen limieten aan.
Daniel Owen heeft hier een video over gemaakt.

Probleem is de engine die gebruikt wordt, dezelfde als bij Dragons Dogma 2 - een game die ook belabberd draait, die engine gaat gewoon niet lekker om met open world games.
Daarmee is het dus geen jij-probleem.

De uitgever gaat uit van het toepassen van frame generation om de 60 fps te kunnen halen, op 1080p medium nota bene.

Voor frame generation is het een eis om in de basis reeds 60 fps te hebben, om het prettig speelbaar te houden.

Dan heb je als ontwikkelaar helaas gefaald in het begrijpen van de basics.
Heeft niks met ethisch goed zijn te maken. AMD’s marktaandeel is bizar laag.

Nvidia-50 euro werkt niet. Kijk maar in de steam hardware survey.
Kan wel zo zijn....maar dan word er niks gekocht he.
Je moet wel heel dom zijn als meer als 650 euro gaat betalen voor deze kaart.
Als ze effectief verkrijgbaar zijn aan die prijs is het alleszins veel beter dan wat Nvidia nu niet te koop heeft staan aan 2000+ euro.
Wacht wat maanden, markt en prijzen zal dan beter zijn voor de 50 serie.
het product is nog niet uit, geen idee van power/performance en het is wederom weeral besloten...
typische reactie hier. Laat staan dat belachelijke -eur idee...

de 5070ti staat op 889eur (laat staan de effectieve AIB prijs of scalp prijs on top) , kan je rekenen?

ik begrijp ook niet waarom constant diezelfde prijsgeruchten in het niews moeten komen, dezelfde opnieuw en opnieuw reacties blijven steeds toestromen. Wacht gewoon af naar de effectieve review en prijs setting en "be done with it" dit is alsof het steeds extra site clickbait is met hopeloze discussies uit buikgevoel.

[Reactie gewijzigd door d3x op 27 februari 2025 19:38]

Waardeloze prijzen. Ze moeten maximaal 599 dollar zijn en maximaal 700 hier.
We willen toch betere of soortgelijke performance van vroeger, voor een goedkopere prijs?
Mja, ik wil ook een geldboom in m'n tuin, maar die gaat er helaas niet komen.

Sillicon wordt duurder en verbeteringen in price/perf voor dezelfde prijs zijn steeds minder van toepassing. Zo zijn de Series X en PS5 consoles nooit serieus in prijs verlaagd (PS5 juist verhoogd, lol) en laatst kwam de PS5 Pro voor 700 dollar op de markt, zonder disc drive. Ter indicatie: de vorige generatie had de PS4 Pro dezelfde launch price als base PS4 (400 dollar).

[Reactie gewijzigd door IlIlIllII op 27 februari 2025 14:18]

Dat hele duurder verhaal is een hoop onzin. AMD wil marktaandeel dat moet je kopen met minder winst.
En aangezien Intel bevestigd heeft dat ze geen verlies maken op de videokaarten maar ook niet veel winst betekend dat dus dat ze makkelijk een kaart voor 400 (970 en 500 (9070XT) op de markt kunnen knallen.
Er zit gewoon meer winst dan ooit tevoren op videokaarten.
Dat hele duurder verhaal is een hoop onzin.
Ik gaf net al de Xbox/Sony consoles als voorbeeld. Wafer prices van TSMC, waar NVIDIA en AMD afhankelijk van zijn, worden alsmaar hoger. Komt dat door inflatie? Vraag/aanbod? TSMC die meer winst wilt zien? Waarschijnlijk alledrie + talloze andere redenen.

Ik geef je ook zeker geen ongelijk wat betreft de rest van je comment. NVIDIA, AMD en Intel doen er graag nog een plasje overheen en naaien de consument waar het kan.
Waarom zou AMD marktaandeel verkiezen boven winst? Dat is noch korte-termijn noch lange-termijn strategie, dat is gewoon winst weggooien. Marktaandeel is alleen waardevol wanneer het leidt tot loyale klanten, maar loyale klanten zijn nooit het gevolg van korting.
Omdat AMD zelf heeft aangegeven naar een marktaandeel van 40+% te willen. Dat moeten ze dus kopen. Alle gpu markt goodwil is verdwenen afgelopen jaren en AMD heeft nog maar een marktaandeel van 10% en zakt kwartaal na kwartaal wat dus betekend dat mensen liever duur Nvidia kopen ipv iets minder duur AMD.

Als AMD zo door gaat is hun GPU divisie binnen 2 jaar niet meer rendabel en dus geen bestaansrecht meer.

Korte termijn winst is waar de hele wereld momenteel lijkt naar te graaien tot het geld op is en mensen geen geld meer over hebben voor andere zaken en dan gaan de bedrijven die luxe producten verkopen met bosjes vallen en de AMD GPU divisie is er daar 1 van En als gamen op een pc te duur word dan zijn er andere markten die daarvan de nadelen gaan voelen zoals CPU/chipset/moederbord en alle andere componenten.

Veel mensen overwegen serieus te stoppen met gamen of pc's in zijn algemeen omdat het simpelweg niet meer te betalen is. Een goede niet eens high end gpu kost ondertussen als een maand inkomen a minimumloon... ooit was dat nog niet een derde. De balans is dus compleet zoek en AMD gaat die pijn als eerste voelen als ze niet een betaalbaar gewild product neerzetten.
een 5070 TI kost letterlijk meer als ik in een HEEL JAAR aan eten uit geef...
Wanneer ze dus geen pricewar starten op de PC markt en daarmee dus klanten naar de consoles drijven, is ook een manier om de 40% marktaandeel te bereiken ;)
Een aanzienlijk deel van de pc markt zal nooit en te nimmer een console ipv pc nemen. Die gaan gewoon een andere hobby zoeken.
Met welke kaarten van Nvidia zouden de RX 9070 en RX9070 XT moeten gaan concurreren? Dat mis ik vaak in nieuwsberichten.
Nvidia RTX 5070 & 5070 TI als het goed is
Die zitten na bijna op 1,5x de prijs van de AMD, weet ik wel welke ik zou kopen.
AMD heeft zelf gezegd dat mensen onder 700$ kopen. Dus als die hier 800 gaat kosten is die hier DOA... in amerika hebben ze niet zo'n waanzinnige VAT te betalen... hier wel... dus ofwel moet de VAT naar beneden ofwel moet de msrp voor europa naar beneden.
Zoals je zelf al aangeeft, VAT.
$699 is onder de $700.
$699 = ~€668.
€668 * 0.21 = ~€140
€668 + 140 = €808

Kans is enorm klein dat het topmodel flink minder dan €800 gaat kosten. Kan natuurlijk niet gaan verwachten dat ze flink minder winst gaan maken in Europa dan in Amerika.
Dat niet alleen een Amerikaans loon is gemiddeld flink hoger als dat het hier is. Een 700 is dus een veel kleiner aandeel van je loon als dat het hier is.
700 daar voelt eerder als 450 hier.
in amerika is de gemiddelde belasting op je loon ook maar 35%... maar daar staat wel tegenover dat je zelf voor je sociale zekerheid moet zorgen (voor het grootste gedeelte toch)

Maar goed... ondertussen zijn er meer officiele prijzen bekend... 599$ voor de XT en 549$ voor de gewone... die 599 zorgt er voor dat die nog net binnen de 700€ valt...
Nu hopen dat er genoeg van is, zodat verkopers als Megekko en Azerty niet er vrolijk 500 euro boven op doen.
Ja maar echt zo. Ik boycott Megekko en Azerty voortaan.
Megekko doe ik ook al een tijdje sinds die prijsafspraken-gate. Maar Azerty zag ik altijd als betrouwbaar en autentiek. Wat voor dirt op hun reputatie heb ik gemist?
Ook Azerty heeft zijn prijzen gelijk staan met Megekko zover ik met begin release kon zien van de Nvidia kaarten. En vanaf morgen verwacht ik dit ook weer eens te zien met Amd kaarten.
Voor zover marktwerking, prijsafspraken is een beter woord.

Maar zoals gezegd, liever dat het geld naar Azerty gaat dan naar scalpers.
Het zijn geen "prijsafspraken" als de onderlinge prijsafstemming publiekelijk gebeurt. Dat was altijd al zo, bij bakkers op de markt. Webshops en de Pricewatch is identiek hetzelfde - Azerty hoeft niet ver te kijken om te zien wat hun concurrentie vraagt.
Zie alsnog scalping prijzen maar dan via een webshop. Megekko en Azerty heeft mij als een klant verloren. Btw aAlternate kan er ook wel wat van.
Tja, als zij duur moeten inkopen gaan ze die kaarten echt niet onder de inkoopprijs verkopen om jou een lagere prijs te geven.
Azerty rekent prijzen ver boven advies voor de RTX 5000 serie omdat er nauwelijks voorraad is en heel erg veel vraag. Bijna elke winkel doet dat momenteel. Daar worden Tweakers blijkbaar boos van, omdat ze naar eigen zeggen "snappen hoe vraag en aanbod werkt" maar het blijkbaar niet aankunnen wanneer er in de praktijk ook echt een schaarste optreedt. Dat mag niet en elke webwinkel die zijn prijs op de schaarste aanpast is "respectloos" en moet geboycot worden.
Als je daar wat van zegt dan is het gelijk "ik mag er toch over klagen" en ja natuurlijk mag dat, maar een webwinkel boycotten om wille van hun prijsgedrag tijdens schaarste vind ik persoonlijk, zacht gezegd, niet heel erg slim. Bij een product zo duur als videokaarten zijn de klantenservice en garantie afhandeling een veel belangrijkere criteria, maar dat lijkt niemand te boeien. Gewoon even wachten tot de schaarste voorbij is en dan een videokaart kopen is ook geen optie.

Dit is ook wat met je de lockdowns zag, toen thuiswerk spullen zoals webcams ineens heel erg duur werden en WC papier continu uitverkocht was of duur was. Alleen nu het over videokaarten gaat is het "scalping"

[Reactie gewijzigd door youridv1 op 27 februari 2025 16:44]

het verhaal van vraag en aanbod snap ik helemaal, ik denk iedereen wel die economie heeft gehad, Service en ondersteuning vindt ik persoonlijk ook belangrijk en is zijn geld wel waard weet ik ujit ervaring.

Wat veel ergers is dat men bewust een hype creëert want verhoudingsgewijs weinig vooruitgang is gebleken uit diverse reviews. Maar bewust zorgen dat de productie laag is om zo te cashen is vanuit de consument gezien wel erg, (vanuit de fabrikant gezien logisch ) wat dat betreft zorgt AMD hopelijk voor flinke opschudding.

Het zou leuk zijn als tweakers eens een test deed met div settings hoe men dat ervaart, je kan een frame pakken en dat bekijken op 1080 1440 etc en ja dan zie je verschillen maar ga je met alle toeters en bellen aan verschil zien als je in de heat van het spel zit ? maar ja dat is ook subjectief....
Bewust zorgen dat de productie laag is, is niet aan de orde. De bottleneck is de capaciteit bij TSMC.
De enige reden dat ze het doen, is omdat scalpers het via hun backend toch sneller gaan inkopen dan een gemiddelde klant. Tja, dan kunnen ze net zo goed zelf de winst opstrijken, omdat het toch al duurder bij de klant terechtkomt.
Dat verandert weinig aan wat ze doen. Je zou ook scalpers kunnen weren of het lastig maken.
Dat doen ze al. Ze limiteren zo goed als ze kunnen het aantal stuks per klant. Maar je kan niet zo veel als webwinkel zonder de AVG te schenden

Wat wil je dan? een achtergrond check of je wel een echte consument bent? Volgensmij gaan dan bij alle tweakers ook de nekharen overeind

[Reactie gewijzigd door youridv1 op 27 februari 2025 14:24]

Het ging over verkopen via hun backend. Daar heeft de consument toch helemaal geen toegang toe of mis ik iets?
Nee, klopt. Dat detail had ik even gemist.
Je kunt als webwinkel prima kortingsprogramma's hebben. "1x GPU korting per 2 jaar" is een valide korting. "Upgrade garantie" waarbij je een eerder gekochte 4080 met korting kunt upgraden idem. Onder de AVG mag je daarvoor de benodigde gegevens bewaren, op basis van vrijwilligheid.
Klopt niet: toen bvb de 5700xt uitkwam waren de Europese prijzen ook bizar veel hoger dan msrp, maar dat kwam niet door scalpers: op de tweedehandsmarkt kreeg je er honderden Euros minder voor dan in de winkel.

De echte reden: nvidia beschermen. De prijzen van AMD worden doorgaans verhoogd door Europese retailers omdat je moeilijk een 5070 aan 1000 euro kan verkopen als de 9070 die gelijk presteert 700 euro kost. De gravy train van nvidia moet blijven lopen, en dus verhogen board partners en retailers de prijs gewoon lekker.
Heb je daar toevallig een bron van? Mijn alu hoedje alarm gaat af... Als dit echt zo is dan zou het hoog tijd zijn voor een onderzoek naar deze concurrentievervalsing.
De enige manier hoe ik me dit namelijk voor kan stellen is als Nvidia dat afdwingt. Buiten momenten van schaarste zoals nu zit er namelijk niet zoveel marge op die videokaarten voor de retailer. En zeker niet veel meer dan bij AMD... Waarom zouden ze liever Nvidia verkopen dan AMD? Als ze er echt zoveel bovenop zouden doen dan zou er wel minstens één zijn die er wat minder bovenop doet en binnen loopt met alle orders. En daar reageert de rest dan dus weer op, en dus houdt deze hypothetische situatie helemaal geen stand. Tenzij er maar een partij of kleine groep is die alle aanbod bepaalt.
Zever gezever. Als dat zo zou zijn dan open ik volgende week een webshop waar ik alleen AMD verkoop en dan kopen alle tweakers bij mij
Ze hebben de grootste kans in tijden en dan gaan ze Nvidia MSRP -50$ doen. Terwijl dat keer op keer heeft geleid tot negatieve reviews waardoor ze na een aantal maanden alsnog de prijs moeten verlagen.
Het zou ongelofelijk stom zijn als AMD dit doet.

Als ze marktaandeel willen winnen dan zetten ze deze kaart voor 500-550 op de markt. Dan is de marge maar een keer wat lager, de volgende keer kunnen ze misschien meer vragen.
Het zou ongelofelijk stom zijn als AMD dit doet.
Dat klopt, dus je kunt er bijna gif op innemen dat het gaat gebeuren. Volgensmij staat bij zo'n beetje iedere product launch van AMD ná de RX 480 "prima product AMD, maar de prijs is te hoog in verhouding tot Nvidia" bij iedere reviewer
Nu hopen dat AMD ècht een keer gebruik maakt van de gelegenheid om marktaandeel af te pakken. De aandeelhouders zitten er voor de lange adem verwacht je dus die zouden ook baat moeten zien in de strategie om nu lager in te steken met wellicht zelfs negatieve marge, om later de vruchten te plukken van structureel groeiend marktaandeel. Die bevestiging kunnen ze ook vinden in de eventuele effectiviteit en betrouwbaarheid van FSR4 en de verhoogde raytracing performance waar Nvidia zo agressief op inzet. Idealiter gaan ze dan gewoon voor 550-600 usd msrp voor de XT-versie en zorgen ze dan ook voor redelijke leverbaarheid.
Wat heb je aan marktaandeel als je daarna om je verlies te compenseren weer extra veel moet gaan vragen en je klanten net zo makkelijk weer het andere merk kopen?

Dat werkt misschien voor nieuwe (en onbekende) merken maar iedereen kent AMD wel die zich met (PC)gamen bezig houdt...

[Reactie gewijzigd door watercoolertje op 27 februari 2025 13:44]

Het helpt om hun van hun negatieve imago af te komen. Op zowat elke AMD/NVIDIA post hier (en vrijwel elke andere site) loopt er wel iemand te drammen over 'slechte' AMD drivers. Vrijwel altijd zonder daar verder op in te gaan, blijkbaar zijn ze gewoon slecht.

Als je dan vraagt waarom blijft het stil of krijg je een voorbeeld van jaren terug (zoeken naar een probleem ipv dat er daadwerkelijk een probleem is). Bij NVIDIA natuurlijk precies hetzelfde, als je een probleem wil vinden kan Google je wel helpen. Sterker nog de nieuwste kaarten zijn zojuist uitgekomen met (o.a. driver) problemen.

Als AMD zorgt dat er een beetje weerwoord op dat soort comments komt en de twijfelaars een goede ervaring met een bang a buck kaart hebben dan kopen ze de volgende keer met een gerust hart weer AMD.
(Ik gebruik zelf jaren kaarten van beide partijen met zo goed als geen problemen, zeker geen grote problemen die voorkomen dat ik kan gamen)
Mijn probleem met AMD's drivers zijn vooral aan game-developers te danken die hun zooi alleen maar optimaliseerde voor Nvidia kaarten. Want DLSS en ray tracing!

AMD is öke" met RT, niet zo goed als nvidia en daar ligt dus ook een groot deel van de marktaandeel voor game devs.
Overigens voor VR Gamen is AMD ook qua drivers best al wat jaren slecht met 10Bit streamen van video. Zie hier deze post die na meer dan een jaar (en sinds december als extra github issue werd geplaatst) pas aangekondigd werd dat er een bugfix uitkomt. Nu nog wachten op de release ervan.. https://github.com/GPUOpen-LibrariesAndSDKs/AMF/issues/520
Hierover gesproken, zoek maar eens op de termen "AMD VR" en "AMD Ray Tracing", meeste problemen liggen toch echt bij de drivers en soms zie je ook eens dat mensen de game developer de schuld geven van crashes/performance issues.
Heel soms zie je zelfs dat het te maken heeft met Windows 10/11, een nieuwe Windows update brengt ook nog regelmatig problemen. EN anticheats hebben een spuughekel aan AMD's drivers. Fortnite raad bij opstarten zelfs nog de driver "2023.12" aan, wat gewoon dik een jaar geleden is en is echt slecht met performance op 2024.12 (de laatste "stable" driver)

Er is nog veel ruimte voor verbetering maar het grootste probleem ligt naar mijn mening nu bij de game developers en een deel bij AMD. Als die niet samenwerken krijg je inderdaad problemen met je drivers / performance..

Kort gezegd het aandeel in de markt is nog zo laag dat veel developers zelfs nu nog vooral NVIDIA driver support geven.. En dat is gewoon jammer aangezien AMD's kaarten best wel wat meer kunnen gezien de VRAM capaciteiten.. Het is wel nog een ding dat AMD hun RDNA3 architectuur flink mag verbeteren, maar over het algemeen ben ik positief te spreken over de RX 7900XTX die ik heb, het zijn puur een paar games die echt ruk doen, maarja..
Raytracing is zover ik weet min of meer gelijk aan NVIDIAs eerste generatie RTX kaarten. Het werkt prima naar de performance kakt enorm in. Dat is geen driver probleem, dat is een hardware probleem als je het een probleem wil noemen. Beetje meer die-area er aan toewijden en het zal ongetwijfeld een stuk sneller lopen (wat ze vermoedelijk met de aankomende kaarten dan ook hebben gedaan).
Gebruik het zelf nooit, kost veel teveel prestaties, zelfs bij NVIDIA (tenminste bij de kaarten die ik kan veroorloven).

Dat game developers minder rekening met hun houden hebben ze zelf ook schuld aan door hun marktaandeel zo te laten wegvallen. Niet dat ik daar zelf ook maar iets van heb gemerkt. Elke game die ik wil spelen draait uitstekend, zelfs de betas (monster hunter uitgezonderd maar die draait overal ruk op). Ziet er naar uit dat die AMD bug iig wordt opgelost.

Ik heb zelf juist bij NVIDIA problemen met video. YouTube/Potplayer haperen en freezen bij het spelen van een game als NVIDIA instant replay is ingeschakeld. Vermoedelijk de media engine die moeite heeft met tegelijkertijd video encoden en decoden (van een GTX 1060 naar RTX 3060 gegaan maar hetzelfde probleem). Gelukkig vrij makkelijk omheen te werken door instant replay uit te zetten.

[Reactie gewijzigd door Xthemes.us op 28 februari 2025 16:36]

Hmm goeie, zo technisch ben ik niet dat het mogelijk is dat genoeg van die die-areas het probleem zouden kunnen oplossen..
En wat betreft die game devs/marktaandeel, daar doelde ik inderdaad op, erg jammer hoe dat zo gaat :(
Bij mij werken de meeste games tot ik op VR game (8bit HEVC werkt wel prima vergeleken met 10Bit, maar zoals ik net al aangaf er komt een fix aan na een jaar :P)

Ik ging van een 1050ti in 2018 naar een 3050ti in 2021 ivm de games zoals Forza Horizon 4 die toch wel meer kracht wilden, en de 3050 kon ook geen 1440p monitor aan wilde ik nog uberhaupt dat spel op medium spelen, dus ben ik afgelopen jaar via een tweaker naar de RX 7900XTX overgestapt, wel jammer dat deze erg instabiel is met undervolten (want stroomverbruik/hitte is warmer dan mijn nieuwe Ryzen 7 9800X3D CPU..) maarja, op stock werkt ie prima haha.
Wat betreft instant replay / programma's die recorden heb ik dat altijd uit staan, ook bij AMD. Ik merk ook standaard dat performance wat slechter gaat daardoor. Zelfde met Xbox overlays op Windows.. die irriteren regelmatig ook met de FPS
Het heeft gewoon geen zin om in te gaan op iedere Nvidia fan die z’n te dure aankoop verdedigd met een argument over hoe hij 10 jaar geleden een keer een AMD driver probleem heeft gehad.

Beter onderwijs zou daar eerder helpen, zodat men simpelweg zou snappen dat in het verleden behaalde resultaten geen garantie zijn voor de toekomst. Maar het is lastig objectief te zijn wanneer dat betekent dat je in moet zien dat je toch wel aardig bent afgezet voor je vermeende keuze voor “goede drivers”.
Dat is een economisch strategische keuze waarbij je marge langzaam op kan bouwen naarmate je meer marktaandeel krijgt. Dat doet Nvidia immers ook en zij hadden bij Lovelace een schandalige 71% marge. Zonder zo hoog te zitten kan AMD nog prima winst maken.
Waarom zou je de marge weg willen gooien, om 'm daarna langzaam terug op te bouwen? AMD heeft nu marge en houdt die.

Het idee van "marktaandeel veroveren" werkt alleen in markten waar kopers merktrouw zijn. AMD's potentiële kopers zijn dat simpelweg niet. Kopers die je nu overhaalt met $50 korting betalen niet de volgende keer $100 meer.
Waarom zou je de marge weg willen gooien, om 'm daarna langzaam terug op te bouwen? AMD heeft nu marge en houdt die.
Omdat ze wel marge hebben, maar slechte afzet, dus slechte omzet, dus uiteindelijk lage winst. Ja, de marge per videokaart is goed, maar ze verkopen er gewoon weinig tov Nvidia. Je hebt als bedrijf helaas ook vaste kosten en die kunnen ze daardoor minder goed dekken, waardoor er minder R&D budget is, wat oa de reden is dat ze Nvidia maar niet bij kunnen benen.

Laten we wel wezen. Als wat AMD de afgelopen 5-10 jaar heeft gedaan een goed idee was, dan hadden er nu wel meer mensen een AMD videokaart. Aan de performance ligt het niet, want op de een of andere manier blijft AMD het toch presteren om altijd wel een kaart te maken die tegenover de hardlopers van Nvidia gezet kan worden. Momenteel verliest AMD overtuigend de concurrentiestrijd van een tegenstander die vrijwel weigert op de prijs te concurreren. Dat is best knap.

En je hebt gelijk, AMD kopers zijn niet merktrouw, maar koopjesjagers. Maar desondanks heeft letterlijk geen enkel bedrijf in geen enkele markt er iets aan als ze het obscure alternatief voor het mainstream product zijn.
Maakt niet uit wat voor mentale gymnastiek je doet. Het is niet goed voor de portemonne van AMD dat maar 15% van de steam gebruikers een AMD kaart heeft en dat de 7900XTX en 7700XT de enige kaarten van de afgelopen generatie zijn die uberhaupt zichtbaar zijn in de hardware survey in plaats van dat ze in de "other" categorie vallen met een aandeel van 8%. De 4060 en 4070 hebben samen meer marktaandeel dan bijna de hele RX 7000 serie.
De RTX 4090, een "halo product voor de elite met hoog budget" heeft meer marktaandeel dan welke individuele AMD kaart van de afgelopen 10 jaar dan ook.

[Reactie gewijzigd door youridv1 op 27 februari 2025 17:04]

Imho ligt het juist wel aan de performance, amd presteert steeds minder als gelijkaardige nvidia kaarten.
Waar je met een 4060 een cyberpunk op alles ultra kan draaien lukt dat met de meeste AMD kaarten niet zonder stevig te moeten inbinden op beeldkwaliteit.
Het is geen console die je met verlies kan verkopen voor marktaandeel en waar je dan geld binnentrekt met de grotere verkoop van spellen. Als AMD verlies maakt op een kaart, dan maken ze gewoon verlies. Hoe helpt meer marktaandeel op de langere termijn?

Het is overigens ook niet zo dat ze naambekendheid moeten krijgen. AMD bestaat al tientallen jaren en is een miljardenbedrijf. Mijn '486' was al geproduceerd door AMD.
Jij zou dat graag willen, en dat is begrijpelijk, maar dat gaat niet gebeuren.
Waarom zou AMD met een gelijkwaardig product minder moeten vragen? Het is verbazingwekkend hoe men met groene oogkleppen op denkt dat AMD inferieure kaarten maakt.
Zolang de meeste mensen zo denken houden ze de situatie in stand.
Het is ook vooral dat mensen met groene oogkleppen AMD willen gebruiken om de prijzen van Nvidia omlaag te krijgen, maar ze hebben geen enkele intentie om een AMD kaart te kopen.
Met DLSS en RT performance is dat gewoonweg zo, totdat AMD daar antwoord op vind moeten ze hun kaarten wel goedkoper prijzen.
Dat zou wel jammer zijn, 450/550 euro zou prima maar duurder gaat AMD niet helpen.
550 zou vreemd zijn voor een kaart die beter presteert dan de 7900XT (is de verwachting), die zit op 700 euro. Alles tussen de 600 en 700 is gezien de prijzen van de 7900XT en 7900XTX goed te noemen.
Dat is helemaal niet vreemd. Tot de komst van de RTX 4000 serie was dat gewoon normaal.

De RTX 2060 lanceerde met GTX 1080 achtige performance voor veel minder

Alleen prijs per euro lijkt al sinds de RTX 30 serie vrijwel stil te staan.

[Reactie gewijzigd door youridv1 op 27 februari 2025 14:21]

Een deel daarvan is de schuld van TSMC die enorme prijzen vraagt. Dat is uiteraard maar een enkel onderdeel op de gehele grafische kaart maar wel een dure.
Daarnaast kwam de GTX 1080 uit in 2016, puur qua inflatie moet alles nu al 30% duurder zijn.

€550 is dus onrealistisch. Als AMD dat doet krijgen ze boze aandeelhouders. €700 is waarschijnlijk het beste wat je kan verwachten en zou behoorlijk scherp geprijst zijn. Wat AMD als MSRP stelt doet er er vooral toe met het oog op hoe reviewers het ontvangen, vrijwel zeker dat de daadwerkelijke prijzen rond de €800 uitkomen door het tekort aan grafische kaarten (met dank aan NVIDIA die de RTX 4000 productie heeft stopgezet and nauwlijks RTX 5000 kaarten produceert).
Als 700 euro het beste is wat je kan verwachten, dan is dat best triest. Voor dat geld heb je een RX 7900XT, die waarschijnlijk niet super veel langzamer gaat blijken.
Je ziet nu in de PW de prijzen van de 7900XT al stijgen tov gisteren.

De 5070Ti heeft een MSRP van 749. Dus zodra de verkrijgbaarheid van beide kaarten acceptabel is, gaan ze heel dicht op elkaar zitten. Ik hoor mensen op reddit, tweakers etc nu alweer zeggen "nou voor dat verschil koop ik gewoon nvidia."

[Reactie gewijzigd door youridv1 op 27 februari 2025 15:14]

Zover ik weet is de verwachting dat die 5070Ti kaarten met als de rest van de 5000 series mondjesmaat uitkomen. Waarschijnlijk dubbel de Msrp als werkelijke prijs en met een levertijd van enkele maanden.
Moeten de NVIDIA kopers toch wel erg geduldig zijn. Dikke kans dat AMD kaarten voor een daadwerkelijke prijs van 700 dan als warme broodjes over de toonbank gaan.
De reden dat mensen nu al zeggen dat ze voor maar 50 euro verschil een 5070Ti halen komt dan ook door:
  • DLSS4
  • Betere raytracing
  • Meer optimalisatie in games vanwege Nvidia's marktaandeel
  • Multi-frame generation
  • Multi-generational support
Je moet wel echt een hekel hebben aan NVIDIA als je jezelf kan overtuigen dat AMD de betere deal is.
Dat ligt helemaal aan de prijs en wat voor games je speelt. Ik speel geen RT games en heb er ook absoluut geen probleem mee als ik minder RT opties kan gebruiken in games die dat wel hebben. Gewoon ouderwetse raster performance is eigenlijk het enige wat ik nodig heb.
Ik draai al mijn games native. Frame gen heb ik al helemaal geen behoefte aan. Leuk dat het met een super interessant trucje soepeler wordt gemaakt, maar ik wil gewoon native 120+ fps zonder trucjes omdat ik ook die < 9 ms input lag wil. Gaat niet om hoe het eruit ziet maar hoe het voelt. Maar dat komt omdat ik primair shooters speel. En met frame gen in welke vorm dan ook heb je de input lag van de framerate die je zonder framegen zou hebben. Kan mij wat dat ik 240fps heb als het aanvoelt als 60.
Dat DLSS beter is dan FSR geloof ik graag, maar ik gebruik het beide niet. Mijn huidige kaart support ook FSR en ik gebruik het precies nooit.

Ik zit momenteel een beetje te dubben om een 7900XT of XTX te kopen (maar probeer de 9070XT af te wachten) en er is geen enkele Nvidia kaart die mij een interessant alternatief lijkt. Alles wat in de buurt komt van de 7900XT mbt raster performance was 1000+ euro (want momenteel kún je nieteens een high end kaart kopen van nvidia door de productie stop van RTX40). Want je moet minimaal een RTX 4080 hebben, terwijl je al een 7900XT hebt voor 699. Ik heb altijd Nvidia gehad maar de RTX 40 en 50 serie doen het niet voor mij.

RTX en DLSS is grappig, maar het is niet "1000 euro betalen in plaats van 700" grappig. Heeft niks met voorkeur voor merk A of merk B te maken. Ik ga gewoon geen 300 euro betalen voor betere upscaling, ai frames en iets wat in de games die ik speel niet gebruikt wordt.
Als raytracing over 5 jaar overal de default is, dán zal ik het overwegen bij het kopen van een videokaart.
Meer optimalisatie in games vanwege Nvidia's marktaandeel
Deze trek je ook recht uit je reet. HUB post vaak zat 50+ game benchmarks en ja, je hebt wel AMD en Nvidia titels maar die zijn de uitzondering, niet de regel.

[Reactie gewijzigd door youridv1 op 28 februari 2025 09:56]

Ik begrijp de hele ophef over "fake frames" en "native" niet zo goed.

Je beseft hopelijk dat gamen allemaal in-engine "trucjes" zijn om de gamer in een zogenaamde "gamewereld" te plaatsen?

Upscaling is gewoon een nieuw, effectief trucje wat veel FPS oplevert. Je hoort ook niemand klagen over anti aliasing, VRR, HDR en ambient occlusion. Of zet je die trucjes ook allemaal uit voor de meest "native" ervaring?
Dat framegen de latency verhoogt vind ik overigens een prima argument om het niet te gebruiken.

Maar "fake frames" vind ik zoiets doms. Alle frames zijn fake.
Volgens die achterlijke definitie zijn alle frames fake ja.
Je beseft hopelijk dat gamen allemaal in-engine "trucjes" zijn om de gamer in een zogenaamde "gamewereld" te plaatsen?
Ik ben software engineer met gamedev ervaring. Dus ja, ik snap hoe games werken.

Het verschil tussen een echte en een gegenereerde frame volgens de FG techniek van Nvidia, is dat al die gegenereerde frames niet op basis van input zijn van de gebruiker. Het zijn extrapolaties op basis van de laatste echte frame en wat bewegingsmodellen. Pas als de volgende echte frame komt, update de game loop pas weer en wordt er weer wat getekend op basis van wat jij werkelijk aan input levert.

Mensen zien het als interpoleren, maar dat is het niet. Die frames worden verzonnen en proberen de volgende echte frame te voorspellen. Maar dat gaat een beetje lastig als je niet van te voren weet wat de gebruiker gaat doen. En dat weet je niet, want de game state is nog bij je laatste echte frame.
Ik hoef geen extrapolaties tussen mijn game loop updates. Dat voegt niets toe aan de ervaring. Alles wat op het scherm staat moet een direct resultaat zijn van de game state. Niet van wat je AI model “denkt” dat de volgende game state gaat zijn. Dat soort geneuzel kunnen gpu bakkers in hun reet steken.

En ja, ik snap dat renderen een grote trukendoos is. Maar er is een verschil tussen smoothing en belichtingstechnieken en het compleet verzinnen van informatie die er niet is. Als je dat verschil niet ziet en het allemaal dezelfde soort nep vindt, dan betwijfel ik eerder of jij enig idee hebt waar je het over hebt

[Reactie gewijzigd door youridv1 op 28 februari 2025 13:29]

€550, of hooguit €600, is voor een 9070 nog een acceptabele prijs.

Heb een jaar geleden een 7900 GRE voor €550 kunnen scoren, dan zou er met een nieuwe generatie best een verbetering op hetzelfde prijspunt mogen zijn.

Niet een 20/40% verbetering, voor 20/40% meer.
De 5070 en 5070ti hadden een launch prijs van 550 en 750 moeten hebben. Daar moeten ze mee concurreren, even de belachelijke 50 series prijzen buiten beschouwing gelaten. Als ze richting de 700 gaan dan is het prijsverschil voor AMD te klein om te kunnen concurreren met de 5070. AMD heeft marktaandeel verloren de laatste jaren en zit nog maar op ~10-15% marktaandeel. Als ze echt een klapper en marktaandeel willen terugpakken zullen ze qua prijs lager moeten gaan zitten. 9070 en 9070xt zitten volgens mij 10-40% boven een 7900GRE, dat waren ook kaarten van 450-550 euro.

[Reactie gewijzigd door John Rambo op 27 februari 2025 16:16]

Haal je nu iets niet door elkaar? De 7900GRE was altijd 650 euro, is wel een tijdje gezakt naar net aan 600 euro maar nooit daaronder. De 7800XT begon bij 600 en is nu naar ca. 500 gezakt. De 7700XT was een 500 euro kaart maar ligt nu veel lager.
AMD kan gewoon (logisch gezien) 750 a 800 euro vragen voor de 9070XT.
Hopelijk doen ze dat niet maar om een prijs onder de 600 te verwachten zie ik echt niet gebeuren.
Nee, de 7900GRE was te vinden voor 525-550,- (afhankelijk van welke fabrikant) niet lang na de introductie. De meeste modellen zaten rond de 600 dat klopt. Ik zag ergens een plaatje voorbij komen waarbij de 9070 en 9070XT vergeleken werden met de 7900GRE en deze zaten daar respectievelijk maar 20% en 40% boven. Als AMD echt het verschil wil maken zullen ze flink lager moeten. Een strategie van Nvidia minus 50 euro gaat niet werken. Even afwachten wat de daadwerkelijk performance gaat zijn maar ze zouden er verstandig aan doen gewoon flink in te zetten op het midden segment, ook met de toekomstige modellen. De gemiddelde gamer draait een 3060/4060, daar valt het meeste te halen. Als ze een model hebben als de 9070 wat een beetje upper mid is voor een goede prijs en dan later nog een midden segment kaart welke ook voordelig geprijsd is.

[Reactie gewijzigd door John Rambo op 27 februari 2025 16:26]

Wat echt vreemd is is bijna hetzelfde vragen voor een product dat even snel is maar een generatie nieuwer waar nog steeds de meeste problemen niet opgelost zijn.
Van wat ik gezien heb is er namelijk nog altijd geen fatsoenlijke hardware decoder voor de meest gebruikte video formaten, en is FSR nog altijd slechter als DLSS.
Als je vorige gen al niet lekker verkoopt tegenover een veel duurder Nvidia dan zou ik achter me oren krabben en niet stug hetzelfde vragen.
Na alle shopscalper fratsen gaat dit waarschijnlijk gewoon duurder zijn dan de 7900XTX en dus echt te duur.
550 zou heeeeeel goedkoop zijn voor dergelijke kaart, absurd eingelijk gezien de prestaites en ongetwijfeld de kost voor amd.
Klopt, maar als ze dezelfde prijs gaan hanteren als de 5070(ti) dan zijn ze sowieso gezien. Dan kiezen mensen voor nvidia aangezien ze nu al 90% marktaandeel hebben en de naam hebben. Als ze wat willen moeten ze eronder
5070 ti is 1500 euro? 5070 zal toch ook naar de 1000 gaan, dan is 550 wel een enorm verschil

Op dit item kan niet meer gereageerd worden.