Gerucht: AMD wilde Radeon RX 9070 XT voor meer dan 1000 euro uitbrengen - update

AMD wilde zijn Radeon RX 9070-gpu's op de markt brengen voor 'hogere prijzen dan verwacht'. Dat schrijft techwebsite VideoCardz. De RX 9070 XT had volgens de techwebsite een adviesprijs van omgerekend 1035 euro moeten krijgen, maar dat wordt vermoedelijk verlaagd voor de release.

Update, dinsdag - Frank Azor, AMD's 'Chief Architect of Gaming Solutions', ontkent het onderstaande bericht. "Hoewel we geen commentaar gaan geven op alle prijsgeruchten, kan ik wel zeggen dat een startprijs van 899 dollar nooit deel heeft uitgemaakt van het plan", zegt de topman op sociale media. Wat de daadwerkelijke adviesprijzen van AMD's nieuwe gpu's worden, is nog niet bekend.

Origineel bericht - VideoCardz schrijft dat AMD de Radeon RX 9070 en 9070 XT op de markt wilde brengen voor respectievelijk 749 en 899 dollar. De fabrikant rekent zijn Amerikaanse videokaartprijzen doorgaans direct om naar euro's en telt daar nog de belastingen bij op, aangezien Amerikaanse adviesprijzen altijd exclusief btw zijn. In dit geval zouden de adviesprijzen omgerekend neerkomen op 863 en 1035 euro, inclusief 21 procent btw.

De techwebsite schrijft ook dat de videokaarten eigenlijk op 23 januari op de markt moesten komen, wat overeenkomt met eerdere geruchten. Inmiddels heeft AMD bekendgemaakt dat de RX 9070-kaarten in maart verschijnen. Bronnen stelden eerder dat AMD de release heeft uitgesteld vanwege 'prijsdruk': de gpu-maker zou de prijzen van zijn komende RX 9000-kaarten te hoog hebben ingeschat in vergelijking met de nieuwe gpu's van Nvidia, waarvan de RTX 5070 en 5070 Ti volgende maand verschijnen voor 654 en 889 euro. AMD zelf verklaarde onlangs dat de RX 9000-kaarten juist zijn uitgesteld zodat het bedrijf meer tijd heeft om de software te optimaliseren.

VideoCardz baseert zich op eigen bronnen, maar verwijst ook naar een YouTube-video van de grote Bulgaarse retailer Gplay. Die winkel zegt dat de Radeon RX 9070 XT een introductieprijs had moeten krijgen die 'significant' hoger lag dan de prijs van een AMD RX 7800 XT uit 2023, maar juist in de buurt zou liggen van de AMD RX 7900 XT. Eerstgenoemde videokaart had een adviesprijs van 559 euro, terwijl de RX 7900 XT bij release juist 1050 euro kostte.

Retailer Gplay toont in de YouTube-video ook een productdoos van een RX 9070 XT-videokaart van PowerColor, wat aantoont dat de webwinkel al RX 9000-videokaarten op voorraad heeft. De afgelopen weken werd al bekend dat diverse winkels de nieuwe AMD-videokaarten op voorraad hebben.

AMD kondigde de Radeon RX 9070- en 9070 XT-videokaarten begin januari aan. De gpu’s zijn gebaseerd op de RDNA 4-architectuur. De fabrikant heeft de prijzen van Radeon RX 9070 XT en RX 9070 nog niet officieel bekendgemaakt, al gaf AMD-topman Frank Azor tijdens een interview met PCWorld wel aan dat de videokaarten 'geen 1000 dollar' zouden kosten, wat zou overeenkomen met de 899 dollar exclusief btw die VideoCardz noemt.

Door Jay Stout

Redacteur

27-01-2025 • 16:42

145

Lees meer

Reacties (145)

Sorteer op:

Weergave:

Waarom gaat Tweakers dit soort rare geruchten delen?
Gezien de prijs van de 7900XTX is een prijs van 1030 voor een 9070 XT die na grote waarschijnlijkheid niet sneller is in raster vs die 7900XTX niet logisch.

Navi 48 is de vervanger van de 7700 en 7800XT kaarten en dus niet bedoeld als tegenhanger van de veel duurdere 7900XTX. Qua prijs zou het best kunnen dat amd wellicht dacht weg te komen met 799 maar na de 5070 en 5070 Ti prijzen zullen ze eerder richting de 550-600 dollar moeten.

Ik vind het een beetje raar en nutteloos om dit soort geruchten te gaan posten zonder hele goede bronnen.

[Reactie gewijzigd door Astennu op 27 januari 2025 20:24]

Niet geloofwaardig volgens mij. Ik denk niet dat AMD echt dacht dat Nvidia zoveel zou vragen dat ze zelf hun kaarten zo duur zouden maken. En als de geruchten kloppen dat ze met een 5070 vergelijkbaar zouden zijn, zou de 9070 XT echt niet meer dan €499 mogen kosten.
499 euro terwijl de tegenhanger eerder richting de 1000 gaat. Ja hallo 8)7
Nee, de tegenhanger zal meer rond de €650 hangen.
Nee. De 9070XT mikt op de 5070Ti, waarvan de MSRP op 900 euro staat. AIBs hebben aangegeven dat de nvidia MSRP prijzen "charity"-prijzen zijn, dus verwacht maar hoger.
De 9070 non-XT mikt op de 5070. Diens MSRP is 650 euro, zelfde verhaal.

Dus een 9070XT die max 500 euro zou mogen kosten terwijl de tegenhanger *begint* aan 900 is waanzin. Ik zei het eerder elders al: dit is net alsof ik zeg dat het groene tintje van RTX lelijk is dus het een RTX5080 mag maar 800 euro kosten. Even feitelijk.

[Reactie gewijzigd door Arrigi op 27 januari 2025 21:17]

Ik denk dat dat de reden ook is waarom AMD de release en prijs strategie heeft uitgesteld. Ze willen afwachten wat Nvidia daadwerkelijk gaat doen met de RTX 5070 en RTX 5070 Ti. Bij gelijkwaardige performance en als die daadwerkelijk voor de aangekondigde MSRP uitkomen, dan moet AMD er natuurlijk ten minste €100 onder zitten om marktaandeel te winnen. Waarschijnlijk had AMD verwacht dat Nvidia de prijstelling van de 70 serie hoger gepositioneerd zou hebben.
Oke, in dat geval een maxium van €700, en de 9070 een maximum van €500.
Verschil is dat Nvidia meer Raytracing performance heeft, betere encoding decoding en de upscaler is beter. De MSRP van de 9070xt zal echt niet boven de 600 mogen zijn als AMD de kaarten met een fatsoenlijk volume wilt verkopen. En dan bedoel ik zonder BTW meegerekend. Uiteindelijke prijs wil je echt niet boven de 700 euro hebben. Zeker aangezien de kaart basically de performance heeft van de 7900XT en dan kan je lastig de kaart voor bijna de zelfde prijs gaan verkopen terwijl het een generatie beter zou moeten zijn.
NVIDIA 5070 MSRP = $550
Dat zal dus in Europa minimaal €600 worden voor founders edition, en waarschijnlijk minimaal €650 voor AIB's. €500 euro voor de 9070 XT is echt wishful thinking.
MSRP van 550 usd = 633 euro incl 21% btw.

Nvidia of iig de resellers gaan de nieuwe kaarten echt niet voor lager dan de huidige 4000 series prijzen... ik verwacht dat de prijzen eerder richting de 1000 euro gaat voor de 5070(Ti), 2000 voor de 5080 en 3000 voor de 5090.
Die hele MSRP is een joke tegenwoordig.

Als AMD de 9070XT ergens rond de 600/700 weet te houden hebben ze echt wel een "nette" prijs te pakken ook omdat de 7900XT dan net iets goedkoper is, maar de XTX wel duurder (want die lijkt nog wel sneller te zijn dan de 9070XT).

[Reactie gewijzigd door ArcticWolf op 27 januari 2025 17:34]

"MSRP van 550 usd" - dit is dus zonder btw. Amerika heetf geen btw prijzen in hun msrp heeft nooit tax. Dus maak er maar 750 euro van voor de 5070, misschien eerder 799.
550 USD = 523 euro x 1,21 = 633...
laten we maar mooi afwachten nou? de 5080 is al 1200 en niet in stock, de 5090 is 2400 en ook niet in stock.

We weten allemala dat mssrp ene fictieve prijsis en meer een indicatie.
Niemand gaat de kaarten krijgen voor die prijsbehalve de bot farmers.

[Reactie gewijzigd door Joeri.Bijlsma op 31 januari 2025 04:22]

De 7900 XTX is niet echt een spelletjes kaart, de kracht van deze kaart zit in andere taken
Zoals video bewerking end dat soort taken, daarom heeft de kaart ook meer geheugen meegekregen
Want ik denk niet dat er veel spellen zijn die echt 16 GB memory nodig hebben, ik kijk amper nog naar de laatst uitgebrachte spellen want het is voor mij allemaal niets waard
Ik speel strategische spellen en verder eigenlijk niets meer vooral nadenken en vooruit plannen is mijn genre.
Dus tsja daar is de laatste jaren eigenlijk niets noemenswaardig uitgebracht
Nog sterker gesteld de 7900 XTX is trager in al mijn spellen dan de huidige kaart die ik gebruik
Dus die vergelijken met spellen is niet echt verstandig voor een pro klaart.
Om nog een voorbeeld te noemen de 6800 XT is in veel spellen nog steeds sneller dan de 7800 XT.
Waar ik zelf van dacht dat de nieuwe telg sneller zou zijn, nee dus de 6800 XT is in mijn spellen op alle fronten sneller, zelfs met die domme benchmark programma's blijkt dat de oude kaart sneller is.
Vraag mij niet hoe dit kan want zelfs ik snapte er niets van, mijn maat stond vol trost te lachen zie je wel dat het waar is :)
Nvidia of iig de resellers gaan de nieuwe kaarten echt niet voor lager dan de huidige 4000 series prijzen... ik verwacht dat de prijzen eerder richting de 1000 euro gaat voor de 5070(Ti), 2000 voor de 5080 en 3000 voor de 5090.
Je had helaas gelijk
Op de site van Nvidia zelf staat rtx5070 vanaf 654 euro, rtx5070ti vanaf 889, rtx5080 vanaf 1190 en de rtx5090 vanaf 2369..
Als je 19% BTW bovenop de 550 Dollar / Euro rekent, zit je sowieso al aan de 650€, en dan heb je het dus niet over de luxere AIB's.

Wat hier vooral frappant is, is dat AMD dus ondanks hun verkondigde strategie "we laten high-end links liggen, we richten ons op de massa", alsnog niet inzet om een concurrerende prijs te bieden, om ook daadwerkelijk een massa aan kaarten af te kunnen zetten.

Nvidia heeft z'n prijsopdrijvende reputatie enigszins verdiend, en dat zij de duimschroeven aan zouden draaien bij AMD, komt wellicht onverwacht. Maar 750 en 900 USD respectievelijk was ook voor Nvidia, wederom, een aardige verhoging geweest. De 4070Ti staat immers voor 800 USD MRSP in de boeken (https://www.techpowerup.c...geforce-rtx-4070-ti.c3950 ).

En ondanks dat het een vrije markt is, kan je een inflatie- of coronakaart maar één generatie spelen.
AMD heeft nog helemaal niets los gelaten over de prijs van de nieuwe telgen
En ja AMD is dit keer heel slim geweest, want wat er ook gebeurt geen enkele ngreedia fan zal ooit echt naar een AMD kaart kijken zelfs niet als deze wel sneller is.
Als ik de reviews bekijk van de USA figuren, waar duidelijk van werd dat deze allemaal hele leuke vette beloningen te krijgen om ngreedia te promoten liegt er niet om.
Ik linus of hoe die persoon dan ook heette vergat even dat de enorme kist met een waarde van 30.000 dollar van nvidia mij wel duidelijk maakte wie er altijd als ultiem betere uit de reviews kwam
Zelfs ik ken enkele reviewers persoonlijk die elke keer weer de allerlaatste kaarten al hadden terwijl deze nog helemaal niet te koop waren.
U allen vergeet hoe diep de zakken van ngreedia zijn, en omkoping van reviewers is een normaal fenomeen.
ik heb letterlijk op enkele kleine reviewers na NOG NOOIT een positieve review gezien waar AMD goed werd bevonden
Aangezien het AMD is, waarschijnlijk. Die denken dat €50 minder duur dan Nvidia goed genoeg is. Maar ze moeten hun kaarten significant goedkoper maken om te kunnen verkopen.
Vanwege de (in mijn ervaring) goede kwaliteit van de open source Linux drivers zal ik voorlopig nog altijd AMD boven NVidia kiezen. Ik weet dat NVidia inmiddels overstag is met open drivers maar ik heb nog een nare nasmaak van hoe NVidia de vooruitgang heeft gefrustreerd de laatste jaren.

Ik sluit niets uit voor de toekomst hoor. Ik heb jarenlang Sony als merk vermeden vanwege DRM op audio CD's en inmiddels loop ik met een erg fijne Sony koptelefoon rond.
En hoeveel procent van mensen gebruikt Linux ipv Windows?
Wel ironisch vroeger had ATI altijd de slechtste Linux drivers en als je Linux wilde draaien kocht je maar beter nvidia. Het kan snel veranderen.
Als je kunt kiezen tussen 2 kaarten die een gelijkaardige prijs/performantie verhouding hebben, maar de ene is wel verkrijgbaar en de andere heeft een wachtlijst van onbekende lengte, welke ga je dan kopen?
De meerderheid van mensen zouden wachten tot de Nvidia kaart beschikbaar is. AMD heeft gewoon de mind share niet die Nvidia wel heeft. En dan is er nog alle software ondersteuning die minderwaardig of gewoonweg afwezig is aan de AMD kant.

[Reactie gewijzigd door MGsubbie op 27 januari 2025 19:58]

Zou voor AMD geen heel slecht idee zijn om er significant onder te gaan zitten. Want ze hebben market- en mindshare nodig. Zeker nu Intel zo sterk is in de low-end en Nvidia het monopoly heeft op high-end.
Nee, dat is niet geloofwaardig. AMD is een liefdadigheidsinstelling die zijn producten voor kostprijs weggeeft om geliefde klanten tevreden te stellen. Een soort consumentensubsidie. AMD is het enige multinational ter wereld die de klant voorop stelt en de aandeelhouders op de laatste plaats. Vandaar dat de prijzen van ryzen 9800X3D en 7800X3D door het dak zijn geschoten ;)

Overigens, waarom denk jij dat de release met ruim een maand is uitgesteld wat volgens jou wel geloofwaardig is? Problemen van technische aard? Productieproblemen? Ik ben benieuwd.

Er is een soort naiviteit op Tweakers gaande, terwijl de dagen dat AMD een prijsstunter was, lang achter ons liggen. Van de Duron en de Athlon tot de Phenom II, ik heb ze gekocht, maar die tijden zijn niet meer.

[Reactie gewijzigd door ABD op 27 januari 2025 21:50]

Het gaat niet om "liefdadigheid" of onzin zoals dat. Het draait rond realistische verwachtingen voor AMD. De RX 570 had veel betere waarde dan de 1050ti, maar de 570 verkocht veel minder stuks. Dat is maar één voorbeeld. Van in een tijd wanneer raster en video encode de enige metingen waren. Nu heb je frame generation, upscaling, andere AI implementaties en ray tracing waar Nvidia sterk voor staat op AMD. De meerderheid van mensen kijken niet naar de benchmarks of 20% meer performance per euro. De meerderheid van mensen koopt simpelweg Nvidia. En daarom moet AMD voor gelijkaardige performance veel minder vragen om hun kaarten te kunnen verkopen. Nvidia domineert de markt veel te hard en heeft veel te veel mind share.
Vandaar dat de prijzen van ryzen 9800X3D en 7800X3D door het dak zijn geschoten
Die twee chips zijn de CPU equivalent van Nvidia kaarten.
terwijl de dagen dat AMD een prijsstunter was, lang achter ons liggen.
En ze moeten dat terug doen voor hun grafische kaarten.

[Reactie gewijzigd door MGsubbie op 28 januari 2025 10:28]

Euhm beste ABD
Dit heeft niets te maken met AMD masar met scalpers en dan verkopers zelf die uiteraard nog veel grotere winsten willen dan AMD blijkbaar mag hebben van de gemiddelde handelaar, en dan heb ik het nog niet eens over de scalpers met hun hele vette buidels die hele partijen ineens opkopen dan de prijzen enorm opjagen
Ga maar eens proberen een intel netwerk kaart te kopen voor een normale prijs
u zult dan zelf zien dat bijvoorbeeld een netwerk kaart die door intel zelf werd verkocht voor ongeveer 120 euro ineens 350 kost en denk maar niet dat er een andere aanbieder nog te vinden is, want ook de 2e hands kaarten worden meteen opgekocht, om daarna als nieuw aan u word doorverkocht.
Dus een de dikke winst zit niet bij AMD tenzij ze net als ngreedia zelf kaarten gaan verkopen op hun eigen site,
Op dat prijsniveau weten ze hun kaarten van voorgaande generatie waarschijnlijk niet eens te verslaan... Even afwachten hoe de prestaties echt zijn maar ik had de indruk dat het niet echt veel krachtiger ging worden dan de 7900XT die ik nu heb... En aangezien ik die 1,5 jaar geleden gekocht heb voor ik meen 780 zou dit wel een hele zure grap zijn.

Edit: nu ook nog meerdere rond de 700 in de pricewatch zie ik... Als die nieuwe kaart straks misschien 10% meer performance biedt maar 1,5 keer zou moeten gaan kosten dat zou toch wel heel erg zijn. Ok, betere raytracing, maar als we daar heel veel extra voor bereid waren te betalen daar hadden we Nvidia al voor.

[Reactie gewijzigd door Finraziel op 27 januari 2025 16:56]

Nvidia is en blijft gewoon nummer 1 op videokaart gebied. En iedere keer als amd dan eindelijk weer weet bij te benen heeft nvidia alweer zoveel tijd gehad dat ze weer met iets compleet nieuws komen waarmee ze amd weer slopen. Ze kunnen zich beter gaan richten op cpu's doordat intel zo bar slecht is momenteel kunnen ze daar tenminste nog van winnen.
Nee zeg, laat er alsjeblieft nog iets van een alternatief zijn voor Nvidia... Nou begint Intel ook langzaam iets te doen op gpu vlak maar die liggen nog veel verder achter. Als je denkt dat de gpu markt nu slecht is voor de consument dan hou je maar vast als Nvidia echt helemaal geen concurrentie meer heeft.

Overigens is de 50 serie tot nu toe nogal teleurstellend, dus jammer dat AMD zich juist nu niet meer op de high-end richt... Hoewel dat misschien ook meespeelt met dat de 50 serie zo tegenvalt want Nvidia hoeft ook niet zo nodig. Maar als AMD er helemaal mee zou stoppen dan kun je het dus helemaal vergeten.
Het alleszins niet de eerste keer dat amd aan prijs stutting doet door rebrands of gelijkaardig kaarten uit te brengen. Zoals bijvoorbeeld de 480 en 580 of 6650 en 7600.
Is dit een nieuwe vorm van tabloid-tech journalistiek? Je hebt een sappig stuk met onbetrouwbare bronnen (een roddel zeg maar) je plakt het woord gerucht aan het begin van de titel en je publiceert het toch. Bij zaken die zich in de toekomst gaan afspelen kan ik hier nog enigszins begrip voor opbrengen maar voor zaken uit het verleden moet je blijven spitten tot je de waarheid achterhaalt, of je gooit je stuk in de prullenmand.
Heeft AMD eindelijk een goede videokaart voor het middensegment, laat de verkoop/marketing afdeling het weer afweten en gooien ze hun eigen ramen in. Als deze kaart ook maar in de buurt komt van een verkoopprijs van € 900,- a €1.000,- Dan gaan de meeste mensen (inclusief mijzelf) voor een 5070TI :)

Ik hoop dat er toch nog een paar mensen binnen AMD de rest op andere gedachten kunnen brengen. Maar als deze kaarten te duur in de markt worden gezet, kiest iedereen uiteindelijk toch weer voor Nvidia en heeft AMD dit vooral aan zichzelf te danken.

[Reactie gewijzigd door Mol_1248163264 op 27 januari 2025 17:05]

Je snapt toch dat amd winst moet maken? Dat die kaarten een onderzoek en productiekost hebben?
Het punt hier is dat AMD een veel te kortzichtige strategie lijkt te volgen. Hun aandeel in de markt is veel kleiner dan logischerwijs uit de presatties van hun kaarten zou moeten volgen. Ja, aan de bovenkant leggen ze het af tegen NVidia, maar daar waar de echte volumes liggen (midden en laag segment) doen ze het echt niet zo slecht. Desondanks hebben ze slechts zo'n 10-15% van de totale markt in handen.

Waar ze dus mee te maken hebben, is een reputatieprobleem. Maar NVidia heeft dat ondertussen ook. Ja, ze hebben de beste kaarten, maar ze zijn ook enorm duur en NVidia is gewoon nu een software en AI bedrijf geworden.

Er ligt dus een kans voor AMD. Kom deze generatie met een kaart die voor 80% van de gamers voldoende is, fix je driverproblemen en doe raytracing een stukje beter. Ervan uitgaande dat ze de drivers beter op orde krijgen, lijkt de 9070 aan al deze criteria te voldoen.

Dan kan je op lange termijn er veel meer aan hebben om je kaart gewoon (te) goedkoop in de markt te zetten. Kweek goodwill onder gamers en reviewers en zet een reputatie voor prima prestaties voor een prima prijs.

Dan ben je misschien volgende generaties weer duurder, maar heb je wel je imago van "ondermaatse" kaart hersteld en kan je je marktaandeel veel meer in lijn brengen met wat het hoort te zijn op basis van de prestaties van de kaarten.

Nu lijken ze echter hun prijsstelling puur op prestaties te gaan inrichten en geen rekening te houden met hun zwakke reputatie. Ja, dan verdienen ze op korte termijn meer maar op lange termijn blijven ze gewoon op dat lage marktaandeel zitten.
Tjah zolang mensen denken dat er driver problemen zijn terwijl dat al jaren niet het geval is. Wat moet AMD precies op orde krijgen?
VEGA had voor sommige gebruikers een 'black screen' probleem maar dat was in 2017-2018. Sindsdien nauwelijks slecht nieuws m.b.t. Drivers voorbij zien komen, niet meer dan bij NVIDIA iig.
Ik zou zelfs zeggen dat ze heel lang betere software bij de kaart leveren dan NVIDIA alhoewel Nvidia recent dat aardig gelijk heeft getrokken met de Nvidia app (bij AMD valt er alsnog veel meer te tweaken)

De raytracing prestaties zijn naar verluidt met deze aankomende generatie enorm verbeterd (gelijk aan Nvidia). De nieuwe upscaling tech is ook enorm verbeterd. We moeten gaan zien hoe goed het is in verschillende games maar hardware unboxed wist op de show floor met Ratchet and clank iets te laten zien wat in ieder geval goede hoop bied. Vermoed dat ze dat AI model nog wat extra tijd willen geven en de release hebben uitgesteld.

Het enige wat dan overblijft waar je beter voor bij Nvidia kan aankloppen zijn
* Stroomverbruik (waarschijnlijk niet een enorm verschil)
* CUDA
* High End kaarten

Ben het geheel met je eens dat AMD de kaarten een stuk lager moet prijzen dan Nvidia als ze er veel van willen verkopen maar de drivers zijn prima. Het is niet zoals bij Intel waar sommige games geheel niet draaien of crashen of met enorm slechte prestaties. Elke game draait prima.
Tjah zolang mensen denken dat er driver problemen zijn terwijl dat al jaren niet het geval is.
Driver problemen zijn verbeterd, maar ze blijven nog steeds hoor.
De raytracing prestaties zijn naar verluidt met deze aankomende generatie enorm verbeterd (gelijk aan Nvidia).
Verbeterd ja, maar ze gaan nog steeds achter blijven op Nvidia, zeker met hun nieuw model voor ray reconstructie.
De nieuwe upscaling tech is ook enorm verbeterd.
En die van Nvidia is ook weer verbeterd, waar quality mode er nu effectief beter uitziet dan native, en DLAA er beter uitziet dan 2x supersampling.
Driver problemen zijn verbeterd, maar ze blijven nog steeds hoor.
Waar? In welke vorm?

Ik heb een RD 7870, R9 290, R9 290X, R9 Fury, RX 580 (8 GB) en RX 6700 XT gebruikt zonder problemen*. Geen enkele game die ik speel die niet wou draaien of crashed door de drivers. Enige aanmerkpuntje is het hoge stroomverbruik bij een dual monitor setup met verschillende refreshrates.
Verbeterd ja, maar ze gaan nog steeds achter blijven op Nvidia, zeker met hun nieuw model voor ray reconstructie.
Waar is dat vastgesteld? De kaarten zijn nog niet eens uitgekomen. Laten we de benchmarks afwachten voordat we het als feit neerzetten?
En die van Nvidia is ook weer verbeterd, waar quality mode er nu effectief beter uitziet dan native, en DLAA er beter uitziet dan 2x supersampling.
Word de vergeljikingen afwachten hoe goed het één is vergeleken met het andere.

* Overigens ook een GTX 970, GTX 1060 (6 GB), GTX 1070 en RTX 3060 (12 GB) gebruikt zonder grote problemen (De GTX 970 was niet stabiel op de fabrikant zijn standaard overclock - maar dat zal ongetwijfeld de schuld van MSI zijn). Bij intensieve games wel het probleem dat videos (zowel YouTube als PotPlayer) haperen en freezen op de GTX 1060 / RTX 3060 als "Instant replay" ingeschakeld is.
Dus geen 7000 en 8000, die wel effectief problemen geven.
Word de vergeljikingen afwachten hoe goed het één is vergeleken met het andere.
De 5090 is al getest, en het nieuwe model is al beschikbaar en kan gedraaid worden op oudere generaties. De tests zijn er dus al.

Super Sampling (SSAA) : https://cdn.discordapp.co...f8003703b21aa4a9449d8276&

DLAA : https://cdn.discordapp.co...aba2113210bd0f67d27077fc&

[Reactie gewijzigd door MGsubbie op 29 januari 2025 10:01]

Welke problemen bij 7000/8000? Je blijft problemen noemen zonder voorbeelden.
Er zijn wat incidentele kleine problemen maar niks erger dan NVIDIA? Wat is dit probleem dat ze moeten oplossen met de drivers?

Ik zie hetzelfde commentaar overal op het internet terugkomen maar als je om concrete voorbeelden vraagt dan is de reactie:
- Oude links die 5+ jaar niet van toepassing zijn
- Kleine probleempjes die snel zijn opgelost
- Geen reactie

Het lijkt er meer op dat een aantal mensen problemen ziet die er niet zijn door een slechte reputatie van eeuwen geleden.

--

Nieuwe van NVIDIA is uit ja, maar dat is niet te vergelijken met het nieuwe van AMD want dat is behalve wat footage van CES nergens te zien/testen. En dat ziet er als eerste indruk leuk uit, maar een videocamera op een beeldscherm verdoezeld een hoop, het kan een stuk minder indrukwekkend zijn dan verwacht. (of het kan nog een stuk beter worden doordat ze de release hebben vertraagt).

De RTX 5080 is overigens sinds vandaag ook uit alhoewel de meeste reviewers niet onder de indruk zijn. De nieuwe DLSS4 multiframe generation wordt ook vrij lauw ontvangen, de Hardware Unboxed video toont aan dat het weinig toevoegt tenzij je een erg hoge refreshrate monitor hebt (480Hz).
Verbruik is slechter op 5000 serie dan 4000 serie, ze offeren volt efficiency curve op.

Ja 9070 xt is waarschijnlijk zeer hoog geklokt en dus misschien 330 watt, maar ik geloof dat die kaart met kleine tweaks te temmen is tot 230-260 watt. Gewoon die ultra turbo wat lager zetten.

9070 (non xt), is gegarandeerd beste performance/watt kaart van AMD, door de turbo's niet mee omhoog te trekken en vernieuwde architectuur, monolitisch (lijkt dit keer zuiniger, amd chiplet 7900 xt design, had verbruik probleem), zie 7900 gre die ook rond 225 watt kon blijven, zie deze kaart hetzelfde doen aan betere prestaties of tenminste gelijke.
Een 4060 is 300 euro, hoe is dat enorm duur? Zeker gezien de prestaties met DLSS die je ervoor krijgt.

AMD had niks in de buurt daarvan.
Ja als amd nu betere prestatis heeft EN beter FSR EN het verbrui onder controle heeft EN goedkoper kunnen produceren kunnen ze daar tegen concurren als ze de prijzen laag genoeg houden.

[Reactie gewijzigd door k995 op 27 januari 2025 18:36]

De 4060 is gewoon een 1080p kaart en de extra frames die je van DLSS krijgt betaal je voor met artifacts en latency. Feit is dat als je in het middensegment wil zitten en/of een normale hoeveelheid VRAM wil hebben dat je bij NVidia gewoon heel veel geld betaald.

Feit is dat als ik een middensegment / middenhoog segment CPU koop, dat ik wel prijsstingen merk in de loop der jaren, maar dat het nog wel meevalt. Datzelfde segment is bij NVidia kaarten gewoon makkelijk verdubbelt in prijs.

Het feit dat ze de traditionele specs van de *70 series in de 4000 generatie initieel als de 4080 hebben geprobeerd te verkopen, helpt ook niet mee.

Vergelijk dat even met de reputatie die ze hadden in het tijdperk van de 1080 kaart en dat is gewoon een enorm verschil. En los van of jij vind of dat klopt of niet - dat is nu hoe steeds meer mensen naar NVidia kijken - dat is nou eenmaal wat "reputatie" is.

Dat geeft AMD nu een kans, maar ze lijken die niet te pakken.
De 4060 is gewoon een 1080p kaart en de extra frames die je van DLSS krijgt betaal je voor met artifacts en latency.
DUidelijk dat je er weinig van kent, maar ja de 4060 is een 1080-1440p kaart, aka wat 75% van de gamers hebben. De 4060 kan in de meeste games1440p aan met dlss en de doorsnee gamer zal daar niks van merken. Wees jij gerust elitair met je "fake frames".
Feit is dat als ik een middensegment / middenhoog segment CPU koop, dat ik wel prijsstingen merk in de loop der jaren, maar dat het nog wel meevalt. Datzelfde segment is bij NVidia kaarten gewoon makkelijk verdubbelt in prijs.
4060 is een stuk sneller dan een 1080ti (zonder zelfs dlss of rt) en kost 1/3e van wat die ooit kostte.
voor 1000 euro (wat de 1080ti ooit kostte + infaltie) heb je nu een 4070 ti super die enkele keren zo snel is .

Waar is dus die verdubbeling in prijs?
Er is niets "elitair" aan het uitwijzen van fake frames, het is gewoonweg minderwaardig aan echte performance. Ze doen het tegenovergestelde van twee van de zaken die een hogere frame rate doet : Ze zien er minder goed uit, terwijl alles temporaal is vandaag de dag, waar een hogere frame rate voor betere beeldkwaliteit zorgt, en ze verhogen de latentie, terwijl een hogere frame rate net voor minder latentie zorgt. Het enige dat het wel verbetert, is de bewegingshelderheid op LCD schermen.
4060 is een stuk sneller dan een 1080ti (zonder zelfs dlss of rt)
Dat zou je wel verwachten voor een kaart die 5,5 jaar later uitkomt.
Ze doen het tegenovergestelde van twee van de zaken die een hogere frame rate doet : Ze zien er minder goed uit, terwijl alles temporaal is vandaag de dag, waar een hogere frame rate voor betere beeldkwaliteit zorgt, en ze verhogen de latentie, terwijl een hogere frame rate net voor minder latentie zorgt.
Je kraamt onzin uit.
Dlss is niet 1 techniek het is een verzameling van technieken elk met hun eigen functie.
SR verlaagt latency geeft meer fps en in sommige gevallen verbeterd beeld kwaliteit
RR verlaagt latency geeft meer fps en verbeterd beeldkwaliteit
reflex verlaagt latency
FG geeft meer fps
Dat zou je wel verwachten voor een kaart die 5,5 jaar later uitkomt.
Het argument was dat prijzen "verdubbeld" waren echter kost gelijkaardige prestaties maar een fractie van wat die toen kostte, hoe is dat "stijgen" ?
Je kraamt onzin uit.
Dlss is niet 1 techniek het is een verzameling van technieken elk met hun eigen functie.
Wat was mijn eerste zin? Dit :
Er is niets "elitair" aan het uitwijzen van fake frames
Wanneer mensen de term "fake frames" gebruiken, wordt er duidelijk gesproken over frame generation.
Het argument was dat prijzen "verdubbeld" waren echter kost gelijkaardige prestaties
Hier representeer je ook het argument mis.
Datzelfde segment is bij NVidia kaarten gewoon makkelijk verdubbelt in prijs.
SEGMENT. Niet prestaties.

[Reactie gewijzigd door MGsubbie op 28 januari 2025 15:06]

Het ging hier over dlss, dat jij er dan 1 stukje van uitpikt slaat nergens op.

EN ja, leuk dat jij een 4090 hebt zodat je geen dlss nodig hebt maar iemand op budget die een 4060 koopt kan via dlss veel meer games vloeiender spelen dan zonder dlss dat is gewoon een feit.
Het ging hier over dlss, dat jij er dan 1 stukje van uitpikt slaat nergens op.
Het ging over DLSS frame generation, dat was heel duidelijk. Jij haalt er dan de andere vormen van DLSS bij, dat is wat nergens op slaat.

Ik heb een 3080 dus ik heb nog niet eens toegang to frame generation. Ben wel van plan een Blackwell kaart te kopen, waar ik nooit FG op ga gebruiken. Want de games spelen absoluut niet vloeiender, ze spelen minder vloeiend. Ze zien er vloeiender uit, maar er is meer latentie.

[Reactie gewijzigd door MGsubbie op 28 januari 2025 16:20]

Nee het ging hierover (kon je zelf zien gewoon nar boven scrollen):
Ja, ze hebben de beste kaarten, maar ze zijn ook enorm duur en NVidia is gewoon nu een software en AI bedrijf geworden.
Mijn reactie was: 4060 is dat niet
De 4060 is gewoon een 1080p kaart en de extra frames die je van DLSS krijgt betaal je voor met artifacts en latency.
Dus neen het ging wel degelijk over dlss in het algemeen, dat sommige denken dat dit enkel FG is kan goed zijn, dat denk ik ook vandaar mijn : "dlss is meer dan FG" met uitleg waarom hij verkeerd is.
EN neen ik haal er geen "andere vormen" bij dlss bestaatgewoon uit verschilledn delen en dat maakt een kaart als een 4060 tegenwoordig gewoon een goede koop.
Want de games spelen absoluut niet vloeiender, ze spelen minder vloeiend. Ze zien er vloeiender uit, maar er is meer latentie.
Moest ik jou zijn zou ik het eerst uitprobere of je die paar ms latency meer echt gaat merken voor je grote uitspraken doet?
Ik kan je alvast zeggen dat in de meeste games je dat niet merkt. En dat was de oudere versie, deze nieuwere versie zorgt voor nog minder latency overhead
Mijn reactie was: 4060 is dat niet
Voor het niveau van kaart dat je krijgt ten opzichte van de top is de 4060 wel vrij duur. Die zou niet meer dan €200 mogen kosten voor wat het is. Ook laat je buiten beschouwing dat FG extra VRAM gebruikt, en die kaart maar over 8GB beschikt. De kaarten die FG het meeste nodig hebben, zijn de kaarten die FG het minst vlot kunnen draaien.
Moest ik jou zijn zou ik het eerst uitprobere of je die paar ms latency meer echt gaat merken voor je grote uitspraken doet?
"Grote uitspraken?" Heb ik ooit gezegd dat de hogere latentie merkbaar is? Ga eens terug in onze conversatie en zeg me waar ik dat deed. Ik ging enkel in tegen jouw argument dat games vloeiender spelen. En het is objectief zo dat ze dat niet doen, dat ze zelfs minder vloeiend spelen. Vloeiend spelen draait om latentie, en hogere latentie betekent minder vloeiend.

Je hebt echt een probleem met het begrijpen van de argumenten dat mensen maken.

[Reactie gewijzigd door MGsubbie op 28 januari 2025 18:04]

Voor het niveau van kaart dat je krijgt ten opzichte van de top is de 4060 wel vrij duur. Die zou niet meer dan €200 mogen kosten voor wat het is. Ook laat je buiten beschouwing dat FG extra VRAM gebruikt, en die kaart maar over 8GB beschikt. De kaarten die FG het meeste nodig hebben, zijn de kaarten die FG het minst vlot kunnen draaien.
Gelukkig dan dat dlss 4 minder vram nodig heeft voor FG :-)
YouTube: Cyberpunk 2077 | DLSS 4 | RTX 4060 8GB ( 1080p 1440p Path Tracing ON...
cyberpunk 2.x op 1440p high/ultra met path tracing en je haalt nog 45fps gemiddeld. Voor een kaart van 300 euro is dat gewoon goed .
waar ik nooit FG op ga gebruiken.
dat is een grote uitspraak ja, je hebt het nog nooit geprobeerd

EN ja dlss (want daar ging het hier over) laat games vloeiender spelen zowel reflex als SR en RR zorgen daarvoor.
Als latency en elke ms voor jou "belangrijk" zijn, zou ik die zeker gebruiken
Voor een kaart van 300 euro is dat gewoon goed .
Ik zou 45fps nooit goed noemen voor een FPS. En die output met FG betekent minder dan 30fps zonder FG, wat echt bagger is. Die latentie is enorm merkbaar, met de extra latentie van FG betekent dat dat het gewoon onaangenaam is, en dat het in de buurt van onspeelbaar terecht komt. Daarbovenop zullen de frames lang genoeg op het scherm aanwezig zijn dat de artefacten duidelijk worden, wat de grafische kwaliteit ook nog eens vermindert. Zelfs Nvidia (die alsof doet dat 4X FG vergelijkbaar is met een native frame rate in hun marketing) raadt minstens 60fps native aan voordat je FG gebruikt.
dat is een grote uitspraak ja, je hebt het nog nooit geprobeerd
Wel, je moet dan maar de juiste citaat bovenhalen als je wilt dat ik weet wat je bedoelt. Ik heb alleszins al genoeg reviews gezien en gehoord over FG om te weten dat ik het niet wil. Als een game niet vloeiend genoeg draait op mijn huidige hardware, zet ik het gewoon op mijn backlog en wacht ik op een hardware upgrade voor ik het speel. Ik moet nog steeds met Cyberpunk 2077 beginnen, daarvoor wacht ik op mijn RTX 5000 kaart. En dat zal zonder pathtracing zijn zodat ik met SR ~120fps kan behalen zonder FR te moeten gebruiken.
EN ja dlss (want daar ging het hier over) laat games vloeiender spelen zowel reflex als SR en RR zorgen daarvoor.
Ten eerste zei je dat FG games vloeiender doet spelen, nu ben je gewoon de lat aan het verleggen. Ten tweede, heb ik ooit gezegd dat ik SR en RR nooit zal gebruiken? Opnieuw vraag ik je om eens door onze conversatie te gaan om te zien waar ik dat heb gezegd. Ik gebruik al lang SR, zeker op mijn 4k TV, en vind het fantastisch. Echter zorgt RR enkel voor betere beeldkwaliteit, het doet niets voor latentie.

Nooit een formeel debat aangaan, je maakt teveel logische denkfouten.

[Reactie gewijzigd door MGsubbie op 28 januari 2025 18:32]

Ik zou 45fps nooit goed noemen voor een FPS.
Reviewer: "goed speelbaar"
Nogmaals dit is een kaart die al tekoop was vanaf 270 euro die cyberpunk in 1440p ultra/RT goed kan spelen.
Wel, je moet dan maar de juiste citaat bovenhalen als je wilt dat ik weet wat je bedoelt.
Dat was jouw citaat en je bevestigd het gewoon, grappig dat je het zelf niet wil proberen uit angst om een ms aan latency te verliezen.
Ten eerste zei je dat FG games vloeiender doet spelen
Nope, dlss en dat is gewoon een feit, grappig dat je iets zegt over formeel een debat aangaan als je zelf zoveel "logische denkfouten" maakt.

Nogmaals (omdat je dat gewoon negeert) het ging erover of de 4060 nu een dure kaart is of niet, zath vind van wel, jij ook veronderstel ik echter hebben jullie beide nog geen enkel argument gegeven waarom gezien de performance die die kaart heeft.
Nu ben je gewoonweg oneerlijk over je eigen uitspraken.
Nee die staan gewoon hierboven, kijk je kwam halverwege in een discussie en begreep die duidelijk langs geen kanten.
> DUidelijk dat je er weinig van kent, maar ja de 4060 is een 1080-1440p kaart

Wat een sneer. Oef. Wel gek hoor, eerst zeggen dat ik er weinig van weet en het dan nog (half) met me eens zijn. Je begrijpt natuurlijk wel dat volgens de regels van een internetdiscussie je mij zojuist gelijk hebt gegeven.

> 4060 is een stuk sneller dan een 1080ti (zonder zelfs dlss of rt) en kost 1/3e van wat die ooit kostte.
voor 1000 euro (wat de 1080ti ooit kostte + infaltie) heb je nu een 4070 ti super die enkele keren zo snel is .

Nou prima, en als we dan met z'n allen nog games uit 2017 speelden dan ging die vergelijking nog ergens over. Feit is gewoon dat als je een midden of topsegment kaart wilde kopen een aantal jaar geleden dat het nog te overzien was. Als je diezelfde top of middensegment kaart nu wil kopen, dan is het nu gewoon absurd duur. En dan hebben we het nog steeds niet over hoe ze de specs per naamgeving in de generaties naar beneden hebben geschroefd (relatief gezien dan), met als gevolg dat ze na hevige kritiek de 4080 moesten unlaunchen omdat 12GB echt te belachelijk voor woorden was. Niet voor niets is de marge van NVidia al voor de AI boom sterk gestegen.

Dus dat is gewoon de reputatie waar ik het over heb. NVidia is goed, maar ook heel duur en ze hebben echt onlangs wat trucjes uitgehaald met specs waar mensen niet blij van worden. Dat maakt dat mensen meer dan ooit bereid zijn om naar AMD te kijken, indien ze daar hun hoofd uit hun kont trekken en een concurrerende prijs neerzetten voor deze generatie.

[Reactie gewijzigd door zath op 28 januari 2025 00:40]

de extra frames die je van DLSS krijgt betaal je voor met artifacts en latency.
Daar ging het dan over, dat is onzin.
Nou prima, en als we dan met z'n allen nog games uit 2017 speelden dan ging die vergelijking nog ergens over.
JIJ maakte de vergelijking met oudere kaarten. Oudere kaarten die vele malen trager zijn met als argument dat ze nu duurder geworden zijn.
Je kan nu kiezen of dezelfde performance als een kaart die vroeger 1200-1500 euro kostte voor 300 euro (en raar genoeg kunnen die kaartren zelfs nieuwe games goed aan) of 4-6 keer de performance voor dezelfde prijs.
Als je diezelfde top of middensegment kaart nu wil kopen, dan is het nu gewoon absurd duur.
Wat snap je niet aan "voor hetzelfde geld heb je vele malen de performance".
Dat nvidia er nog een ultra high end aan toevoegde met absurde prijzen veranderd niks aan dat je voor evenveel geld nu beter af bent.
> Daar ging het dan over, dat is onzin.

Tijdens de gegenereerde frames wordt je input niet verwerkt (immers, er kan niet bijgestuurd worden). Dat veroorzaakt latency. De gegenereerde frames hebben bovendien aantoonbaar artifacts. Zelfs bij DLSS 4 zie je dat nog terug in de nieuwste reviews. Dat is ook logisch.

DLSS is een prachtige technologie en het verbeterd vooral de FPS en het gevoel van vloeiendheid, maar het komt niet "gratis".

> JIJ maakte de vergelijking met oudere kaarten. Oudere kaarten die vele malen trager zijn met als argument dat ze nu duurder geworden zijn.

Als ik een Mercedes S klasse in 2017 koop voor 80,000 euro, en de Mercedes S klasse model 2025 kost 150,000 euro. Dan denk ik niet "Nou het zou wel kloppen want er zijn zoveel meer PK's en technische snufjes ingezet", dan denk ik: waarom is de auto uit dit segment zo belachelijk veel duurder geworden.

> Wat snap je niet aan "voor hetzelfde geld heb je vele malen de performance".

Jij kan het argument wel terug willen brengen naar uitsluitend ruwe performance, maar dat is gewoon niet hoe het werkt. Als dat wel zo was, dan zouden we nu miljoenen euro's moeten betalen voor onze CPU's als je vanaf het 8086 tijdperk gaat rekenen. Feit is dat we kijken naar (i) performance, (ii) prijs en (iii) wat je met die performance kan doen. Games blijven steeds zwaarden worden, en de 2x zoveel Tflops die ik nu uit m'n kaart krijg, zorgen niet ineens voor 2x real-world performance in een moderne game.

Anders gezegd: met een 1080 in 2017 kon je de zwaarste games op de zwaarste settings afspelen voor 700-800 euro. Met de 4090 of 5090 kan je de zwaarste games op de zwaarste settings afspelen voor 1500-2000 euro. Dat is waar mensen het over hebben.

Vanuit het perspectief van de consument is het gewoon heel simpel: je kopt een "segment" kaart, hoog/laag/midden, etc.De naamgevingsstrategie van NVidia is daar ook op ingesteld, je zou precies moeten weten wat je van een XX70 of "XX80 Super" zou moeten kunnen verwachten. Die definitie is in de loop der jaren veranderd. Een XX80 was vroeger de topkaart, en is nu "midden tot top". Je ziet tegelijkertijd hoe ze de specs (memorybus, VRAM, relatieve stijging cuda cores) per generatie langzaam naar beneden bijstellen.

NVidia vergoeilijkt dit met jouw argument van ruwe performance. Wat dat betreft heb je goed naar hun marketing team geluisterd. Maar het is heel simpel: de consument kijkt gewoon naar hun portemmonee en maakt een simpele afweging. En ze zien hoe NVidia in de loop der jaren voor dezelde klasse/segment gewoon veel duurder is geworden.
Tijdens de gegenereerde frames wordt je input niet verwerkt (immers, er kan niet bijgestuurd worden). Dat veroorzaakt latency. De gegenereerde frames hebben bovendien aantoonbaar artifacts. Zelfs bij DLSS 4 zie je dat nog terug in de nieuwste reviews. Dat is ook logisch.
En dat is dus fout, vandaar mijn opmerking dat je neit goed snapt wat dlss is (logisch want tweakers bestaat daar eigenlijk express geen aandacht aan in reviews)

Dlss is niet 1 techniek het is een verzameling van technieken elk met hun eigen functie.
  • SR verlaagt latency geeft meer fps en in sommige gevallen verbeterd beeld kwaliteit
  • RR verlaagt latency geeft meer fps en verbeterd beeldkwaliteit
  • reflex verlaagt latency
  • FG geeft meer fps
Als ik een Mercedes S klasse in 2017 koop voor 80,000 euro, en de Mercedes S klasse model 2025 kost 150,000 euro. Dan denk ik niet "Nou het zou wel kloppen want er zijn zoveel meer PK's en technische snufjes ingezet", dan denk ik: waarom is de auto uit dit segment zo belachelijk veel duurder geworden.
Compleet absurde vergelijking want die auto's doen net hetzelfde.
Betere vergelijking is electrische wagen uit 2017 die 100 km range heeft, in 2025 brengt datzelfde merk er 1 uit die 1000km range maar kost het dubbele -> REEEE PRIJZEN STIJGEN terwijl je negeert dat ze ook een model hebben dat 200km doet en 1/3e kost van die uit 2017 .
Anders gezegd: met een 1080 in 2017 kon je de zwaarste games op de zwaarste settings afspelen voor 700-800 euro. Met de 4090 of 5090 kan je de zwaarste games op de zwaarste settings afspelen voor 1500-2000 euro. Dat is waar mensen het over hebben.
JIj kijkt louter naar wat jij als naam/segment ziet en negeert al de rest, wat nog absurder is.

1080 was gericht op 1080p vooral en kon in meeste gevallen ook 1440p aan (+60fps)

2080->4090 ga je naar 1440p & 4k
In cyberpunk haalt een 1080 (dus zelfs niet de ti die veel duurder/krachtiger was) een 60 fps op 1080p/medium in alan wake 2 met FSR op quality ook .
Een 4060 van 300 euro kan dat ook allemaal en zelfs nog veel beter.
Vanuit het perspectief van de consument is het gewoon heel simpel: je kopt een "segment" kaart, hoog/laag/midden, etc.
Zo koopt een consument niet, een consument heeft hardware en koopt wat daarin past.
Iemand met een 1080p schem mag een 3000 euro kostende 5090 kopen maar die zal geen verschil merken omdat die kaart gewoon overkill is.(de "pro's" niet meegerkend) Die komt toe met een 5060 .

Namen/modellen (net zoals bij auto's trouwens) om het bij je auto vergelijking te houden
een vw golf uit 1980 is ook 25% goedkoper (inflatie erbij geteld 8000 in 1980->26 000 in 2025 ) dan de gold nu (34 000 euro) echter is de wie een halve meter groter, rijd beter verbruikt minder en is veel beter uitgerust . De golf van toen is nu gewoon de polo (26 000 toevallig) die ongeveer even groot is maar wel beter rijd/minder verbruikt .
Maar het is heel simpel: de consument kijkt gewoon naar hun portemmonee en maakt een simpele afweging. En ze zien hoe NVidia in de loop der jaren voor dezelde klasse/segment gewoon veel duurder is geworden.
Dat word ze voornamelijk aangepraat want eingelijk is een 300 euro kostende 4060 een fantastische kaart die gamen nog nooit zo goedkoop maakte en dat is mede dankzij dlss.
> En dat is dus fout, vandaar mijn opmerking dat je neit goed snapt wat dlss is (logisch want tweakers bestaat daar eigenlijk express geen aandacht aan in reviews)

Tsjah, jij weet het blijkbaar beter dan alle tech reviewers. Top voor je. In de tussentijd verwijs ik je gewoon naar de gemeten hogere responstijden en screenshots en videos van artefacts. Ga lekker bij hen "ackchually" doen in plaats van bij mij.

> JIj kijkt louter naar wat jij als naam/segment ziet en negeert al de rest, wat nog absurder is.

Dat kan je wel vinden, maar dit is hoe consumenten naar de markt kijken. Daar gaat je nerdrage over alle technische details niets aan veranderen. Het boeit mensen geen ene reet hoeveel teraflops er uit hun kaart komt, ze willen gewoon een moderne game kunnen spelen op een bepaalde kwaliteit. Iedere paar jaar veranderd de standaard van wat "modern" is en is er dus meer performance nodig om aan die eis te voldoen, dat is nou eenmaal hoe de tech wereld werkt: door innovatie krijgen we meer performance voor hetzelfde geld. Tenminste, zo was het - totdat NVidia een de facto monopoliepositie wist te veroveren en gewoon aan de bovenkant van de ladder extra stappen is gaan bouwen in plaats van de ladder te verschuiven.

Mensen zien dat en vinden dat niet leuk, en dus krijgt NVidia een slechte reputatie.

> Dat word ze voornamelijk aangepraat want eingelijk is een 300 euro kostende 4060 een fantastische kaart die gamen nog nooit zo goedkoop maakte en dat is mede dankzij dlss.

Prima, ga jij lekker op 1080p naar je fake frames kijken en het grootste bedrijf ter wereld (nou ja, tot eergister dan) bedanken voor het privilege, maar val de rest van ons niet lastig met je gesimp.
Tsjah, jij weet het blijkbaar beter dan alle tech reviewers.
Neen die zeggen dat ook, echter schrijven ze daar amper over.

YouTube: Is DLSS Really "Better Than Native"? - 24 Game Comparison, DLSS 2 vs...

En dit is dlss 2 , 3 verbeterde dit en 4 nog meer:

YouTube: NVIDIA DLSS 4 Transformer Review - Better Image Quality for Everyone

Nogmaals :

SR verlaagt latency geeft meer fps en in sommige gevallen verbeterd beeld kwaliteit
RR verlaagt latency geeft meer fps en verbeterd beeldkwaliteit
reflex verlaagt latency
FG geeft meer fps

Dit zijn feiten die ALLE reviewers gaan beamen.
Dat kan je wel vinden, maar dit is hoe consumenten naar de markt kijken. Daar gaat je nerdrage over alle technische details niets aan veranderen.
De enige die "raged" ben jij over een naam.
Mijn argument is dat een doorsnee consumt een 4060-4070-4080 koopt en daar heel goede resultaten mee haalt terwijl jij aan het klagen bent dat er te weinig vram opzit en dat de 4080 engenlijk een 4070 ti super duper is want ooit was een 1080 ti blah blah blah.

Nogmaals de realiteit is dat al die kaarten all nieuwe games aankunnen, net zoals ze dat bij de 1000 series ook konden.
Leuk dat je Hardware Unboxed als bron aanhaalt. Bij deze de nieuwste analyse van hen over DLSS4 van 3 dagen geleden waar precies wordt bekracht wat ik zeg: YouTube: Is DLSS 4 Multi Frame Generation Worth It?

Conclusie: meer artefacts, meer latency en de toepasbaarheid van DLSS is beperkt (bv, single player games, en afhankelijk van je setup).

> De enige die "raged" ben jij over een naam.

Mooie oneigenlijke redenering. Ik val niet over de naamgeving, ik val over de prijsstelling en wijs daarbij aan hoe NVidia trucjes uithaalt met hun naamgeving en specs om die prijsstelling verder onder druk te zetten voor consumenten. Opnieuw haal ik het 4080 unlaunch debakel aan, waar jij tot op heden iedere keer niet op gereageerd hebt omdat uiteraard niet in je argumentatie past.

> Mijn argument is dat een doorsnee consumt een 4060-4070-4080 koopt en daar heel goede resultaten mee haalt terwijl jij aan het klagen bent dat er te weinig vram opzit en dat de 4080 engenlijk een 4070 ti super duper is want ooit was een 1080 ti blah blah blah.

Begint de zin met "Jij bent de enige die boos is" en eindigt als hierboven. Dankjewel voor deze prachtige ironie.

Ik begrijp gewoon niet waarom jij zo enorm op je pik getrapt bent als iemand zegt dat de relatieve waarde van midden en topsegment kaarten gewoon omlaag gegaan is de afgelopen jaren. Niemand hoort daar verbaast over te zijn. We hebben allemaal de cryptoboom en de AI boom meegemaakt. We zien hoe NVidia gewoon de monopoliepositie heeft, hoe hun marges zijn verdubbelt een aantal jaar geleden en dat dit in lijn is met hoe iedere monopolist zich gedraagt.

Jij blijft maar vasthouden aan ruw prestatieverhaal en negeert daarbij gewoon hoe een consument een beeld vormt of hoe aankoopbeslissingen worden gemaakt. Je leeft in een wereld op jezelf die losstaat van de realiteit. Ik zou zeggen, scheer je nekbaard eens af en kijk gewoon even naar de feiten die ertoe doen, in plaats van je zelfgekozen contextloze informatie die niet relevant is.

[Reactie gewijzigd door zath op 28 januari 2025 15:51]

Leuk dat je Hardware Unboxed als bron aanhaalt. Bij deze de nieuwste analyse van hen over DLSS4 van 3 dagen geleden waar precies wordt bekracht wat ik zeg: YouTube: Is DLSS 4 Multi Frame Generation Worth It?
EN dat ging enkel over mfg, niet over al de rest van dlss.
Waarom wil je niet begrijpen dat dlss uit verschillende onderdelen bestaat?
Mooie oneigenlijke redenering. Ik val niet over de naamgeving, ik val over de prijsstelling en wijs daarbij aan hoe NVidia trucjes uithaalt met hun naamgeving
:)
Ik begrijp gewoon niet waarom jij zo enorm op je pik getrapt
Ben ik ook niet, je kraamde gewoon onzin uit over dlss en daar wijs ik je op, iets wat je blijkbaar niet kan of wil snappen.

Je hebt duidelijk iets tegen nvidia waardoor je gewoonweg blind bent voor de feiten. Veel plezier daar nog mee :)
Ook deze persoon heeft het duidelijk over DLSS 4 frame generation. Ik ben niet zeker of je opzettelijk de argumenten verkeert presenteert, of je gewoon niet kunt lezen.
een fantastische kaart die gamen nog nooit zo goedkoop maakte
Want een €170 RX 570 bestond nooit? "Nog nooit zo goedkoop" hoe absurd .
Een 170 in 2018 is nu 225 euro, een 4060 ging zo laag als 270 euro.
En een 4060 heeft in raster enkele malen de performance en zet er RT/DLSS bij en je spreekt over 5 a 10 keer sneller.
En een 4060 is werkelijk ongeveer een 4050 met een 60 over de 50 geplakt (metaforisch gezien.)

24 SM's vs 128 op de 4090. Dat is 18.75%. De 1050 had er 10 vs 60 op de Titan Xp (De 90 kaarten zijn in principe hun generatie's equivalent van de Titans van weleer.) Dat is 16.67% De 1060 had er 20, of 33.33%

De 1050 had een 128-bit bus, 33% van de 384-bit bus van de Titan Xp. De 4060 heeft ook 128-bit tenopzichte van 384-bit, dus ook 33%. De 1060 heeft een 192-bit bus, wat 50% bedraagt.

De 1050 had een lanceringsprijs van $109, de 4060 was $299. Met inflatie is die $109 nu $141. Dus weldegelijk een verdubbeling van de prijs voor hetzelfde segment.

En ik herhaal, er werd gesproken over segment, niet prestatie.
Dat is waar ze nu al meerdere maanden mee bezig zijn, zorgen dat er goede drivers zijn voor men de kaarten echt lanceert
Als mensen kunnen kiezen tussen gelijkwaardige kaarten van nvidia en amd voor dezelfde prijs, gaat 99% voor nvidia kiezen. Ze vertrouwen het merk meer, de ray tracing is beter, de extra software werkt iets beter, het stroomverbruik is iets minder... al die zaken tellen op. Amd moet hun kaarten gewoon scherper prijzen, dan pas overtuigen ze mensen om van team te switchen.
Helemaal waar maar het grootste deel van de GPU markt is het middensegment (uitgemeten in geld, niet performance!) met een bedrag tussen de €300 a €600 euro. Dit is wat de meeste mensen maximaal willen uitgeven aan een GPU en in dit segment moet AMD het marktaandeel vergroten door een goede kaart voor een scherpe prijs in de markt te zetten. De bovenkant van de markt gaat grotendeels naar Nvidia dus in dat prijssegment kan AMD geen markaandeel terugwinnen en dus niet concurreren.

[Reactie gewijzigd door Mol_1248163264 op 27 januari 2025 20:56]

Die winkel zegt dat de Radeon RX 9070 XT een introductieprijs had moeten krijgen die 'significant' hoger lag dan de prijs van een AMD RX 7800 XT uit 2022, maar juist in de buurt zou liggen van de AMD RX 7900 XT.
Volgens van wat ik lees kwam de RX 7800 XT uit in september 2023.
Klopt, de generatie kwam wel uit 2022 maar de 7800 XT kwam inderdaad pas aanzienlijk later uit. Fixed!
Inderdaad! De RX 7900 XT kwam in 2022 uit, maar de 7800 een klein jaartje later. Ik pas het aan :)

Edit: Tomas was me voor :P

[Reactie gewijzigd door AverageNL op 27 januari 2025 16:57]

Lijkt me zeer onwaarschijnlijk dat ze een kaart met (naar verwachting) iets minder performance dan de 7900XTX uit zouden willen brengen voor ongeveer de (straat-)prijs van de 7900XTX. AMD's marketing/productstrategie is niet altijd top maar zó slecht zijn ze volgens mij toch ook niet :+
Ik weet even niet meer wat ik hiervan moet vinden.

Ik vond de uitspraak in een reactie onder een artikel laatst wel treffend: AMD never misses an oppertunity to miss an oppertunity

Dus ze maken de naamgeving onduidelijker, kondigen de kaarten aan maar doen dit even half tussendoor vanwege tijdgebrek, stellen de release uit vanwege wat vage redenen én hadden gehoopt de hoofdprijs te kunnen vragen.

Misschien ben ik simpel (nouja zonder de misschien want dat ben ik) maar zou leuk zijn als ze zoals ik vaker hier gepost heb eens meerdere generaties de naamgeving hetzelfde houden zodat er een duidelijke lijn in hun portfolio te zien is ipv aanpassen om het aanpassen of mee te doen met hun concurrent.

Release een product als het af is en niet 'omdat het een leuk persmoment is' of 'omdat die ander het anders doet'. Nu is de nieuwigheid er al af en het is vooral vaag ipv dat blijft hangen dat je een gaaf product hebt.

Wil je marktaandeel doe dan bovenstaande en zet een goede prijs neer, ook handiger om die te bepalen als je je product uitbrengt nádat je concurrent dat doet :+

Zorg dat je drivers op orde zijn als je je product lanceert, leuk dat je nog wat prestatie er uit weet te persen in de maanden erna maar dat zit dan niet in de initiële reviews die mensen tot in het einde der tijden raadplegen.

Wat een zootje maken ze er weer van zeg :(
Ze maken er inderdaad een zooitje van. Maar als dit artikel waar is, dan volgen al hun problemen uit de veel te hoge prijsstelling. De rare aankondiging en het uitstel van de release komen dan omdat ze op het laatste moment hoorden dat Nvidia veel aggresiever in de markt ging zitten dan ze hadden verwacht en ze dus hun hele marketing en prijsstrategie moeten gaan bijstellen.
Uit leaks mochten die waar zijn, is een 9070xt ongeveer rond een 7900xt/4080~ qua raster perf. En 4070super/4070ti~ raytracing perf.

Raytracing boeit me niet heel veel. Maar met die perf zou me niks verbazen idd dat amd hoge msrps had gedacht te doen.

Uiteindelijk zou ik liever natuurlijk de 9070xt voor 550-600 euro inclusief tax zien maar dat zal het denk ik niet zijn.

Laten we hopen dat diegene die het dus hebben uitgesteld ook echt slim zijn om met een goede prijs te komen bij release. En niet 1 tot 2 maand later ermee komen.
AMD brengt redelijk kaarten voor een redelijke prijs in mijn ogen. Alleen het stroom verbruik ten opzichte van Nvidia vindt ik persoonlijk wel een dingetje. ( Lees kosten per maand aan energie , hangt ook af van hoe lang je pc altijd hebt aanstaan uiteraard )

Nu lezen we alleen maar weer geruchten en tja misschien klopte die geruchten in het verleden wel, maar misschien heeft AMD er ook van geleerd en komen ze met nette prijzen om niet de plank mis te slaan?

We zullen het zien, ik ga persoonlijk altijd voor de prijs kwaliteit verhouding of het nou Nvidia of AMD is maakt mij niet uit.
9070 zal vrij goed zijn in verbruik, 7900 GRE was dat eigenlijk ook (wel Nvidia nog beter maar héél klein verschil).

5000 serie Nvidia heeft alleen stagnering of achteruitgang in performance/watt. Zelfde node, en hogere kloks of breder paralelle cores die meer verbruiken, en niet linair schalen. Ook hogere kloks bij lagere modellen.

9070 xt dubbeltje op z'n kant, zeker beter dan 7900 xtx qua verbruik, de battle met 7900 xt word gelijklopender, al zullen de uitschieters minder vaak voorkomen (niet elke game heeft hoge kloks nodig, wat xt brengt), misschien ook sneller en dus meer frames /watt. Wie de 2.9ghz turbo klok wat lager zet, kan gerust een winner hebben qua verbruik. Eigenlijk zou ik 9070 moeten kopen, maar ben bang dat die ooit te traag word, de 9070 xt heeft 4000 cores, de 9070 3500 (afgerond). Monolitisch (geen chiplet) zou moeten betekenen (als amd het goed doet) veel lagere IDLE power consumption, en bij paralelle krachten ook, Ray tracing, door kleine stukje PCB bijprinten, zou kunnen minder efficient zijn (wel beter dan 7900xt)x), en de scores vs Nvidia wat omlaag halen bij performance/watt.
Door dit verhaal vermoed ik nu wel dat de performance van de RX 9070XT wat hoger ligt dan gedacht. No way hadden ze het plan een gpu te verkopen die veel duurder is op dit moment dan de 7900 XT voor dezelfde performance.
The 7900 serie zijn pro kaarten die trager zijn dan de 6800 /7800 in spellen
Kijk de benchmarks maar van echte spellen dus niet de 3dmark virtuele benchmarks
De x800 kaarten zijn gewoon sneller in het echt sneller dan de dikke bakken van AMD
Heel logisch want hun ware kracht zit in heel andere serieuze zaken zoals sound/video en design software
Vandaar dan ook het vette geheugen wat deze kaarten meekrijgen, wat voor spellen tot op heden nog steeds complete onzin is.
Er zijn amper spellen die meer dan 12 GB geheugen nodig hebben op een enkeling na die een klein beetje meer gebruiken.
Zoals ik al aangaf eerder aangaf de 7800 xt is soms zelfs trager dan de 6800 xt gebleken
In modernere spellen zie ik de 7800 xt toch weer wat opkrabbelen.
Maar het houd echt niet over.
ik ben eigenlijk al bijna zeker van dat ik de 7090 XT ga aanschaffen als er niet door scalpers alweer de prijzen enorm worden opgepompt
review: Gpu-middensegment eindelijk vernieuwd - AMD Radeon RX 7700 XT en 7800 XT

7900 XT 35% sneller op 4k ultra settings, 28% 1440p ultra settings en 22% 1080p ultra settings sneller dan de 7800 XT. Dus ik weet niet waar jij je info vandaan haalt maar bevestig je claim maar eens met een link en cijfers.
We kunnen beter de benchmarks afwachten en dan de AMD met de Nvidia kaarten vergelijken. Dan wordt duidelijk in welk prijs klassement de 9070 XT echt thuis hoort. Of hier op tweakers of elders op een youtube channel. Mijn verwachting is dat AMD nog flink gaat zakken.
Het blijkt dat een roemeens winkel een bedrag had genoemd welke
A) helemaal niet getoond mocht worden
B) in de lokale munt eenheid werd weergegeven
En als klap op de vuurpijl onrealistich omgerekend was

Wat het die winkelier heeft opgeleverd is dat deze nu wereldwijd heel veel aandacht heeft gekregen, wat mij betreft zou AMD deze knuppel geen hardware moeten leveren want deze hebben prijzen opgegeven die nog niet waren vastgesteld
AMD is nog steeds bezig om de drivers van de kaarten te optimaliseren en hebben nergens een richtprijs vermeld en zeker niet aan groothandel of winkeliers.
ik ben benieuwd of ik dit keer wel een nieuwe gpu kan gaan kopen of ik gewoon blijf zitten met mijn huidige nog steeds heel snelle game telg van AMD.

Op dit item kan niet meer gereageerd worden.