AMD Radeon RX 7900 XTX verschijnt in Geekbench Compute-database

De komende AMD Radeon RX 7900 XTX is voor het eerst opgedoken in de Geekbench-database. De videokaart presteert in de Vulkan-benchmark vergelijkbaar met de RTX 4080, hoewel de kaart in OpenCL minder goed presteert. De videokaart komt 13 december officieel uit.

De onuitgebrachte AMD Radeon RX 7900 XTX verscheen maandagavond in de database van Geekbench, merkte Twitter-gebruiker Benchleaks op. Het is voor het eerst dat een RDNA 3-videokaart van AMD opduikt in een dergelijke benchmarkdatabase. De AMD Radeon RX 7900 XTX is in Geekbench Compute getest met een Ryzen 7 7700X, 32GB geheugen en een Crosshair X670E Extreme.

De videokaart haalde 179.579 punten in de Geekbench 5 Vulkan-benchmark en 228.647 punten in OpenCL. Ter vergelijking: de Nvidia GeForce RTX 4080 scoort gemiddeld 178.105 punten in de Vulkan-test, meldt ook Tom's Hardware. De score van de Radeon RX 7900 XTX is daar ongeveer gelijk aan, wat in lijn is met claims van AMD dat de RX 7900 XTX gaat concurreren met de RTX 4080. In de Geekbench 5 OpenCL-benchmark presteert de videokaart echter minder goed dan de RTX 4080, die gemiddeld 264.482 punten haalt. De Geekbench-software noemt echter geen variabelen die invloed kunnen hebben op de prestaties, zoals de kloksnelheden of drivers die de videokaarten draaiden.

AMD kondigde de Radeon RX 7900 XTX in november officieel aan. De videokaart komt volgende week uit, samen met de Radeon RX 7900 XT. De gpu is gebaseerd op de RDNA 3-architectuur en krijgt een chipletarchitectuur, waarin een grote gpu-die wordt gecombineerd met meerdere kleine geheugenchiplets die worden gebruikt als Infinity Cache. De Radeon RX 7900 XTX beschikt over 96 compute units, 24GB GDDR6-geheugen en een 384bit-geheugenbus. De kaart krijgt een adviesprijs van 999 dollar.

Door Daan van Monsjou

Redacteur

06-12-2022 • 07:46

152 Linkedin

Reacties (152)

152
150
58
8
0
68
Wijzig sortering
Het lijkt erop dat deze generatie opnieuw niet indrukwekkend genoeg is om mensen massaal te laten overstappen, helaas.

Pas als AMD de kroon kan pakken voor een lagere prijs, kunnen we de huidige cycle doorbreken

[Reactie gewijzigd door Gamebuster op 6 december 2022 08:05]

Deze GPU heeft een MSRP die een stuk lager is dan de 4080 en haalt iets hogere scores, dit is precies wat men zogezegd wil van AMD, en jij zegt nu dat dit niet goed genoeg is?

Het is nooit goed, dit soort opmerkingen komt van mensen die sowieso nooit AMD gaan kopen, en enkel willen dat AMD iets maakt dat goed genoeg is zodat nVidia hun absurde prijzen moet laten zakken, zodat je toch gewoon weer nVidia kan kopen.

Sinds de RX6000 serie biedt AMD consistent betere bang/buck dan nVidia op elk prijsniveau, alleen kopen consumenten het niet, want om de een of andere vinden ze het toch niet goed genoeg. De excuses zijn altijd dezelfde onzin:
  • Ja maar RTX performance! -> Dit is de geschiedenis die zich herhaalt: net zoals toen tesselation hot was en nVidia daar een voorsprong in had wordt daar de nadruk op gelegd, terwijl het een feature is die gewoon nog geen nut heeft voor eindgebruikers omdat de performancepenalty te groot is (en zo blijft: de performancehit van RT is in de 4000 serie nog even groot als in de 2000 serie).
  • Ja maar DLSS! -> FSR 2.1 is open-source en in kwaliteit equivalent. Meer en meer games kiezen daarom voor FSR, games die wel DLSS hebben ondersteunen bijna altijd ook FSR, en voor de enkele games die enkel DLSS ondersteunen zijn er oplossingen om ze FSR 2.x te laten gebruiken.
  • Ja maar DLSS 3 met frame interpolation generation is zo geweldig! -> Heeft nVidia arbitrair gelockt aan de 4000 serie, dus veel plezier met een extreem dure GPU kopen, maar daarnaast werkt dit enkel lekker als je toch al een erg hoger (80+) framerate hebt, want de kwaliteit van de geïnterpoleerde frames is echt om te huilen In die scenario's kan je je afvragen of de hogere framerate het wel waard is om dan lagere kwaliteit EN hogere latency te hebben. Dit is echt poep tussen je frames smeren, net zoals tvs van 10 jaar geleden ook deden.
Alles opgeteld zijn die extra's misschien wel leuk, maar ik betwijfel ten zeerste of ze belangrijker zijn dan gewone simpele raster performance, en op dat vlak wint AMD gewoon met twee vingers in de neus als je elk prijsniveau bekijkt.

Pas als consumenten rationeel aankoopgedrag gaan vertonen kunnen we de huidige cycle doorbreken.
Je vergeet de drivers, die bij Nvidia wel op een hoger niveau zitten en minder issues hebben.
Verder helemaal mee eens hoor. Ik heb zelf NVidia en voor bijvoorbeeld streamen is dat nog gewoon beter dan AMD, maar qua prijs/performance om te gamen is AMD eerder aan te raden.

Alleen zoals eerder gezegd is het natuurlijk wel zo dat AMD net als bij de CPU hun prijzen gaan verhogen zodra ze zien dat de concurrent niet mee kan, immers ook dat bedrijf is gewoon gericht op zoveel mogelijk winst maken zoals elk bedrijf.
Al jaren een AMD kaart,nooit problemen mee.
Ik moet eerlijk bekennen dat ik jaren lang AMD gebruikt heb. Nu heb ik een Nvidia erin zitten en alleen maar ellende. Zoveel ellende heb ik nog niet meegemaakt met AMD.

Kan ook puur toeval zijn hoor, maar ik ben er niet positief over.
Dat dacht ik ook altijd… totdat ik vorig jaar op AMD overstapte. Nul problemen gehad tot de meest recente driver, die wat kleine issues voor me oplevert. Met Nvidia was er veel vaker iets.
Ik snap dit niet. Ik gebruik AMD al sinds de Ati Radeon 9700 Pro tot en met heden. Nooit issues met drivers gehad.
De laatste paar jaar heeft AMD wel veel werkt ingestopt en hebben ze nu hun achterstand voor een groot gedeelte al wel weer ingehaald. Dus min of meer zijn de drivers van Nvidia en AMD wel een beetje gelijk.
Vertel, geef eens wat voordelen dat je merkt dat de drivers bij Nvidia op hoger niveau zit. Ik ben overgestapt van Nvidia (GTX980M en 1050Ti) naar AMD (6800XT) en heb met beide afgelopen jaren geen enkele problemen ondervonden na driver updates. De software "suite" er om heen is anders en daar kan je bepaalde voorkeur voor hebben maar drivers zijn afgelopen jaren goed van beide is mijn ervaring.
Als mensen het maar blijven geloven en daarom geen AMD kopen, dan blijven ze maar te dure Nvidia kaarten kopen. Ze kijken maar
"Ja maar", misschien eens een GPU (een RX 6400, RX 6600 of RX 6700) gewoon bestellen, eens proberen of het nu echt zo kommer en kwel is en dan terugsturen of leen er eentje van iemand of kijk eens mee met iemand.

Wijzen met het vingertje en niet feitelijk spreken is enorm de weg van de minste weerstand.

[Reactie gewijzigd door SkyStreaker op 6 december 2022 19:37]

Ik snap de driver problemen niet echt. Had een R390X had zelden problemen. Soms met nieuwe titels had ik wel wat bugs maar, die werden de volgende dag al opgelost. Dat was een hele tijd geleden en nu is de kwaliteit van wat ik heb gezien hoger. Misschien in de oude tijden maar, nu is het een andere verhaal.
ik heb juist drivers ellende sinds ik naar nvidia bent gestapt.
Kijk naar het zieke gedrag dat NVIDIA vertoond naar hun gebruikers. De nieuwe release van de 3060 met 4 minder gb en ook 18-28% minder performance. En wel onder de 3060 naam verkopen.

Dat is toch een complete minachting naar je klanten. Waarom zou je dit bedrijf nog vertrouwen en er producten van willen kopen ?

[Reactie gewijzigd door SactoriuS op 7 december 2022 23:41]

Je noemt nu dan ook een pluspunt op, zodra drivers geoptimaliseerd zijn is de bang 4 buck nóg groter.
Inderdaad lijkt AMD momentaan de betere keus ... maar nVidia zal dan zoals je zegt simpelweg de prijzen moeten verlagen om weer mee te komen.
Ik kocht inderdaad een 2070super in plaats van een rx5700xt voor onderandere de raytracing, echt heb ik daar amper gebruik van kunnen maken omdat het fps compleet de grond in stampt.. 8)7

Als ik bij Cyberpunk 2077, de RT aanzet crashte de hele game gewoon |:(
nVidia pakt de markt op het moment. Ze kunnen altijd nog omlaag met de 4080, maar ze hebben wel de zakken van de early adopters leeggeklopt met 1-2 maanden voorsprong.

Bij gelijke prijs/prestatie kies ik zelf meestal voor nVidia, omdat ik er in al die jaren dat ik al videokaarten koop, gewoon minder problemen met drivers e.d. mee heb. Bij een AMD-kaart had ik altijd wel wat. (YMMV, spreek enkel uit eigen ervaring).
Hier kan ik het toch niet mee eens zijn,
  • DLSS 2 is nog steeds duidelijk beter dan FSR 2.1, misschien voor velen scheelt het niet genoeg meer voor de price premium maar dat is puur meningen gebaseerd, ik persoonlijk zie het toch wel echt als value.
  • DLSS 3 is inderdaad nu nog niet zo geweldig, maar je weet nu al vrij zeker dat dit wel gaat verbeteren, maar goed, op dit moment is het niet geweldig en daar hebben we het nu over. Weliswaar zullen sommige mensen het al wel beter vinden dan lagere settings of resolutie, voornamelijk in non competitive games, maar ook dit is mening gebaseerd.
  • Ray tracing kan je niet langer op zij schuiven als "ja maar niemand boeit dat wat", misschien zijn een hoop mensen inclusief mij zelf gewoon gebrainwasht door NVIDIA, maar de belichting met ray tracing vind ik toch wel zo doende beter dat ik er wel degelijk iets voor over heb.
Maar goed, al met al is het niet zo zwart op wit wat de betere keuze is, het komt er gewoon neer op wat je belangrijk vind, voor sommige mensen zijn al die bijzondere snufjes als ray tracing niet zo belangrijk of ze vinden de iets betere kwaliteit van DLSS 2 de premium prijs niet waad, en in dat geval is AMD inderdaad de meest logische keuze. Maar al verdien je geld als water en wil jij de meest moderne snufjes en de absoluut hoogst mogelijke performance (en een klein hete lucht kacheltje) dan is NVIDIA toch echt de enige die je dat gaat aanbieden.

Als ik naar mij zelf kijk zal ik heb ik nu een 6800XT waar ik erg blij mee ben en zal ik waarschijnlijk de 7900XTX oppikken gezien ik een puur linux gebruiker ben en daarbij dus toch (nog) geen gebruik kan maken van RTX of DLSS, ook hebben de games die ik graag speel geen support voor deze features en de linux drivers voor AMD zijn gewoon een stuk minder kopzorgen.

[Reactie gewijzigd door TimTurbo2 op 7 december 2022 11:39]

Nu wil ik een AMD kaart:).
Wachten op de 7xxx reviews, met meer informatie kan je enkel betere keuzes maken ;)
Erg aardig van u, maar als ik de 7900 xtx kon pre-orderen zou ik dat doen. Helaas is dat niet het geval en wacht ik dus verplicht de reviews.
Zodra AMD de cycle doorbreekt gooien ze gewoon de prijzen omhoog hoor. Zelfde hebben ze gedaan bij hun CPU lineup waarbij Intel zelfs vaker de betere keus was qua prijs/prestatie.
Zeker. In een gezonde markt gaan ze hele tijd heen-en-weer. Innovatie gebeurt bij die kantel-punten.
In een gezonde markt zijn meer dan 2 spelers.
Absoluut. Er zijn ook meer dan 2 spelers:

- Intel
- Apple
- Samsung
- (alle andere fabrikanten die mobiele chips maken)

[Reactie gewijzigd door Gamebuster op 6 december 2022 10:34]

Ik kan een AMD, nvidia of Intel GPU in mijn PC prikken; dus daar heb ik keuze uit performance en kosten.
Apple is helemaal geen speler omdat Apple spul alleen voor Apple beschikbaar is.
Intel is (helaas) nog voor niemand een goede optie, ik zou ze v.w.b. videokaarten momenteel 'nog geen kwart van een speler' ;) noemen in de manier van omschrijven die @Gamebuster gebruikt.

Wil je een videokaart zijn er dus 2 spelers die momenteel een goede keuze kunnen zijn. Een Intel kaart kopen is momenteel 'sponsoren van de hopelijk toekomstige derde speler' om maar in die beeldspraak te blijven, maar daar blijken (niet geheel verrassend) toch niet zo heel veel kopers voor te kiezen...
je vergeet de enige partij die daadwerkelijk licentie technisch nog x86-64 cpu's mag maken...
VIA Technologies

8)7 niet dat ze daadwerkelijk nog producten hebben waar je als consument iets aan hebt.
Al schijnen ze in vooral in China nog wel een afzetmarkt te hebben.

lijst met cpu's waarvan de laatste in 2019 aangekondigd werd:
https://en.wikipedia.org/..._VIA_microprocessor_cores
Wat een onzin, wanneer heb jij ooit een videokaart voor je PC bij Apple of Samsung kunnen kopen?
Waarom moet het voor je PC zijn?

Een M1/M2 Pro/Max hebben GPUs die prima concurreren. Dat je er geen Call of Duty op kan spelen is simpelweg omdat de developers geen moeite doen om een andere compile-target aan te klikken, niet omdat de hardware het niet kan.

Je kan ook windows machines kopen met ARM chips erin, maar opnieuw: de software is niet compatible.

Als die compatibiliteit er wel is/komt, komen er vanzelf krachtigere ARM chips naar PCs
Je mag het ook in een externe behuizing stoppen en via TB op je Mac aansluiten hoor ;)

Maar het artikel en de discussie gaan over (de producenten van) discrete videokaarten, niet over integrated graphics.

Dat een M* chip van Apple behoorlijk mee zou kunnen komen qua prestaties wil ik nog wel geloven, en ik zie wat voor spellen je tegenwoordig op een telefoon/tablet met ARM chip kunt spelen, maar dat een hele andere discussie.
Waarom het voor de pc moet zijn?
simpelweg omdat de developers geen moeite doen om een andere compile-target aan te klikken, niet omdat de hardware het niet kan.
Je beantwoord je eigen vraag.
Het gaat hier over een bericht betreffende gpu's gemaakt om voornamelijk gamers te bedienen op de markt.
We zullen nooit weten of een M1/M2 Pro/Max echt prima concurenten zijn zoals jij zegt, omdat het niet echt te testen valt op deze manier.
En denk je niet, dat als ze echt ZO concurrerend zouden zijn die games ook zouden worden uitgebracht op die hardware?
Ik ben het met je eens dat deze producenten ook gerekend moeten worden tot concurrenten.
Dan zou ik Sony, Xbox (en Nintendo) ook willen toevoegen aan jouw rijtje.
Zeker op het gebied van gaming zijn dat hele aantrekkelijke (en voor een veel grotere groep mensen bereikbare) alternatieven voor de GPU i.c.m. een PC.
Ik dacht aan consoles maar die gebruiken tegenwoordig gewoon AMD of nvidia hardware, daarom had ik ze niet genoemd.
M2 komt niet eens de buurt van de nieuwe generatie GPU’s

Sterker nog als je kijkt naar moderne games die wel op Mac uitkomen komt men niet eens mee met RTX gpu’s van twee generaties terug.

Het is vrij beperkt allemaal zie ook bij Digital Foundry: https://youtu.be/6iXx9lfe62w

Apple komt (helaas) niet mee, zelfs niet met oude GPU’s.

[Reactie gewijzigd door DLSS op 6 december 2022 16:42]

M2 is dan ook een instap-model chip. M2 pro/max/ultra zou sneller worden, neem ik aan. De high-end M1 chips waren wel degelijk indrukwekkend vlot
Geen enkele Apple chip kan in de verste verte concurreren op high-end GPU vlak. Zelfs niet met GPU's van oudere generaties:

Apple M1 Ultra Benchmarked, Gets Destroyed by the RTX 3090:
https://www.extremetech.c...destroyed-by-the-rtx-3090

Apple’s charts set the M1 Ultra up for an RTX 3090 fight it could never win:
https://www.theverge.com/...harts-cpu-gpu-performance

''RTX 3090 annihilated the M1 Ultra, both in gaming and compute benchmarks.'' - Zelfs de M1 Ultra kan in werkelijkheid bij lange na niet meekomen met gpu's van de vorige generatie.

Ik ben merk/platform agnostisch (zo hebben we hier in huis gewoon ipads, macbooks en gebruik een iPhone) en ik geef als liefhebber gerust 4000 euro uit aan een computer als die het waard is, maar dit is waarom ik dus geen Mac koop.

Er is (nogmaals, helaas) gewoon geen goede hardware (en geen goede software) beschikbaar bij Apple voor liefhebbers van games.

[Reactie gewijzigd door DLSS op 6 december 2022 19:12]

Je kunt wel grappig proberen te doen, maar je kunt voor geen enkele PC, ook niet voor een 'Apple Mac', videokaarten van Apple of Samsung kopen. Apple en Samsung maken geen videokaarten.

Trouwens als je PC zo letterlijk als 'personal computer' opvat, noem je je smartphone/watch/TV dan ook allemaal PC's? Dat zijn ook persoonlijke apparaten die berekeningen uitvoeren :+
Ok, als we betweterig gaan doen ipv gewoon te lachen...
Wat een onzin, wanneer heb jij ooit een videokaart voor je PC bij Apple of Samsung kunnen kopen?
Moet ik deze nog toelichten?

En ja, smartphones etc zijn personal computers. Gezien de definitie van personal computer is dat het een computer is die niet gebruikt hoeft te worden met tussenkomst van een daarvoor ingezette computertechneut.
En ja, smartphones etc zijn personal computers. Gezien de definitie van personal computer is dat het een computer is die niet gebruikt hoeft te worden met tussenkomst van een daarvoor ingezette computertechneut.
Als je dan denkt dat een ander betweterig is, zorg dan wel dat je ook goed omschrijft wat de definitie van een personal computer is:

"Een personal computer, afgekort als pc, is een computer voor individueel gebruik. De pc wordt gebruikt voor het uitvoeren van diverse taken, zoals administratie, tekstverwerking, toegang tot het internet, programmeren, grafisch werk en computerspellen, met door de gebruiker kant-en-klaar verkregen programma's. Een computer wordt onder meer gebruikt bij werk, onderwijs, school en hobby's."

Een computertechneut heeft hier dus helemaal niets mee te maken. Maar veel mensen hebben die ook voor hun PC of mobiele device wel nodig (al dan niet in de vorm van het handige neefje).
:O

A personal computer (PC) is a multi-purpose microcomputer whose size, capabilities, and price make it feasible for individual use.[1] Personal computers are intended to be operated directly by an end user, rather than by a computer expert or technician.

https://en.wikipedia.org/wiki/Personal_computer

[Reactie gewijzigd door Crazy Harry op 7 december 2022 21:24]

Toch zijn Intels prijzen de laatste jaren juist gedaald ipv gestegen. De eerste paar jaar bleven ze premium koning spelen maar zodra AMD echt markt aandeel begon in te namen moesten ze plots concurreren.
Ja, die moesten wel. Die werden namelijk ingemaakt op bijna alle fronten. Intel kon niet langer meer de premium vragen terwijl AMD toch beduidend sneller c.q goedkoper was. Zeker nu met AM4 nog in het achterhoofd.
En dat is nu exact hoe de markt werkt. Zo zou het ook gaan met GPU’s. Zodra je achterloopt met performance kies je voor meer budget friendly en zo pak je toch een groot marktaandeel.
Dus jij vertelt me dat AMD een winst maximalisatie tactiek hanteert? Ongekend!
Nee hij vertelt je dat Tweakers die AMD maar steeds blijven prijzen voor budgetvriendelijk te zijn in een fantasie leven, want zodra AMD de bovenhand heeft worden ze erger dan hun concurrenten.
Nou ja, in ieder geval niet inherent beter... AMD's aandeelhouders willen ook gewoon geld zien, liefst elk jaar vele % meer...
zodra AMD de bovenhand heeft worden ze erger dan hun concurrenten.
Is dat zo? Erger? Of doen ze gewoon hetzelfde? En dat degene die de beste producten levert, de prijs kan bepalen is ook logisch. Ze zijn gewilder en leveren dus ook meerwaarde. Het probleem is dat we die meerwaarde moeilijk kunnen becijferen.

Pas als de markt niet meer kan of wil betalen zal de prijs niet meer stijgen.
want zodra AMD de bovenhand heeft worden ze erger dan hun concurrenten.
Hoe precies worden ze erger dan hun concurrenten?? ik heb AMD nog nooit de echt vieze spelletjes zien spelen die nVidia en Intel regelmatig hebben gedaan en nog steeds doen
Ja, ook zij willen winstgevend draaien toch? Als je een goed product maakt en het is succesvol is dat gewoon gezonde marktwerking. Dan moet je maar gaan wachten op de tweedehands markt of geduld hebben tot de nieuwigheid eraf is.
Ik vrees, dat op het moment, dat ze de kroon pakken kwa prestaties, ze weten wat ze in handen hebben. Bedrijven zijn niet je vriend en AMD is daarin zeker geen uitzondering.

Een mooi voorbeeld is de Ryzen CPU, op het moment dat ze wisten dat ze iets beters hadden dan Intel, durfde ze daar ook onmiddellijk de bijbehorende prijs voor te vragen.

Ze hebben simpelweg aandeelhouders die ze tevreden moeten stellen.
Miep niet zo. AMD heeft een enorme inhaalslag gemaakt sinds de Ryzen op zowel enterprise als consumenten-niveau. Je hebt tegenwoordig zulk sterke CPU's met zoveel core's dat je echt jaren vooruit kunt.

Dat vergeet men nog wel eens. CPU's zijn zo krachtig tegenwoordig dat je er gerust meerdere en langere jaren gebruiken kunt t.o.v vroeger.
Hij zegt toch ook niet dat AMD een slecht product heeft?

Geschreven op een Intel i7-3770
Dat lijkt me normaal: de taak van AMD is niet de prijzen van Intel verlagen, maar om zelf succes te hebben. Als Intel geen degelijk alternatief biedt kan AMD dus gewoon hogere prijzen vragen.

Daarom is fanboyisme stom: iedereen is gebaat wanneer alle bedrijven concurrerende producten kunnen maken.
Al hadden ze geen aandeelhouders. Als jij iets hebt gemaakt dat iedereen wil hebben en ze hebben daar telkens meer geld voor over dan is het toch logisch dat je de prijs verhoogt? Alleen in uitzonderlijke gevallen gebeurt dat niet (liefdadigheid o.i.d.). En die extra marge is ook niet verkeerd want die heb je in deze sector nodig om nieuwe produkten te ontwikkelen die dan hopelijk ook weer beter zijn dan de concurrent.

Het gaat pas mis als de aandeelhouders teveel geld wegsluizen.
Het is wel de vraag in hoeverre deze vroege resultaten ook echt kloppen. Kan met Beta drivers geweest zijn waarbij de prestaties niet optimaal zijn.
Echter lijkt het al wel heel duidelijk aan de hand van AMD's eigen slides dat deze 7900XTX geen 4090 concurrent is maar eerder een 4080 concurrent. Qua Raster prestaties zal de kaart nog wel een eind in de buurt van de 4090 kunnen komen en dus een stuk sneller zijn dan de 4080. Maar met Ray Tracing wordt het een ander verhaal dan moet je toch meer aan 3090-4080 prestaties gaan denken.

Ik vind de naamgeving overigens wel erg raar gezien de prestaties. Als ik AMD was geweest was ik eerder voor RX7800XT en RX7900 gegaan of RX7900 en RX7900XT. Dan houd je tenminste nog wat ruimte over voor een echte XTX die serieus snel is.

Ik weet niet of het perse nodig is om de prestatie kroon te pakken. Zie bv de HD4850 en HD4870. Toen had AMD ook de kroon niet te pakken maar door heel veel prestatie voor weinig geld aan te bieden hebben ze toen erg veel kaarten weten te verkopen.

Echter hebben we nu wel met een nieuw AMD te maken en dat is misschien maar goed ook want het oude AMD van voor Lisa Sue was niet echt in staat goede marges te halen waardoor er elke keer te weinig geld beschikbaar was voor R&D.
De marges zijn nu wel hoog net als bij Intel. nVidia zit er nog wel boven zo ver ik weet.
Echter zie je nu wel wat dat doet voor de ontwikkeling van chips bij AMD ze komen wel weer met innovaties. Helaas blijft de prestatie kroon nog wel uit ondanks ze er wel dicht in de buurt zaten met RDNA2. In dat opzicht lijkt RNDA3 wel een stapje terug maar wellicht zijn de marges op deze kaarten wel beter.

Vergeet niet dat AMD niet zo veel capaciteit heeft als nVidia of Intel. En ze waarschijnlijk meer kunnen verdienen als ze die GPU's niet maken en gewoon CPU chiplets voor severs maken en die verkopen. Of de CNDA2 chips maken voor datacenter gebruik.
En ja daar hebben wij als consument niets aan. Maar het is wel een balans die nu nog gezocht moet worden.

Het gaat in dat opzicht nog wel wat jaartjes duren voor AMD echt kan groeien in de GPU markt. We hebben allemaal wel gezien hoe langzaam dat in de Desktop en Server markt gaat ondanks de goede lineup en vraag.

Dus ik vraag me af of de kroon pakken wel belangrijk is als je toch de aantallen niet kan produceren. Daarnaast zullen ondanks het niet hebben van de kroon veel mensen toch blind voor nVidia gaan de marketing van nVidia is altijd heel goed geweest en daardoor kennen mensen het goed. Mensen zijn daar toch wel gevoellig voor. Zeker als iets verder goed bevalt. Why change a winning team?

[Reactie gewijzigd door Astennu op 6 december 2022 10:17]

Dit zou waar zijn als het gros van de mensen de prestaties van een 4090 nodig hebben/daadwerkelijk kopen. In de budget en mid-range zijn de AMD kaarten gewoon koning op dit moment. Een 6650XT is ruim sneller dan een 3060 en kost ook nog minder. Als zulke feiten niet genoeg zijn voor mensen, ligt het probleem toch echt bij de mensen zelf
In praktijk maken een hoop mensen de keuze o.b.v. welke partij de prestatie-kroon heeft. (jij en ik natuurlijk niet, wij zijn beter dan dat). Pas zodra het topmodel overtroffen wordt (ongeacht hoeveel stroom of geld dit kost), stappen gamers massaal over naar de minder snelle modellen van datzelfde kamp, simpelweg door de reputatie.

Zodra het topmodel overtroffen wordt, is er een soort "geeks feestje". Youtubers worden wild, grote banners met een nieuwe winnaar, etc. Dat is wanneer men overstapt. jij en ik niet he! wij kijken alleen maar naar prijs/performance! maar de rest...
Een 6650XT is ruim sneller dan een 3060 en kost ook nog minder.
Inderdaad zeg. Ik moest wel even goed zoeken op de pricewatch, die kaart zit diep verstopt in de lijst

[Reactie gewijzigd door Gamebuster op 6 december 2022 08:33]

Helaas is het ook zo dat Youtubers gewoon deel van de marketingstrategie zijn en de high-end kaarten compleet oververtegenwoordigd zijn qua exposure. Een beetje net als hoe je op Youtube amper reviews vindt over modale auto's met de instapmotor, maar wordt doodgesmeten met AMG / M / Audi RS modellen en ander speelgoed wat slechts een paar procent van de bevolking daadwerkelijk op de shortlist heeft staan.

Slechts een handjevol sites / kanalen hebben nog tot dit jaar teruggekeken naar de RX580 / GTX1060 generatie van kaarten omdat deze nog zo prevalent zijn in de PC's van de gemiddelde gamer.

Het gevolg is dat iedereen zich blind staart op kaarten van 1000€+, terwijl men voor de helft eigenlijk ook al een flinke upgrade had kunnen hebben. Ik ben er zelf ook voor gevallen overigens.
Idd een ieder had ( net als ik ) op 25-11 jl. een RX6800XT kunnen kopen voor 'maar' €599 _/-\o_
Mooie prijs voor een fantastische kaart natuurlijk, veel gameplezier gewenst!

Maar uiteindelijk is dat natuurlijk niet het midrange segment waar de meeste mensen zich in zouden bewegen. 599 Euro is een hoop geld, meer dan een nieuwe console, en voor velen daarom ook boven budget. De xx60 modellen gaan in de regel als warme broodjes omdat ze vriendelijker geprijst zijn en lijken in de reviews low-end, maar zijn dat eigenlijk niet. De enige reden waarom ze zo worden waargenomen is omdat er amper nog low-end kaarten worden uitgebracht, of omdat men gangbare kaarten van yesteryear helemaal niet meer meeneemt, hetgeen het beeld vertekent.
Daarom heb ik mijn 6700 XT maar teruggestuurd binnen 30 dagen, de prijs was 80 euro gekelderd. Sky gaat wel ff wachten en pompt zijn iGPU voorlopig maar naar 2,3GHz.
Je hebt helemaal gelijk hoor, 99.9% van de mensen de Audi RS filmpjes bekijken kunnen amper de stoelen betalen. Maar het trekt gewoon kijkers.

Dat zie je hier op Tweakers ook heel sterk terug. De focus ligt zeer sterk op die extra fps.
Een zuinige kaart, met leuke prijs en best wel goede performance zal nooit een Ultimate predicaat krijgen.
Ja, dat effect van sponsoring en ook gewoon directe inkomsten bij YT-ers maakt dat ze zichzelf soms compleet buiten de belevingswereld van kijkers kunnen plaatsen.

Een naar bijeffect van advertesing. In sommige gevallen leveren YT-ers misschien wel leuke content en is het ze gegund dat ze daar ook rijk van worden / lekker mee verdienen. In andere gevallen is hetgeen wat ze doen niet eens zo indrukwekkend maar hebben ze zoveel momentum gekregen (en dus kijkers) dat ze echt heel veel geld verdienen. Op dat moment staan de verdiensten niet meer in verhouding met de geleverde prestaties (dat zie overigens ook wel in andere 'beroepen').

Ik hoop dat op die manier kijkers zullen afhaken want ik heb helaas ook niets aan de review van een Lamborghini waar er 400 van worden gemaakt en die alleen te koop is als je al een Lamborghini bezit en dan nog moet hopen dat je het mag kopen.
Hetzelfde geldt dus voor computer hardware al is daar het prijsverschil tussen midstream en high-end niet eens zo groot en dus zijn die high-end GPU's bijv. nog iets haalbaarder.

Dit effect [dat grote getallen mensen enorm rijk maakt] is weer een te wijten aan de enorme hoeveelheid geld die inmiddels in omloop is. In een systeem waar verdiensten nog in verhouding staan met geleverde prestaties zou nooit zoveel geld in omloop zijn.
Het lijkt erop dat deze generatie opnieuw niet indrukwekkend genoeg is om mensen massaal te laten overstappen, helaas.
Ik denk dat we het misschien even reviews moeten afwachten.
Persoonlijk verwacht ik voor de eerste keer sinds 15 jaar een overstap te maken naar AMD deze generatie.

Al is de performance van de 7900XTX gelijk aan die van de 4080, dan is de prijs/performance ratio een stuk beter bij AMD.
Reeds bekende indicatoren (AMD's eigen performance slides tegenover de 6950 in 4k) geven aan dat de 7900XTX waarschijnlijk 5 tot 10% beter presteert in games tegenover een 4080.

https://www.notebookcheck...s.666320.0.html#9142410-1
Er zitten bij AMD wel een paar "ongemeten" nadelen, zoals gebrek aan G-Sync (als je een "echt" G-Sync scherm hebt), en gebrek aan DLSS (AMD's variant is minder breed ondersteund). Ook is de raytracing performance van AMD tot nu toe altijd ietsje minder geweest, wat niet relevant is voor mid-range maar wel voor high-range.

De prijs zal dus echt een stukje lager zijn om die nadelen te overkomen samen met de simpelweg mindere reputatie van AMD.

Maar je hebt zeker gelijk: We moeten afwachten. Maar het lijkt er niet op dat deze generatie er iets noemenswaardigs gaat wijzigen vergeleken de voorgaande generaties.
Volgens mij kun je FSR nu op driverlevel aanzetten (als RSR) bij AMD-kaarten waardoor het in alle games zou moeten werken. Dat zou de compatibiliteit tov DLSS een stuk groter maken.
Zover ik weet klopt dat niet, omdat je als je FSR wil integreren meerdere render targets moet hebben met de juiste informatie. De driver kan zelf deze informatie niet aflijden of erbij toveren. (Zoals een render target met informatie over hoe snel alles over het scherm beweegt.)
Toch is dat niet wat hier staat:
https://nl.hardware.info/...-via-nieuwe-radeon-driver

Of hier:
review: Eerste blik op AMD's Radeon Super Resolution

Het lijkt er dus op dat er "een manier" is om dit te doen zonder render targets. Hoe ze het doen weet ik verder niet, maar het is iig iets om naar te kijken als je een >= AMD RX 5xxx series kaart hebt.
Nou daar ben ik echt verbaads over. Had mezelf gebaseerd op het feit dat ik FSR heb willen integreren in mijn eigen game engine en daarom de SDK en hoe het werkt heb doorgelezen. Zeer verbaasd dat RSR zomaar werkt, aangezien er zoveel informatie mist.
Klopt. De 4080 en 4090 zijn prijs/prestatie flink duurder dan de vorige generatie*. De bedoeling van een nieuwe generatie is juist dat ze meer bang for buck leveren. Zonder prijsverlagingen kan men deze generatie inderdaad het beste overslaan.

* Bron: https://www.techpowerup.c...-founders-edition/33.html
Als ze in die tabel de launch prijzen, zeker als je de 15% inflatie die we gehad hebben meerekent, zouden gebruiken van de vorige generatie zou je zien dat er wel degelijk meer bang uit je buck komt.

3090 @ $900 nu vs $1725
3080 @ $660 nu vs $ 804 (wat in realiteit eerder >$1100 werd)

De straatprijzen die TechPowerup hierboven hanteert zie je trouwens totaal niet terug in de pricewatch hier...


Je koopt vandaag een 4080 voor €1450 die 20-30% sneller is dan een 3090 die destijds €1900 (€2185 met inflatie) kostte en 30-35% sneller dan de 3080 die een hele tijd €1200 (€1380) kostte.

Daarnaast een 4090 voor €2200 die maar liefst 50-60% sneller is dan de 3090 voor dus nagenoeg dezelfde prijs.
De 40 serie werd niet verkocht tijdens de launch prijzen van de 30 serie. En ook niet tijdens de corona pieken. Als je vandaag iets koopt, heb je alleen met de prijzen van vandaag te maken.
Ik kocht vaak trouw amd hardware, keuze voor de underdog, maar in cpu land hebben we gezien wat er gebeurt als ze sneller of gelijkwaardig worden. De prijzen gaan dan omhoog. Pas als de consument niet meer kan of wil kopen gaan de prijzen dalen.
Sinds AMD keihard is teruggekomen pakken ze inderdaad maximale winst, maar itt het Intel tijdperk zien we nu wel veel grotere performance stappen bij iedere release.
Maar de underdog mag toch ook wel eens beloond worden voor hun efforts? Door de marktdominatie heeft Intel al vaak een streepje voor.
Hogere prijzen voor een beter produkt is toch niet zo heel erg? Natuurlijk is het leuk om voor minder geld bijzonder goed spul te kunnen kopen maar we kunnen AMD niet gaan verwijten dat ze ook geld willen verdienen. Ik vind het ook wel jammer maar AMD 'straffen' door hun produkten niet te kopen is geen goed idee.
In 2005-2006 hadden ze duidelijk een voorsprong met de Athlon64(X2) qua prestaties, sinds 2003 zag je al kantoordesktops verschijnen met de AthlonXP, maar de Athlon64 was echt een concurrent. Intel had toen Dell en HP onder druk gezet(intrekken van hun quantumkorting) als ze doorgingen met de Athlon64 in hun zakelijke desktops aan te bieden. Sinds 2006 verdwenen ze toen uit de kantoortuinen, tenzij een creatieve beheerder consumentenPC's ging aanschaffen voor op kantoor.

Uiteindelijk heeft dit AMD via een rechtszaak wel wat opgeleverd, maar de zakelijke markt werden ze uitgedrukt en op die manier hebben ze bijna 10 jaar aandeel in de zakelijke markt misgelopen.
Dit argument hoor ik jaarlijks in september als Apple nieuwe iPhones uitbrengt ook elke keer. Mensen upgraden helemaal niet elk jaar hun GPU. Zolang de incrementele updates om de paar jaar maar groot genoeg zijn zullen mensen toch upgraden.
NVIDIA heeft de Titan moeten rebranden naar RTX4090 om de snelste te zijn, maar het blijft een niche product al heeft deze zet wel voor meer publiciteit en verkoop gezorgd.

De prijs zal in de toekomst zowel bij AMD als bij NVIDIA concurrentieel zijn. Als een AMD product beter is, kost het meer dan NVIDIA en omgekeerd. Te bekijken bij release of de XTX in games net iets sneller of net iets trager is dan de 4080. De prijs na 2 a 3 maanden zal navenant zijn, eerst moeten de fanboys gekocht hebben en moeten er meer kaarten geproduceerd worden.
Dezelfde prestaties als een 4080 voor €400 minder?

Hoe is dat niet indrukwekkend en geen reden om AMD ipv Nvidia te kopen? Je moet wel heel erg veel geld over hebben of een echte fanboy zijn, wil je jezelf kunnen verantwoorden om een 4080 te kopen.
Hoe kom je op 400 euro?

Ik dacht dat de prijs zo goed als gelijk was.

[Reactie gewijzigd door Gamebuster op 6 december 2022 11:45]

1399 voor een 4080.

Hoeveel voor de amd kaart?
Serieus?

OK, dit verklaart je eerste reactie ook meteen.. je hebt het hele artikel niet gelezen.

Je haalt er in andere reacties ook allemaal irrelevante zaken bij, noemt nadelen die (voor velen) geen nadeel zijn en AMD zou een slechte reputatie hebben? Dat laatste doet lijken alsof je de laatste 2 jaar onder een steen hebt geleefd.
Waar zie jij de prijs staan dan?

Ik zie alleen een advies prijs in dollars. 999 dollar met btw en huidige euro/dollar koers vertaalt zich waarschijnlijk gewoon naar 1300 euro.

In ieder geval absoluut geen 400 euro verschil.

[Reactie gewijzigd door Gamebuster op 6 december 2022 12:18]

De videokaart komt 13 december officieel uit - er is nog geen 'echte' prijs. Ik reken gewoon 1:1 van dollar naar euro aangezien de euro alweer in prijs omhoog is gegaan - we zullen zien hoe het uitpakt maar 1300 kan ik me niet voorstellen.

Hoe dan ook is AMD goedkoper en ik denk ook dat ze na de streken van Nvidia de laatste tijd de gun-factor hebben.
Bedankt voor je reactie, maar ik ben niet diegene die hier in de war is. Ik geef aan dat ik geen prijs kan vinden, en jij bevestigt dit. Je kan beter reageren op de reacties die (onjuist?) aangeven dat er een 400 euro verschil is.

[Reactie gewijzigd door Gamebuster op 6 december 2022 12:41]

Ik bevestig niets, en in de war? Jij lijkt de enige te zijn die niet doorheeft dat we het over de adviesprijs hebben die duidelijk in het artikel staat. Dat er nog geen andere prijzen bekend zijn is logisch gezien de kaart officieel nog niet op de markt is?

Hoe de dollar adviesprijs zich zal gaan vertalen in een retailprijs in euro's is afwachten, maar dat de 7900 xtx goedkoper wordt dan de 4080 lijkt duidelijk. Of het nu 200 of 400 prijsverschil is/wordt, het is een significant verschil en AMD is goedkoper.

Hoeveel marktaandeel AMD hiermee kan veroveren wordt interessant om te zien, maar als ik op dit moment in de markt zou zijn voor een nieuwe GPU zou ik voor team rood gaan, al is het alleen al om de gun-factor.
Triest figuur ben jij, Ik ben het helemaal eens met @Alxndr.
1399 voor een 4080.

Hoeveel voor de amd kaart?
Staat letterlijk in de eerste 10 regels van het artikel want Alxndr deelt.
:+ :+ :+ :+
Ik zie alleen een advies prijs in dollars. 999 dollar met btw en huidige euro/dollar koers vertaalt zich waarschijnlijk gewoon naar 1300 euro.
Euro is momenteel meer waard dan de dollar, dus ik weet niet helemaal wat voor berekening jij doet. 8)7
999 dollar met 21% btw, en een pessimistische koers kom je sowieso op 1200 euro.

Hoe dan ook, sowieso geen 400 euro verschil dus. Of het nou 1200 of 1300 euro wordt.
@Gamebuster ik snap niet waarom jij zo ge-mening mod wordt. De prijs van 4080is inderdaad verlaagd als gevolg van de gewijzigde dollarkoers. Maar de adviesprijs is nog altijd 1199 dollar. Dus de 7900 is met 999 dollar 200 dollar goedkoper.
De dollar-prijs vergelijken is inderdaad een stuk makkelijker.
Ik denk niet dat het echt te maken heeft met de prestaties van deze generatie, die zit wel goed, net zoals met de 30xx generatie, het probleem zit em alleen in de prijs.
Heb je al eens gekeken naar wat voor prijzen het performance-alternatief van NVIDIA kost? Dan zit je er honderden euro's onder
Jazeker, er is een prijsverschil. Blijkbaar niet groot genoeg om mensen te laten overstappen.
Ik maak me meer druk om de drivers dan prestaties van rx 7000 series, als de drivers niet snel gefixed worden, vrees ik dat de rx 7000 series niet veel beter is, dan zijn we gedoemt 12 pin te accepteren en dat wil ik niet, ik weet nu al dat nieuwe case nodig heb of pci-e riser cable om gpu op een veilige orientatie te houden dat 12 pin alle ruimte heeft, nee ik denk dat voorlopig wel blijf met mijn 6900 XT tot ze de problemen oplossen, en anders geef ik gamen wel op te veel stress met drivers.
Je kan gewoon een andere 12 pin kabel bestellen. Diverse fabrikanten bieden die aan in hun shop
Ik wil geen 12 pin heeft niks met kabel te maken ik wil die connector gewoon niet liever 3x of 4x 8 pin
Gewoon nieuwsgierig hoor, maar wat is je bezwaar tegen de 12pin?
Nvidia komt te dicht bij de zon, smeltende kaarten met new world gaf me al weinig vetrouwen in rtx 30 series en nu smeltende 12 pins ik vetrouw die hele rtx 40 series niet het ergste moet nog komen
Zelfde prestaties voor €200 minder. Wat wil je nou eigenlijk?
Nietus. Rtx enzo, en die 200 euro heb je zo terugverdiend doordat een 4080 zuiniger is in idle

[Reactie gewijzigd door Gamebuster op 12 december 2022 18:46]

Zo terugverdiend? Die paar watt?
Een mooie prijs/prestatieverhouding als hij ook daadwerkelijk voor deze prijzen te koop gaat zijn. Alleen daarom zal ik deze al kopen in plaats van een Nvidia, die overduidelijk nog steeds proberen om te profiteren van de miner/scalpergekte.
De MSRP ligt een stuk lager dan die van de 4080. Dus da’s in ieder geval een goed signaal dat de prijs lager gaat zijn.

Ik denk ook echt dat nVidia echt not amused is. Ze hadden gehoopt dat ze de 4080 4070 ook minimaal voor 1000 dollar zouden kunnen slijten.

Nu alleen nog hopen dat 3rd party kaarten niet ineens heeel veel duurder gaan zijn. Ze gaan sowieso duurder worden dan de kaarten van AMD zelf, maar als dat 400 dollar meer is schieten ze zichzelf weer in hun voet.
ik weet niet hoe het met de rest zit, maar als ik voor 999 EURO** aan een instapper AIB 7900XTX, bijvoorbeeld een asrock phantom of een sapphire pulse, kan komen die equivalent is aan een 4080, dan hebben ze mij binnen.

of als de koelers van de oem kaarten ook goed zijn, dan die. ik vind de foto’s best mooi

raytracing zal mij aan me reet roesten namelijk.

[Reactie gewijzigd door youridv1 op 6 december 2022 11:48]

999 is dollar he. Hier zal die minimaal zo'n 1200 euro gaan kosten.
Ah, dan nee. Dat is mij veel te duur.
Daarom moet een ieder ook voor zichzelf bepalen wat zijn €€€€,xx 'sweetspot' is.
In mijn geval was dat max. €600 ( = 6800XT ) O-)
We hebben het hier over videokaarten t.b.v 1440p / 4K die RUIM meer kosten dan een PS5 :X
Ik vind op $999 vergeleken met $1199 nog niet eens het verschil zo heel groot, ALS de prestatie van de 4080 ook gemiddeld net iets meer is. (vind dus $999 sowieso al een krankzinnige prijs, dus die $200 extra maakt dan ook niet echt zo heel veel meer uit).
Was de 1080 niet iets van 700? 30% duurder dan 6 jaar geleden vind ik nou ook weer niet een mooie verhouding. Hoewel inflatie is natuurlijk ook wel gigantisch de laatste jaren.
Wat mij betreft zie ik het liefst een nieuwe nummering, dan zijn we van het gezeur af over de prijs die het volgens mensen hier zou moeten hebben.

Kijk gewoon naar de prijs en prestatie, en laat het nummertje lekker wat het is, dat nummer is niks meer dan de ranking binnen de ladder van die serie zonder verdere relatie met de vorige generatie kaarten!

[Reactie gewijzigd door watercoolertje op 6 december 2022 08:58]

In de tijd van m'n oma koste een brood een dubbeltje en m'n moeder kocht ooit haar eerste huisvoor 10.000 gulden.

Appels met appels vergelijken aub, in de tijd van de 1080 kostte een smartphone ook minder dan €1000, en kijk nu eens, precies hetzelfde.

Inflatie heeft hier mio. ongeveer niets mee te maken, die is pas sinds dit jaar (zo) hoog. Het is gewoon winstmaximalistatie. Prijzen worden vastgesteld op basis van wat mensen bereid zijn (en kunnen) betalen, niet op basis van wat het kost om iets te maken of wat voor waarde het heeft.
Gekocht voor 425 in jan. 2017, een EVGA.
ik weet niet of je mee bent met de realiteit maar mining gekte is al meer dan een half jaar dood...

nvidia heeft hier een marketing positionering gedaan en duidelijk in de marge van gewerkt heeft. Het gezegde.. "het is wat de gek er voor geeft" nog steeds van toepassing als je ziet hoe vlot de 4090 nog steeds verkoopt. De 4080 gaat daarentegn van geen meter in de verkoop.

[Reactie gewijzigd door d3x op 6 december 2022 10:34]

Er is al aangegeven dat de nieuwe AMD GPU's zeer beperkt beschikbaar zullen zijn bij release, dus ga er maar van uit dat de prijs dus ook een heel stuk hoger zal liggen dan de adviesprijs. Naast dat de vraag dus is of de prijs/prestativerhouding echt wel zo voordeliger is als die van de 4080, want daarvan is de adviesprijs 'maar' $200 hoger, maar als de prestatie gemiddeld ook hoger is dan valt het nog wel mee. Nvidia was altijd al iets duurder dan AMD, en de verhouding nu lijkt niet veel anders te zijn dan in het verleden.
Ik vind sowieso $999 ook nog steeds krankzinnig veel voor een GPU, dus zoveel lof krijgt AMD van mij ook niet. Maargoed, ook AMD zei dat door de verkleining van de transistors de prijs, op dit moment, wel steeds hoger wordt, het is niet alleen Nvidia die dat dus beweert. Wil je dezelfde prijs aanhouden als voorgaande generaties (inflatie in acht nemend) dan zal de prestatiewinst van een nieuwere generatie een heel stuk lager liggen dan nu het geval is, en dan zouden mensen dus weer gaan zeuren dat er te weinig verschil is en dus ook geen noodzaak is om over te stappen.
Ziet eruit als een betere prijs kwaliteit verhouding voor rasterized operaties.

Nu benieuwd naar de raytracing performance. Mocht die ver onder de nvidia performance liggen, heeft nvidia nog altijd een argument voor de meerprijs.
Gezien de slides van AMD verwacht ik tussen de 3080Ti en 4080. Maar qua raster wel sneller dan de 4080. Dus ligt er een beetje aan wat je belangrijker vind. Zelf vind ik Raster nog belangrijker maar RT is niet onbelangrijk meer. Steeds meer games gebruiken het wel. Al is het lang niet altijd de moeite om aan te zetten ook niet op nVidia hardware gezien de lagere FPS en beperkte mooiere effecten soms is het gewoon te veel spiegel en minder mooi (maar dat is mijn persoonlijke mening).

Het is ook allemaal nog vrij nieuw. Game Dev's weten steeds beter hoe ze er mee om moeten gaan. Dat soort dingen hebben altijd wat tijd nodig.
Adviesprijs exclusief BTW en alle extra kosten zoals vervoer en import in Europa.
Ik hoop echt dat ze de prijs lager kunnen houden, maar vrees toch een begin prijs van 1300-1400 euro. Zeker nu Nvidia de 4080 'goedkoper' aan het maken is zou een prijs van 1200 max voor een topmodel AIB beter zijn.

Maar goed, we gaan het zien. Voorlopig is alleen de referentie te koop net na lancering, of AMD moet het beleid gewijzigd hebben (los van dat winkels fouten kunnen maken). Dit zou zo zijn voor 2 weken.
Afhankelijk van de werkelijke resulaten gok ik de AMD €1200 en de Nvidia €1300 en dan valt voor beiden wat te zeggen. En aangezien de lagere kaarten daarna nog moeten volgen zullen ze deze ook niet snel laten zakken
Wat zijn eigenlijk de release tijden in Nederland, en via waar zijn ze (hopelijk) te koop? Kan dat nergens vinden namelijk :?

[Reactie gewijzigd door HWSHHZ op 6 december 2022 08:38]

Kan niet wachten. Hopelijk kan ik de xtx rond 1.250€ kopen, anders wacht ik wel op hun rumored 7990 xtx!
Ik zou maximaal op €1200 rekenen, tenzij onze Nederlandse webshops nogsteeds euro-tekentjes in hun ogen hebben. $999 (retail advies prijs) x 0,95 (usd->eur) x 1.035 (uit duim gezogen importkosten per kaart) x 1.21 (btw) = €1188.54. Maar dit is dus het sneeuwbal effect met de advies prijs. In werkelijkheid zou een winkel waarschijnlijk €1100,- kunnen vragen en nogsteeds winst maken.
Deze videokaart stelt in mijn inziens teleur, met de huidige inflatie en kostencrisis waar Nederland mee te kampen heeft, lijkt me dat de verkoopcijfers niet denderend zullen zijn van deze top-tier videokaarten.

Aan de andere kant, is het een niche markt, waar echte geeks natuurlijk wel die extra knaken maar al te graag uit geven, aan net dat beetje extra performance...
In de Geekbench 5 OpenCL-benchmark presteert de videokaart echter minder goed dan de RTX 4080, die gemiddeld 264.482 punten haalt.
In vergelijking met welke andere score? Wel zo handig als dat dan ook vermeld wordt
Lees eens even goed? 228.647 tegenover 264.482
Volgens mij staat het antwoord op je vraag gewoon in het begin van desbetreffende alinea. :)
Ik merk dat ik eigenlijk steeds minder onder de indruk ben van dat geweld van die nieuwe kaarten - een paar jaar terug een 5700xt gekocht (voor een goede prijs) en omdat ik toch alleen op 1080p game (monitor niet vervangen vanaf mn vorige systeem) draait dat ding zo’n beetje alles met meer dan genoeg frames…dus tot deze monitor de geest geeft en tegen die tijd 4K monitoren gemeengoed zijn voor een schappelijke prijs is er voor mij geen noodzaak tot iets snellers en laat ik al dit geweld en de snelheidsdiscussies aan mij voorbijgaan - tegen die tijd dat het nodig is weer een beetje research en dan kan je weer vooruit…

Ieder z’n eigen plezier natuurlijk dus mocht je een nieuwe kaart zoeken of willen - succes :)
Heel eerlijk gezegd, zo dacht ik vroeger dus ook.

Todat ik een 1440p 144hz monitor had gekocht, nu kan ik niet meer terug.
En 4k is met lagere kaarten op ultra settings ook nog lastig, maar 1440p gaat tegenwoordig wel prima.
Ik vind de prestatie winst anders wel indrukwekkend te noemen. Of je het nodig hebt is een ander verhaal. Maar vanuit een hardware liefhebbers perspectief vind ik het super interessant ook al heb ik er zelf geen use case voor en vind ik de kaarten veel te duur geworden.

Dat maakt de hobby wel minder leuk. Eerst kocht ik altijd de snelste kaart om mee te spelen. Toen kon ik dat ook wel echt gebruiken met de games die ik speelde maar was het ook betaalbaarder. Prijzen zijn nu wel dusdanig gestegen en er zijn zo veel premium segmenten bij gekomen dat the latest and greatest kopen echt geen optie meer is voor jan en alleman. In plaats van 2000 euro voor het beste van het beste betaal je nu snel 8-10K (inc scherm toetsenbord speakers enz).

Dus ik snap ook wel dat steeds meer mensen gewoon tevreden proberen te zijn met wat ze hebben en daar zo lang mogelijk mee doen. Die 5700XT is helemaal prima voor 1080p kan je voorlopig nog wel mee vooruit.
Zelfs voor 4k presteert een 5700xt (zeker naar prijsverhouding) ook best goed hoor, heb deze kaarr nog in mn secondary rig aan een 4k monitor en ben zelf dit jaar over naar een 6900xt, maar vind nog steeds dat de 5700xt het gewoon netjes doet (al helemaal met een lichte undervolt in mijn geval, blijft ie alleen wat koeler en boost langer door)
Meer leaks graag, en dan wel echte benchmarks die er ook toe doen.
Voor sommige mensen doen deze er wel toe voor jou misschien niet.
Leaked benshmarks zijn altijd twijfelachtig ik zie liever de daadwerkelijke reviews met release drivers.
Dan lijkt mij de eerste de beste om in de gaten te houden 3dmark, deze leak is er vooral omdat deze testdata/benchmark online gepubliceerd wordt, bij games is dat normaliter niet zo :)

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee