AMD kondigt Radeon RX 7900 XT & XTX op basis van RDNA3-architectuur aan

AMD heeft zijn nieuwe generatie videokaarten op basis van de RDNA 3-architectuur aangekondigd. De Radeon RX 7900 XT en Radeon RX 7900 XTX zijn de nieuwe topmodellen die als eerste gaming-gpu's gebruikmaken van chiplets. De kaarten komen op 13 december uit.

Met de Radeon RX 7000-serie videokaarten brengt AMD de RDNA 3-architectuur met flinke verbeteringen ten opzichte van de voorgaande generatie. De fabrikant zegt tijdens ontwikkeling de nadruk te hebben gelegd op goede prestaties per watt zonder in te leveren op betere gamingprestaties. De prestaties per watt komen volgens AMD bij RDNA 3 tot 54 procent hoger uit dan op RDNA 2.

Chiplets op een gpu

Veruit de grootste verandering die we zien bij de nieuwe Radeon-kaarten is de overstap van een enkele, monolitische chip naar meerdere chiplets. Net zoals AMD bij de Ryzen-processors al enkele generaties doet, gebruikt de fabrikant meerdere chips en combineert deze tot één samenwerkend geheel. De Radeon RX 7900 XT en XTX zijn gebaseerd op de Navi 31-chip. Daarop worden maximaal 7 chiplets gecombineerd, waarvan de Graphics Compute Die de grootste chip is en alle stream processors bevat. Deze enkele GCD is omringd door kleinere chiplets die Memory Cache Dies heten, en het Infinity Cache bevatten, evenals een 64bit geheugencontroller naar het GDDR6-geheugen.

Net als op de RDNA 2-videokaarten uit de RX 6000-serie maakt AMD opnieuw gebruik van Infinity Cache als geheugenbuffer tussen de grafische chip en het GDDR6-videogeheugen, maar deze verbinding is van de tweede generatie en daarmee flink sneller. AMD stelt dat de maximale bandbreedte met 5,3TB/s onder de streep 170 procent hoger ligt dan bij de geheugenopstelling op de vorige generatie. De hoeveelheid Infinity Cache is afgenomen van 128MB op Navi 21 naar 96MB op de nieuwe Navi 31-chip, wat dankzij slimmer geheugengebruik geen prestatieverlies oplevert maar wel in energiegebruik scheelt.

RX 7000 chipletRX 7000 chipletRX 7000 chiplet

Nieuwe compute-unit, snellere raytracing en AI

De compute-unit in RDNA 3 is voorzien van een dual issue SIMD unit, waarmee AMD globaal gezien dezelfde aanpassing doet als Nvidia met zijn Ampere-architectuur heeft gedaan. Elke stream processor kan nu simultaan werken aan een floating point, integer of ai-taak. Het is nog onduidelijk hoe flexibel de nieuwe compute-unit dit werk kan indelen en verdelen, maar de theoretische rekenkracht wordt met deze stap in ieder geval verdubbeld. AMD specificeert met deze aanpassing het aantal rekenkernen niet twee keer zo hoog, zoals Nvidia met zijn CUDA-cores wel is gaan doen. Met het plaatsen van twee AI-accelerators per compute-unit en de toevoeging van nieuwe instructies moeten de prestaties op dit gebied 2,7 keer zo hoog liggen als op RDNA 2.

RDNA 3 CURDNA 3 CURDNA 3 CURDNA 3 CU

Losgekoppelde kloksnelheden

Om de prestaties per watt zo hoog mogelijk te krijgen, heeft AMD in het ontwerp van Navi 31 de kloksnelheden van de shaders en van de front end losgekoppeld van elkaar. Volgens de fabrikant zijn hoge kloksnelheden van de front end belangrijk voor de prestaties, maar kunnen de shaders zelf iets langzamer draaien zonder dat dit de prestaties vermindert. Op de RX 7900 XTX is er voor gekozen om de shaders op maximaal 2300MHz te laten werken, terwijl de front end van deze chip op 2500MHz werkt. De fabrikant stelt dat het hiermee de beste balans kiest omdat de kloksnelheden effectief 15 procent hoger liggen dan op de voorgaande generatie terwijl dit tegelijkertijd wel 25 procent in het energiegebruik scheelt.

Radiance Display Engine

Met de RX 7000-serie krijgt de displayoutput ook een flinke update, wat AMD daarvoor zelfs heeft omgedoopt tot de Radiance Display Engine. De nieuwe generatie Radeons zijn voorzien van de gloednieuwe DisplayPort 2.1-standaard en kunnen 12bit per kanaal uitsturen. Met DP 2.1 is het dankzij een enorme bandbreedte van 54Gbit/s volgens AMD mogelijk om met dsc een 8k-scherm tot 165Hz of een 4k-scherm tot 480Hz aan te sturen. Dat is een enorme stap ten opzichte van DisplayPort 1.4, zoals gebruikt wordt op de RX 6000-serie maar ook op Nvidia's nieuwe RTX 40-serie kaarten. Bij DP 1.4 ligt de limiet met compressie voor 8k op 60Hz en voor 4k op 240Hz. De fabrikant legde tijdens de presentatie graag de nadruk op dit voordeel in connectiviteit ten opzichte van zijn concurrent.

RX 7000 Media EngineRX 7000 Media EngineRX 7000 display output

Media Engine, FSR 3 en Hypr-RX

Met de RX 7000-serie brengt AMD voor het eerst ondersteuning voor AV1-encoding naar zijn videokaarten. De nieuwe Media Engine moet bovendien betere video-encoding mogelijk maken door het gebruik van AI, al geeft de fabrikant vooralsnog geen details hoe dit precies gebeurt en of de AI-accelerators hiervoor gebruikt worden. Wel wordt SmartAccess Video geïntroduceerd, waarbij een Ryzen 7000-processor en Radeon RX 7000-videokaart gecombineerd versneld een zware encoding- of decodingtaak kunnen uitvoeren.

Tijdens de presentatie noemde AMD kort dat er een nieuwe versie van FSR aan zit te komen, met een verwachte lancering ergens in 2023. Onder de naam FSR 3 zal AMD voor RDNA 3-videokaarten een tegenhanger van DLSS 3 uit gaan brengen, waarbij de AI-accelerators op de gpu gebruikt zullen worden om frames te genereren en tussen gerenderde frames in te tonen.

Op het gebied van software wil AMD daarnaast in de eerste helft van 2023 Hypr-RX introduceren. Met deze functie moet het voor gamers makkelijker worden om een optimaal game-profiel in de Adrenalin-software te kiezen, waarbij features zoals Boost, FSR en SuperResolution niet meer handmatig hoeven worden gekozen.

Verwachte prestaties

In de presentatie noemt AMD een aantal prestatieclaims voor de RX 7900 XTX, maar de fabrikant doet geen directe vergelijking met Nvidia's GeForce RTX 4090. Globaal worden tot 50 procent betere raytracingprestaties beloofd dan op de RX 6950 XT, en in rasterization zou dit op 4k tussen de 50 en 70 procent moeten zijn. Als AMD dit waar kan maken dan zal het er per game om gaan spannen of de RTX 4090 of de RX 7900 XTX sneller is. Opvallend is daarnaast dat AMD in zijn presentatie lijkt te suggereren dat FSR op RDNA 3 voor een grotere prestatietoename zorgt dan verhoudingsgewijs op de RX 6950 XT het geval is.

Prijzen en beschikbaarheid

De AMD Radeon RX 7900 XT en RX 7900 XTX zullen vanaf 13 december beschikbaar zijn, volgens de fabrikant zowel in referentieversies als custom kaarten waar de boardpartners mee zullen komen. De adviesprijs van de RX 7900 XT komt uit op 899 Amerikaanse dollar, de RX 7900 XTX krijgt een adviesprijs van 999 dollar. Omgerekend naar euro's is dat met de huidige wisselkoers inclusief btw momenteel 1110 euro voor de RX 7900 XT en 1233 euro voor de RX 7900 XTX.

RX 7900 XTX RX 7900 XT RX 6950 XT
Architectuur RDNA3 RDNA3 RDNA 2
Gpu Navi 31 Navi 31 Navi 21
Diesize 300mm² GCD
+
6x 37mm² MCD
300mm² GCD
+
5x 37mm² MCD
519mm²
Transistors 58 miljard onbekend 26,8 miljard
Productieproces 5nm+6nm TSMC 5nm+6nm TSMC TSMC 7nm
Compute-units 96 84 80
Streamprocessors 6.144 5.376 5.120
Gameclock 2300MHz 2000MHz 2100 / 2310MHz
Prestaties (FP32) 61,6Tflops onbekend 23,65Tflops
Geheugen 24GB GDDR6 20GB GDDR6 16GB GDDR6
Geheugenbus 384bit 320bit 256bit
PCI-Express-generatie PCIe 4.0 PCIe 4.0 PCIe 4.0
Infinity Cache 96MB 80MB 128MB
Tbp 355W 300W 335W
Releasedatum 13 december 2022 13 december 2022 10 mei 2022
Adviesprijs $ 999 $ 899 € 1229

AMD Radeon RX 7900 XTX gpu chip

Door Reinoud Dik

Redacteur

03-11-2022 • 21:50

421

Lees meer

Reacties (421)

421
418
199
7
0
168
Wijzig sortering
Als de performance inderdaad goed is ben ik benieuwd of Nvidia hun huidige prijzen nog vast durft te houden.
Laten we het hopen. PC gaming is dankzij Nvidia gewoon te duur geworden en ten dode opgeschreven. Het moet echt anders. Je moet gewoon voor 500 euro een degelijke GPU kunnen kopen waarmee je 3 (high end)-5 (met wat lagere settings) jaar vooruit kan. Anders haken mensen af. En het mag ook allemaal wat kleiner en zuiniger.
Ik kan je garanderen dat jij met een uitvoering: ASUS Dual Radeon RX 6600 XT OC Edition voor 500 euro gewoon makkelijk 5 jaar doet.

De 6600-XT trekt rustig 80-120 FPS op Ultra op nieuwe games zowel op 1080 als 1440

Ik doe nu ook al bijna 6 jaar met mijn RX 580 meeste draai ik nog steeds op high, begin nu pas te merken dat ik dingen naar medium moet trekken.

Ik snap niet waar dat constante idee vandaan komt dat de flagship kaarten de enige kaarten zijn waar je op kan gamen, het is altijd als zo geweest: flagship is top of the line en altijd duurder, de flagship van de vorige generatie zijn gewoon de nieuwe high/mid range modellen van de nieuwe generatie.
Ik heb 8 jaar met mijn R290x gedaan. Prima ding, niet altijd ultra meer op 1440p maar vaak niet nodig.
Zit nog steeds in m'n oude pc en werkt ook gewoon nog.
De 6600 xt is een verouderde kaart. Het is toch om te huilen dat je daar nog 500 euro voor moet betalen anno 2022. En hij gaat zeker geen 5 jaar meer mee.

Ter vergelijking: Ik heb 3 jaar geleden een 2080 super gekocht voor hetzelfde bedrag. Die is op alle fronten beter.

Hopelijk kun je de komende jaren ook met mindere hardware uit de voeten en is het high end spul alleen nodig voor 4k met raytracing. Anders zie ik het somber in, weinig mensen hebben 3000euro+ over voor een game pc.

[Reactie gewijzigd door friketje1 op 22 juli 2024 21:35]

de 6600 xt is net aan 14 maanden oud, hoezo verouderd :? trekt nog rustig 100+ FPS op ultra bij de meeste spellen, dat gaat echt nog wel 5 jaar mee.

Verder gamed er praktisch niemand op 4k dus dat komt wel goed.
De specs zijn vergelijkbaar met een high end kaart van 4 jaar oud en dan heb je ook nog een AMD GPU terwijl (ook deel van het probleem) Nvidia met name voor de compatibiliteit met games en DLSS gewoon de betere keus is.

En daar betaal je 500 ballen voor. Ik vind dat echt heel duur. Dan zit je tegen de 1500 + euro voor een game pc te kijken die al dik verouderd is.

De GTX 1080 was 600$ bij release in 2016, dat was gewoon een high end kaart. Even ter vergelijking. En dan werd in het verleden oude hardware snel in prijs verlaagd. Een 6600xt achtige zou toendertijd 200 euro kosten. Meer dan 100% duurder in 6 jaar.

Natuurlijk kun je games op pc blijven spelen. Maar als je verouderde hardware in je pc hebt omdat recenter spul veel te duur is (waar alle mensen die hier op reageren kennelijk toch erg blij mee zijn), dan wordt een game console gewoon de betere keus voor veel mensen. Waarom zou je een dure game pc kopen als voor de prijs van een verouderde gpu een console hebt?
Compabiliteit met games is echt zo'n oude plaat, die steeds maar weer herhaald word. Als je even verder kijkt dan je neus lang is, weet je dat veel van die problemen achterhaald zijn. En ja, ook Nvidia heeft last van driver issue's.
Bugs zijn van alle tijden. Zo kon ik DRR2 de eerste week niet opstarten na release door een bug met ondersteuning v/d hardware.
Bij nieuwe games is de kans dat je problemen hebt gewoon groter met meer niche hardware omdat alleen gangbare configuraties getest worden. Uiteindelijk wordt het wel opgelost, maar het kan echt bloed irritant zijn. Daarbij is de kans veel groter dat een games voor nvidia beter optimaliseert zijn dan voor AMD, alsmede ondersteuning van features zoals DLSS en dergelijke, gewoon omdat de markt voor AMD nu te klein is.
Natuurlijk kan je met een AMD kaart over het algemeen prima uit te voeten, maar Nvidia zal gemiddeld wat meer gemak geven door betere ondersteuning van ontwikkelaars.
Wat zomaar veranderd als AMD meer marktaandeel krijgt. Zolang je Nvidia blijft kopen ben je dus onderdeel van het probleem. En zo klein is AMD's aandeel niet. Kleiner dan Nvidia, helemaal waar maar zekere geen klein duimpje.

[Reactie gewijzigd door Madrox op 22 juli 2024 21:35]

Valt best wel mee, intel heeft best wel moeite om hem te verslaan en komt er net boven met hun nieuwe kaart. Bij 1080p medium 128 fps en ultra 79 fps. (kijk maar eens in de vergelijkingen van dat stukje over de nieuwe intel kaart, hij staat nog op het hoofdscherm)
Voor zo'n kaartje dus niet slecht met de huidige games. (je kan ze al voor 340 kopen)

[Reactie gewijzigd door bamboe op 22 juli 2024 21:35]

Ik ben het helemaal met je eens, ik heb een oude 1650, en daar kan je games nog steeds mee spelen.
pc gaming blijft altijd wel bestaan no worries about that.
ik zat dit stukje te lezen omdat ik iets sneller wil voor mijn samsung quad hd monitor.
Hopelijk gaan de oudere kaarten voor een iets lagere prijs als deze nieuwe uitkomen van amd.
Je kan met die kaart 20 jaar doen, maar kan je dik garanderen dat je de settings daar echt NO WAY mee op ultra kan draaien…ja, tenzij je de resolutie enorm laag zet.
Benchmarks genoeg te vinden. Heb een RTX 3080, daarmee kan ik aardig alles open gooien maar sommige games moet ik al iets verlagen. En die kaart is een heeeel stuk sneller dan de RX 6600 XT
PC gaming is dankzij Nvidia gewoon te duur geworden
Dankzij webshops en scalpers bedoel je. De RTX 3060 zou rond de €300 moeten zijn, wat gewoon een prima prijs is voor de prestaties die de kaart bied.

Denk dat er weinig mensen geklaagd hadden als de kaarten voor MSRP in de winkel hadden gelegen, want met een 3070 (MSRP $500) kan je echt wel 5 jaar vooruit.

[Reactie gewijzigd door Wolfos op 22 juli 2024 21:35]

Helaas zullen er mensen zijn die puur naar de performance gaan kijken, ik verwacht niet dat de 7900XTX de 4090 voorbij gaat.. zelfs al komt hij er in de buurt, DP 2.1, Veel minder verbruik, geen rare adapters, 2 slots etc.. en dan nog eens flink goedkoper

[Reactie gewijzigd door Daantje19 op 22 juli 2024 21:35]

de RTX3090 heeft 35.58Tflops en de RTX4090 heeft 82.5Tflops, dus waarschijnlijk sneller dan een 3090 maar trager dan een 4090 :P
Voor de prijs een veel interessantere optie dan Nvidia. Ik weet wel dat mijn volgende kaart geen Nvidia meer gaat worden, ook gezien alle andere fratsen die ze hebben uitgehaald :P
TFLOPs zegt niets over de prestaties, een FP32 berekening is niets meer dan ‘shading units x kloksnelheid x 2 / 1.000.000’.

Overigens komt dat totaal niet overeen met wat AMD hier aangeeft. Als je de integer/AI/Floating Point shading units meetelt dan kom je uit op 56,5 FP32 TFLOPs, en niet 61,6. Maar goed, het is sowieso maar een marketing verhaal, want in de praktijk kunnen de cores niet allemaal 100% FP32 berekenen.
Met compute workloads komen ze waarschijnlijk een heel eind echter doen games dat niet.

Dit is een beetje hetzelfde verhaal wat turing/ampere/en Lovelace doen tov Pascal. Ampère had ook 2x zo veel FP32 tov een Pascal SM maar daar zag je ook geen 2x prestatie winst.

AMD gaat hier eigenlijk een stapje terug tov RDNA1 waar ze juist de utilization van de CU's geoptimaliseerd hebben. Bij Vega werd ook veel niet optimaal gebruik bij gaming workloads. Maar qua compute was Vega in vergelijking met RDNA bij een gelijke die size beter.
Het is wachten op de eerste benchmarks inderdaad, meer dan gokken kunnen we nu nog niet :P
Is niet helemaal waar. We hebben de Cijfers van AMD tov de 6950XT. En daar zijn gewoon reviews van uit dus we kunnen een aardige inschatting maken dat Raster rond 4090 of net iets daar onder uit komt.
RT rond 3080 Ti of iets boven de 3090 Ti afhankelijk of het een nVidia optimised of AMD optimised Titel is.

Gezien de prijs zijn dat prima prestaties vooral in Raster is het een super deal zeker gezien het ook veel lagere verbruik en dus lagere kosten in het gebruik van de kaart.
De RT prestaties verklaren de prijs wel een beetje die zijn toch een beetje last gen. Wat gezien de prijs niet erg is.
Alles gaat afhangen van de prijzen denk ik xD, ook niet verkeerd om een keertje AMD te proberen als gpu
Hou er wel rekening dat zeker voor gaming performance het maximale aantal TFLOPS niet veel zegt. Daar gaat het er vooral om hoe goed je de CU's / SM's gevoed houd en juist daar laat Nvidia wat steken vallen de laatste tijd. Occupancy is bij de laatste topmodellen vaak niet super.

Dat wil niet zeggen dat deze kaarten de RTX 4090 zullen verslaan, kijk je puur naar TFLOPS zou de RTX 4090 +-34% sneller moeten zijn dan de RTX 7900XTX. Nu zal dat in een aantal workloads ook mogelijk zeker zo zijn. Maar kijk je naar gaming, waar rasterization performance nog altijd zeer belangrijk is verwacht ik daar eigenlijk geen verschillen van gemiddeld genomen 34%, die zou ik hooguit verwachten in de zwaarste RT workloads kijkende naar gaming.

Zeker gezien de prijsverschillen die je aanhaalt denk ik dat deze kaarten best interessant zullen zijn, echter moeten we ook niet vergeten dat $999 momenteel ook gewoon +-€1240 is, stuk goedkoper dan een RTX 4090 (wat ook in de verwachting lag), maar nog altijd te duur voor veel mensen.

[Reactie gewijzigd door Dennism op 22 juli 2024 21:35]

Vooral dat laatste kan wel s een dingetje worden. Nvidia is wel belachelijk duur deze generatie. Afdeling onbetaalbaar voor een hoop mensen. Als dit 90% van de 4090 prestaties haalt is het een hele interessante.
Zit hij er dichter bij is het eigenlijk een no brainer.

Voor de prijs van een 4090 haal ik liever deze AMD en een leuk OLED scherm. HDR vind ik meer toevoegen als raytracing en kost haast geen fps.
80% is ook al een behoorlijk prestatie voor die prijs toch?
De instap 4090 zit op bijna 2000,-? Even 800,- bijbetalen alsof het niks is.
En dan gebruikt kaart ook nog eens +/- 100 watt extra.

Ik vraag me serieus af wat je met al die overkill moet. En wat je er effectief aan hebt tot de 5090 alweer voor de deur staat.

Zijn er een stuk of 10 games die echt alles uit deze kaart trekken wat erin zit? Niet 8K op 3 schermen tegelijk en 150 fps, maar 'gewoon' 60-120 fps, op die QD-O Alienware, volle glorie RT, insane LOD, etc. Welke games zijn dat?
Nieuwe plague tale trekt behoorlijk aan mijn 6800XT, 60-70 fps op 1440. Op 4k zou de 4090 geen 100 fps halen, spel heeft geen RT.
Heb je echt meer dan 60 fps nodig om een trage game als Plague Tale te spelen? Sommige games zijn ook gewoon niet gemaakt om op hogere refresh rate te spelen. Soms zijn pc gamers een beetje verwend, ik ben toch van mening dat 100+ fps vooral zin heeft in competitieve shooters.
Ik kan niet voor anderen spreken maar 100+ FPS vind ik ook in RPGs heerlijk. Voor mij voegt dat echt een hoop smoothness en op z'n beurt immersion toe. Maar daar betaal je wel (helaas grof) voor.
Uiteindelijk zijn er altijd games die, zoals Plague Tale, geoptimaliseerd worden voor 30FPS. Om significant meer te krijgen moet je dan hele dikke hardware er tegenaan gooien omdat de game er gewoon niet voor ontworpen is.
120FPS is maar 8ms aan frame timing. Je GPU en CPU moeten dus alles twee keer zo snel doen en dan ontstaat er al snel een bottleneck omdat de game gewoonweg niet is ontworpen met dat soort framerates in gedachte.
De vraag is waarom niet? Wat men nu ziet als overbodige luxe is over 10-20 jaar normaal.
Hoeveel games waren vroeger capped @ 30 fps? Kan DA:O en C&C3 ff snel voor de geest halen.
Pc gamers verwend? Heb je 1000-2000 aan je pc besteed om te kunnen gamen verwacht je er ook wat van en niet vergelijkbare console performance die maar €400-500 kost. Speel maar es BotW op een pc en dan een switch.
ik ben toch van mening dat 100+ fps vooral zin heeft in competitieve shooters.
Dit is een hardnekkige mythe die iedereen met een 60hz scherm blij laat zijn met wat ie heeft. Helemaal prima, het klopt alleen niet. Veel discussies gaan over input lag dat lager is met hoge framerates en dat dit dus het grote voordeel is van hoge framerates. Dat is gelukkig complete onzin.

Het voordeel voor ons casuals is dat je resolutie van 1440p of 4k ook daadwerkelijk die resolutie behoudt bij beweging. En dat kijkt echt heel veel prettiger. Maar de meeste mensen weten dat niet, omdat ze dat nog nooit hebben geprobeerd.
Er komt nog wel een update met raytracing, denk dat dat de eerste word die de RTX 4090 echt aan z'n tanden gaat voelen op max settings.
Heb eigenlijk tot de vorige generatie altijd de duurdere kaarten van Nvidia gehad, 980Ti, 1080Ti, 2080Ti, maar ben op een gegeven moment afgehaakt en voor de 6900XT(980€) gegaan en ook hier wordt dat weer de 7900XT.

De sprongen zijn inderdaad veel te groot geworden voor de paar procent extra, voorheen was dit een paar honderd euro maximaal om van bijvoorbeeld een 1080 naar 1080Ti te gaan. Stap van een 3090Ti naar een 4090 is ongeveer 1300 euro afgaande op de V&A prijzen en dan hebben we het niet eens over de 4090Ti, dat zal wel weer 500 euro extra zijn. Dus gewoon een sprong van 1800€. Dit is met de 6900XT -> 7900XT nog geeneens de helft.
4090 @ 320w wordt gewoon leeggetrokken hoor bij een hele hoop spellen. MW2, Hunt Showdown, Plague Tale, ik kan eigenlijk wel oneindig door gaan. 4090 is de eerste kaart die gewoon fatsoenlijk bijna alles op 4K120 kan draaien zonder DLSS onzin.

Edit: en de 7900XTX ziet er leuk uit maar lijkt lang niet in de buurt te komen van de 4090. Wel een veel betere prijs:kwaliteit verhouding maarja da's voor de een boeiender dan de ander.

[Reactie gewijzigd door Seditiar op 22 juli 2024 21:35]

Reactie op je edit: Als ik LTT moet geloven, zit het er minder tussen in rasterisatie dan je denkt. Zij hebben het vergeleken op basis van de prestaties van de RX6950 en vervolgens met de daadwerkelijke prestatie van de 4090 in de benoemde games. Dus AMD moet enorm liegen wil dan niet enigzins kloppen.
Ik hoop het van harte, ik vind het alleen nogal opmerkelijk dat AMD niet direct hun kaarten met die van Nvidia vergeleken hebben als ze écht zo dichtbij zitten. Maar misschien dat ik daar gewoon teveel achter zoek en vond AMD het noemen van de paar fikkende power adapters wel genoeg.

Als ze daadwerkelijk binnen 10% van 4090 komen is het sowieso een goede deal. Als het 20% trager wordt dan 4090 dan is de prijs:kwaliteit verhouding al een stuk verder te zoeken.
Als ik AMD was zou ik ook niet met Nvidia vergelijken op dit moment. Die vergelijking komt 13 december wel.

Maar in die video kwamen ze in bepaalde games op 6% van de 4090. Dat gaat Nvidia echt wel pijn doen. Want dan gaat AMD voor marktaandeel met deze prijs. Dat zou echt mega gezond zijn voor de markt. Hopelijk komt Intel ook dichterbij de komende jaren en dan is de markt ietsje gezonder dan deze nu is. Duopolies zuigen (als is 3 niet veel beter)
Ik zou ook niet snel vergelijken, maar heb het idee dat dat wel vaak gebeurt bij dat soort presentaties.

Gezondere markt zou enorm welkom zijn ja, zowel qua prijs als qua productiehoeveelheid.
Voor prijs/prestatie zijn er twee elementen: als 7900XTX 20% trager is dan de 4090, maar 50% goedkoper zou je kunnen stellen dat AMD het wint op het gebied van prijs/prestatie, al moet je dan waarschijnlijk eerder gaan vergelijken met de 4080.
20% minder prestaties en 60% goedkoper? Hoezo geen goede deal? Plus dat die veel zuiniger is en niet zo groot is als die belachelijke schoenendoos van Nvidia.
Het is "maar" ~35% goedkoper, dus als het 20% minder snel zou zijn is het mijns inziens geen bijzondere deal. Dan betaal je namelijk 65% van de prijs voor 80% performance, is leuk hoor maar ik zou het zeker geen goede deal noemen. Maar dat is ook maar een mening.
1000 vs 1600 dollar, is maar 35% goedkoper? Nee, het is 60% duurder. Maar goed, als je jezelf voor de gek wil houden....

[Reactie gewijzigd door Madrox op 22 juli 2024 21:35]

Dat is niet wat je zei, dat verbeterde ik alleen. 60% duurder en 25% meer performance is prima voor de topend hoor. Vorige generatie was dit verschil gekker, 3090 was 5-15% sneller terwijl het 50% duurder was.
10 a 20 % bedoel je. Ja en ook toen ging ervoor, want, het is sneller he. Sommige mensen zien de waarde van geld niet, hebben teveel, of interesseert het niet.

[Reactie gewijzigd door Madrox op 22 juli 2024 21:35]

En sommige mensen gebruiken hun PC veel meer dan anderen. Als iemand 10.000 uur per jaar achter z'n PC zit te gamen en 2000 euro aan een GPU uitgeeft, vind ik dat veel redelijker dan iemand die 1000 uur per jaar doet en "maar" 1000 euro aan een GPU uitgeeft. Maar ieder z'n ding en ieder z'n budget.

Punt is, (vrijwel) niets is zwart wit en alles is relatief.

[Reactie gewijzigd door Seditiar op 22 juli 2024 21:35]

Het gaat er niet om wat jij persoonlijk iets waard vind, het gaat erom hoe een produkt zich verhoud tegenover de concurentie. En dan zie je dat je voor veel minder geld net zo veel plezier kan hebben. De prijs/prestatie verhouding bij de 4090/4080 is gewoon slecht.
Een product kopen en al helemaal het budget is iets persoonlijks. Prijs/prestatie verhouding van de 4080/4090 zal zeer waarschijnlijk minder zijn, maar of dit het alsnog waard is is voor iedereen anders. De 4090 is gewoon nog steeds redelijk slecht verkrijgbaar, vandaar dat de prijzen nog steeds een stuk hoger liggen dan de adviesprijs. Duidelijk dus dat een hoop mensen het goed genoeg vinden.

Tegelijkertijd zullen een hoop mensen gretig op de 7900XT(X) springen, met wat geluk gaat Nvidia hun prijzen wat omlaag stellen. Maar dan moet AMD wel genoeg kunnen leveren.
Als een Appel, een goudrenet, jou 1000 euro waard is; veel plezier ermee. Feit is dat dat die 1000 euro totaal de waarde niet benaderd van die appel. Hoe zeer je er ook naar verlangt. Je betaald de hoofprijs. En diegeen die de appel kan missen, is het goudhaantje.
Als je nog op zoek bent naar antwoord, kan je hier vinden: "videocardz"
en de 7900XTX ziet er leuk uit maar lijkt lang niet in de buurt te komen van de 4090.
Onnodige stemmingmakerij gebaseerd op helemaal niets. Integendeel; de 7900XTX gaat nauwelijks onderdoen als ik kijk naar de gepresenteerde performance.
Qua raster zit hij in de buurt volgens amd's salades op. 0-5% verschil tov de 4090 laat dit 0-10% zijn dan is het wel dichtbij.

Qua raytracting is lijkt he tin nVidia titels iets onder de 3090 Ti te zijn ( meer 3090 niveau) en amd optimized titels zoals RE net wat hoger dan de 3090 Ti. Echter komen de RT prestaties daar mee niet in de buurt van de 4090.

Gezien de prijs niet erg. Maar als je RT belangrijk vind en je speelt op 4k en je wilt 120 fps liefst zonder DLSS/FSR is de 4090 of de komende 4090 Ti te way to go.

Qua prijs/prestatie/watt zit amd qua raster echt super goed qua RT on par.
Vanuit bijvoorbeeld de preview van Hardware Canucks wordt aangegeven dat de 7900XTX niet gaat concurreren met de 4090 op performance. Volgens hun heeft AMD dit ook gewoon zelf aangegeven. Helemaal geen stemmingmakerij lijkt me toch?
Nee erg jammer inderdaad. Al vind ik het verwachtte verschil van 10 tot 15% zelf zeker geen 800+ euro waard is het verschil er wel gewoon. Iedereen zal zelf moeten bepalen wat ze dat waard vinden.
Zeker gelijk in hoor, als beiden tegelijk launchten had ik zelf ook behoorlijk getwijfeld als de GPUs van beide kampen zo dichtbij elkaar komen qua prestaties.
Ze launchen nagenoeg gelijk.
2 maanden is toch nog een redelijk verschil en dat is met de aanname dat je sneller op "Koop nu" kunt klikken op de dag van lancering dan de talloze andere mensen die Nvidia overgeslagen hebben en/of AMD willen.
Cyberpunk op native resolutie.
En heel veel moderne games halen echt niet de 240 fps op 5120*1440 van mijn monitor.
Stel je voor dat je op 120fps moet spelen!
Of cyberpunk via DLSS
Vraag was niet of ik er genoegen mee neem, maar wat het maximale uit die kaart kan halen.

En ja, ik zie duidelijk verschil tussen native resolutie of FSR aan in cyberpunk.
En ja, ik zie duidelijk verschil tussen native resolutie of FSR aan in cyberpunk.
Dat is ook nog wel resolutie afhankelijk. Op 1080p en 1440p kan ik het zien. Op 4K wordt dat al lastig.
Je geeft toch geen 1000/2000 euro uit om concessies te doen? Als je toch al bizar veel geld stuk slaat voor achterlijke performance, moet het ook zo performen ;)

Neemt niet weg dat prijs per watt gewoon enorm interessant is op dit moment om in de gaten te houden
Gast, hou toch op met je 5090. Als AMD dit goed speelt vraagt Nvidia in 2023 faillissement aan met de flop van een 4090. 🤣
ik vraag me serieus af waarop je dit baseert?
de nvidia floppen van de laatste jaren waren goudhaantjes om eerlijk te zijn ...
Welgemeende interesse, maar vind jij RT echt zo weinig toevoegen? Ik kijk mijn ogen uit wanneer RT aan staat in games als Dying Light 2, Cyberpunk etc. Het kost je wat FPS dat zeker, maar het ziet er dan ook wel heel erg goed uit.
Ik kon bij C2077 in een blinde rest op YT in 1440P het verschil niet echt zien. Beide versies zagen er op sommige momenten beter uit dan de ander. RT dhad daar geen overweldigend voordeel. Dit waren sees waar rond gelopen werd zoals je het spel speelt.

Soms Is RT te reflecterend / onrealistisch en heb ik duidelijk de voorkeur voor baked lighting. Maar zoals gezegd vond ik de verschillen niet altijd herkenbaar in de blinde test.

Via YT is natuurlijk niet de beste manier gezien de compressie maar geeft wel een indicatie.
RT valt en staat met hoe het geïmplementeerd is. Neem bijvoorbeeld die Minecraft demo waar ze RT erin hebben gebakken. Het is leuk dat het kan, geinige techdemo, maar ik vind het er niet uitzien, daar is de stijl van minecraft helemaal niet voor gemaakt en komt het per definitie onrealistisch over (minecraft probeert dan ook helemaal geen realistische graphics neer te zetten).

Als je RT ondersteund in je game, goed beschouwd dien je daar dan rekening mee te houden bij het leveldesign, de effecten constant testen, net zo goed als je dat bij iedere andere vorm van belichting zou doen. Wordt zoiets achteraf toegevoegd, dan kan ik mij voorstellen dat het effect ervan een stuk minder is (tenzij de developer de moeite genomen heeft alle leveldesigns na te lopen). En daarbij kan wellicht de performance verbruik van RT ook erg schommelen als daar niet adequaat rekening mee gehouden is tijdens de development van de game. Gebaseerd op jouw omschrijving zou ik concluderen dat bij Cyberpunk hetzelfde aan de hand is.

Ik krijg het gevoel dat sommige RT implementaties hierdoor veel ste zwaar zijn, en inderdaad, soms niet eens bijster veel toevoegt. Het zal wat tijd kosten voordat RT dusdanig gemeengoed is dat dit standaard mee genomen wordt in de development van iedere game en de aandacht krijgt die nodig is om RT zo goed mogelijk tot zijn recht te laten komen.

Wat dat betreft te vergelijken met 3d in films. Is de film gemaakt met 3d in het achterhoofd van begin af aan (zoals avatar) kan dat heel erg indrukkende resultaten neer zetten. Wordt het achteraf toegevoegd in post processing, simpelweg omdat een bioscoopkaartje met 3d meer oplevert dan is het grotendeels meh. Het sterkste 3d effect is dan vaak nog de ondertiteling die boven het beeld lijkt te zweven. Zelfde conclussie, achteraf geimplementeerd zonder daar een specifieke visie bij te hebben zal resulteren in een matig product, vaak enkel gedaan zodat die stempel er op kan voor marketing doeleinden.

Ik denk dat het belangrijk is om te realiseren dat net zo goed dat 3d in een bioscoopfilm het niet per definitie beter maakt (kan zelfs averechts effect hebben), ditzelfde geldt voor RT.

[Reactie gewijzigd door Zoop op 22 juli 2024 21:35]

De RT implementaties die op nVidia gericht zijn zijn vooral erg zwaar. Games die ontwikkeld zijn voor RDNA2 en dus oa de nieuwe consoles gaan er veel efficiënter mee om. Daar zie je ook dat AMD het in verhouding met nVidia beter doet.

Het is denk ik net een beetje als met Tesselation. nVidia had toen bruteforce hardware er in gezet die heel veel aan kon. Dus werden dev's aangespoord hoge tesselation factors te gebruiken wat prima draaide op nVidia hardware. Visueel was het verschil klein met bv 8x maar nVidia had minder last van 16x of hoger. Bij AMD was de hardware echter geoptimaliseerd voor die 8x dus ging je hoger waren de tesselation units een gigantische bottleneck en zakte de FPS helemaal in elkaar. Waardoor in reviews nVidia een dikke win binnen sleepte in die games.
Met RT is het net zo de meeste games met RT op dit moment zijn geoptimaliseerd voor nVidia hardware welke veel beter is in het brute forcen van die berekeningen.

Tijd zal leren of game dev's ook met de Console in het achterhoofd welke RDNA2 gebruiken daar rekening mee gaan houden en efficiënter om zullen gaan met de RT effecten. Zolang dat gedaan wordt presteren RDNA2 en 3 kaarten gewoon prima en is het niet zo rampzalig als in games zoals C2077 en Control waar de RDNA2 kaarten behoorlijk onderuit gaan. Resident Evil en Dirt zijn voorbeelden van hoe het ook kan waar die kaarten het opzich nog prima doen.
Stiekem heeft AMD inmiddels een enorme positie in de gaming markt. Alle relevante consoles op de Switch na werken met AMD. Linux gaming groeit door de Steam Deck, draaiende op AMD. niet optimaliseren op AMD hardware wordt inmiddels behoorlijk dom!
Het komt helaas nog steeds voor dat er games zijn waarbij de Console versie prima draait en de PC versie vervolgens een nVidia saus krijgt welke ook gebruikt wordt voor de AMD desktop kaarten waardoor ze vervolgens ruk presteren terwijl de consoles het heel goed doen.

[Reactie gewijzigd door Astennu op 22 juli 2024 21:35]

Tja... AMD heeft echt meer mind- &marketshare nodig zodat Nvidia dit soort shit niet meer kan flikken!
Eens, mijn insteek was echter meer over hoe het eruit ziet, mijn stukje over performance was maar een kort punt, waarvoor bedankt voor de aanvulling.

Hoe het eruit ziet, of RT daadwerkelijk iets toevoegt is geheel aan de developer en zijn smaak, dat verhaal heeft immers niet zo heel veel met de hardware te maken.
Als jij zoveel tijd hebt om rond te kijken, ga je vast veel dood tijdens het gamen?
De prijs die Nvidia rekent voor de top end chip heeft primair te maken met de asociaal grote chips die zij fabriceren. AMD kiest met deze generatie voor afgekoppelde elementen in de chip. Daardoor kan je feitelijk meer CU's persen op een single die wat goedkoper is maar ook efficienter in ontwikkeling. De faillure rate per wafer ligt zo aanzienlijk lager waardoor de winst per algemene wafer (ik geloof dat ze 12.000$ per wafer betalen) hoger ligt dan bij nvidia.

Dat zie je ze ook doen bij de Epycs en Ryzens. Ryzens zijn gewoon aftakkingen van Eycs die bijv quality control niet passeren (of juist wel) maar prima in te zetten zijn als desktop CPU's. Als ze meer cores willen plakken ze er nog een CCD tegenaan ipv 1 grotere chip te maken.

[Reactie gewijzigd door Anoniem: 58485 op 22 juli 2024 21:35]

Ja, en de i9's zijn Xeon schroot.... onzin verhaal.
Echt onzin wat je zegt. Ryzen cpu's waren er al in feb 2017 terwijl de EPics pas in Juny gelanched werden. Jouw theorie valt daarmee meteen in de categorie "fabeltjeskrant".

https://en.wikipedia.org/wiki/Zen_(microarchitecture)
Om eerlijk te zijn: de 4090 dient voor een paar dingen:
- Voor professionele gebruikers waar de prijs er weinig toe doet
- Voor enthousiastelingen met veel geld die "de beste" willen hebben (de term "patser" komt in me op) Hoe duurder, hoe meer prestige.
- Als flagship: "wij leveren de snelste grafische kaart aller tijden, dus wij zijn de beste.

Een normaal mens moet daar geeneens over nadenken, de "praktische" Nvdia lijn houdt op bij de 80 serie.
Als ik kijk naar de cijfers die AMD zelf geeft over de RT verbeteringen van RDNA3, dan lopen die nog altijd fors achter op de nieuwe 4000 serie van Nvidia. Dat is dan wel weer in het voordeel van nvidia.

Of je dat (mogelijk) 500 euro extra waard is, dat is een tweede natuurlijk.
Persoonlijk speel ik nooit met RT, maar als dat je ding is, is dat het wel waard lijkt mij
Beetje hetzelfde als spelen zonder kleuren. RT maakt spelen zoveel mooier. Echt grootste stap sinds opkomst van shaders.
Is niet hetzelfde als zwart wit. Of dat je maar in 8-bit gaat spelen. RT is mooier, maar voor mij (n=1) zijn de graphics al jaren dikke vette prima. Die extra details merk ik tijdens het spelen helemaal niets van.

Daarom heb ik gelukkig ook helemaal geen haast om mijn GPU te upgraden :) Scheelt behoorlijk met de huidige prijzen.
Anoniem: 63072 @batjes4 november 2022 13:45
RT is mooier, maar ik zie dat zelf echt niet meer als ik een FPS speel; laat dat nu net het genre zijn waarin high frame rates het belangrijkst zijn. Uiteindelijk gaat raytracing in die games gewoon uit, het is dan paarlen voor de zwijnen werpen.
Het is meer een verschil tussen spelen op 60hz en 120hz. 60hz is prima 120hz is erger een duidelijk verschil, maar niet onmisbaar!
100 Hz, niet in het midden maar wel een mooie tussen stap. Iemand wel eens 100Hz op een CRT gedraaid? Man, dat was echt lekker smooth.
Is totaal niet waar. Er zijn niet RT implementaties die net zo mooi zijn. Misschien als je gaat pixel peepen dat je het het verschil gaat zien maar als je gewoon speelt en rond loopt hoef je het verschil niet eens op te merken. Zie bv Lumen Global illumination en reflection techniek in UE5 als een voorbeeld.
niet helemaal mee eens ligt er ook heel erg aan welk spel bijv in fortnite met rt worden alle ramen spiegels.
vind dat persoonlijk niet echt mooi te noemen
in veel games met water hetzelfde verhaal.
awel dat is vrij goed genoeg voor mij :) ik hoef geen 4090, echt niet, zeker niet tegen de prijzen dat ze er voor vragen.
Precies, heb nu een gtx970 dus deze kaarten zijn sowieso een verbetering. En wellicht dat de komst van deze serie ook iets doet met de prijzen van de 6900/6950-kaarten.
Ik heb hem ook nog steeds na 7 jaar en blijft gewoon een goede kaart.
Alle games zijn nog te spelen maar nu wel echt tijd voor vernieuwing en hopelijk terug 7 jaar pret met de nieuwe.
4080 of een 7900 XTX zal het worden. Eerst benchmarks en prijzen zien en dan beslissen.
Komt niet op een paar maanden.
Ze zeiden letterlijk: dit is de snelste kaart onder de duizend dollar. Dat zegt voor mij dat hij zeker niet sneller is dan de 4090.
Voor mij is dit de kaart die ik wil hebben.
Sneller, niet veel duurder met een vrij laag stroomgebruik. Ik moest nu bijna elke gen mijn psu upgraden, vind het nu wel even goed zo, vooral met de huidige prijzen.

[Reactie gewijzigd door Xander.M op 22 juli 2024 21:35]

Jep same hier, met mijn 3080 zit ik qua gaming rond de 300-320 watt, deze kaarten verbruiken amper meer, en dat met veel meer prestaties (Een 4090 heb ik nou ook weer niet nodig maar meer fps met hetzelfde verbruik en een compactere kaart dan mijn 3080 nu is altijd welkom)
2 slots, hoe kom je daarbij?

Zelfs de 7900XT is 3 slots.
De foto die ik hier voor mij heb is toch echt 2 slots, koeler steekt er een heel klein beetje boven uit, maar niet echt in de buurt van 2,5 slots (dan heb ik het over de reference kaarten)
Op de officiele amd website staat aangegeven : 2.5 slots .

https://www.amd.com/en/pr...hics/amd-radeon-rx-7900xt
XTX is ook 2.5 slots.
Ah oké, wist ik dus niet, alsnog compacter dan de 4090's tho
Deze kaarten zijn net als de 6800XT tm 6950XT 2,5 slots.
De 6700XT, 6750XT en 6800 waren 2 slots.

Deze 7900 kaarten zijn ook duidelijk 2,5 slots staat zoals CriminalA aangeeft ook op de AMD site maar je ziet het ook duidelijk op de foto's.
De 7900Xt is een 2,5 slot kaart. Inderdaad dus effectief 3 want die halve slot kan je niet mee. Maar 2,5 of 3 is in sommige cases een enorm verschil.
Reference vs founder edition is RDNA3 < Ada L
AIB custom RDNA3 == Ada L. ~3ghz
AIB halo Custom OC RDNA3>= Ada L. ~3,5
AIB LN2 record custom 4pin gedrochten RDNA3 >>/> ada L ~4ghz 675watt max
Klopt, het is zon kaart die je gratis krijgt als je 3 pakken wasmiddel koopt, wat een tegenvaller zeg, ja als je voor een dubbeltje op de eerste rang wil staan zit je bij AMD goed. NV4090 hier.

[Reactie gewijzigd door amon2021 op 22 juli 2024 21:35]

Voor ovens en magnetrons moet je bij Nvidia zijn }:O
Ze hebben nog een enorme voorsprong op gebied van RT. Die lijkt alleen maar groter geworden te zijn. RT is toch wel een sterke drijfveer voor het aanschaffen van high end kaarten. Als RT niet bestond dan kon je met de huidige generatie kaarten wel verder.
Is RT dat? Heb een 3080 en ken geen enkel game waar dit echt een groot verschil maakt
Ray tracing op de hoogste kwaliteit setting maakt een game als Cyberpunk echt wel een stuk meer immersive. Ik vind het verschil echt groot en zorgt voor een andere beleving.
Wel heb je daar eigenlijk minstens een 3080 ti voor nodig. Een 3080 schiet tekort.

Ik vind raytracing mits goed toegepast dus echt wel een pluspunt.

[Reactie gewijzigd door PjotterP op 22 juli 2024 21:35]

Maakt het het meer immersive omdat de game-elementen dat zelf niet doen of ...?
Maar in hoeveel games is dit gedaan en boven de 120 fps?
Het kan idd een verbetering zijn maar als amper games het hebben waar je 120+ fps hebt is het geen echt voordeel.

Edit: Cyberpunk 4k ultra RT haalt nu een 40fps, zelfs met dlss kom je daar nog niet aan, je moet al frames er gaan tussenstelen voor je daar een klein beetje overgaat.

[Reactie gewijzigd door k995 op 22 juli 2024 21:35]

Een 3080 schiet tekort.
Nee hoor. Ik speel Cyberpunk op een 3080 met alles volle bak open (met DLSS op Quality), en dat speelt als een tierelier.
Gelijk heb je; de games waar het echt uitmaakt en waar het goed geimplementeerd is zijn op een hand te tellen. Namelijk Quake 2, Minecraft en Metro Last Light Redux (de standaard versie is een misbaksel :+).
Maar dat is mijn mening.
Cyberpunk maakt het ook een goed verschil. Ziet er zonder ook goed uit, maar met RT is het watertanden.
Vroeger had je Need for Speed 2. Dat was een aardige game voor die tijd, maar als je dan de game speelde met een 3DFX kaart dan was het watertanden. Het verschil was immens. Ineens glansden de auto’s, ze waren daadwerkelijk van metaal.

Cyberpunk met of zonder RT is een minimaal verschil. Waar een leek het voorbeeld van nfs2 aan kan wijzen kunnen ze dat in cyberpunk met RT niet. Het is een extraatje. Een cherry on top die je goed moet zoeken.
Bekijk ook de video uit deze comment even zou ik zeggen. Dan zie je dat RayTracing wel degelijk een heel verschil is bij Cyberpunk 2077.
PdeBie in 'AMD kondigt Radeon RX 7900 XT & XTX op basis van RDNA3-architectuur aan'

Daarmee wil ik niet zeggen dat Cyberpunk zonder RT geen mooie game is. Helemaal niet zelfs! Maar met RayTracing zijn alle reflecties veel mooier en klopt de lichtinval overal, waardoor het gewoon een stuk realistischer oogt.
Er zijn genoeg voorbeelden, ook in jouw link, waarbij het verschil niet heel groot is en in een blinde test RT niet perse mooier of realistischer vinden.

Ik zie ook wel dat er verschillen zijn, maar het voegt lang niet overal in CP77 wat toe. Quake2 is dan een veel beter voorbeeld, maar daar begin je dan ook met jaren achterstand.
Eens. Dat van die blinde test zie je ook terug in deze video van LTT: https://www.youtube.com/watch?v=2VGwHoSrIEU

Maar naast het feit dat het mooier of realistischer oogt is het voor de developers schijnbaar ook een stuk makkelijker om omgevingen er realistischer uit te laten zien. Heb ik ook alleen maar van horen zeggen in YouTube videos; ben zelf geen game developer.

Dus ik denk wel dat Ray Tracing de toekomst gaat zijn.
Ook voor jou zou ik eens een afspraak maken bij de oogsrts RT maakt in sommige games echt het verschil.
Hele andere ervaring en dat is wat AMD juist niet heeft
Chique. En onjuist. AMD ondersteunt ook RT.
En met RDNA3 op het 3090 niveau. Ze maken echt wel vorderingen.
Dit is wat ik niet snap... met RDNA3 zitten ze op 3000 series niveau.
Dit is wat in de laatste generatie iedereen fantastisch vond. Nu heeft AMD dit niveau en opeens is het zo slecht dat ze het net zo goed links hadden kunnen laten liggen?

Als je RT op de 3000 series goed vond, waarom is dit nu ontoerijkend? Enkel omdat Nvidia met een veeeel duurdere en meer energie etende kaart hogere prestaties haalt?

Hetzelfde vind ik gek met het stroomverbruik. Toen AMD kaarten had met een hoog verbruik vond iedereen het verschrikkelijk en een reden om nvidia te kopen. Nu zijn de rollen omgedraaid, maar nu is het geen probleem.
All good, maar geef dan toe dat je gewoon graag groen koopt en doe niet alsof je voor de 'beste', 'most value' kaart gaat.
Ach, als dat betekent een schoenendoos maat met dik 400watt verstoken hoeft dat voor mij ook niet. Waar houd het op? 1000 watt voor de gpu, 2000 watt? zijn we echt zo maf?
Ik merk weinig verschil, je moet echt weten waar je op moet letten hoor
Afgezien van een aantal uitzonderlijke gevallen denk ik dat het vaak nog aardig lastig is om te zeggen of RT aan of uit staat. Sure, als je ze side by side laat zien zie je wel dat reflecties en schaduwen er meer sophisticated uit zien, maar het verschil op het geheel vind ik nog niet eens zo groot.

Daarnaast is cyberpunk misschien nog wel het voorbeeld met het grootste verschil. Er zijn games waarbij je nauwelijks het verschil ziet. Of dat nu komt door de goede implementatie van RT of de underwhelming implementatie van non-RT in cyberpunk weet ik niet.

Ik heb de laatste tijd veel Chivalry 2 gespeeld, die op de unreal engine draait. Dat ziet er echt verbluffend goed uit en ik heb geen moment verlangd naar raytracing :)
Of dat nu komt door de goede implementatie van RT of de underwhelming implementatie van non-RT in cyberpunk weet ik niet.
Denk eerder de jarenlange ervaring die developers hebben met de andere technieken waardoor ze daar gewoon steengoed in zijn geworden. Maar Ray Tracing maakt dit werk gewoon een stuk makkelijker voor ze. Niks meer 10.000 lichtjes en dergelijke plaatsen, maar gewoon een paar en Ray Tracing doet de rest.

(Ik ben geen game developer dus ik denk er vast en zeker veel te makkelijk over, maar dit is wat ik uit presentaties haal van Ray Tracing op YouTube).

[Reactie gewijzigd door PdeBie op 22 juli 2024 21:35]

Misschien es naar een oogarts
Zie echt niet veel bijzonders op een enkele uitzondering na; en dan nog, je moet het wel mooi vinden. soms is het te,....om daar nu zoveel performance voor op te geven, nee dank je.

Normaal zie je de verschillen niet en wat je niet ziet, kan je niet missen :Y)

[Reactie gewijzigd door Madrox op 22 juli 2024 21:35]

Ik heb het gevoel met UE5 en Lumen dat Hardware RT net zoals PhysX langzaam zal sterven en gewoon in software API wordt opgenomen.
Zeker niet. Voor real-time raytracing heb je zoveel raytracing cores nodig om real-time op het niveau van 3d animatie films te komen, dat kan niet met een paar niet gespecialiseerde cpu cores. Als je gespecialiseerd bent in 3d graphics kan je het verschil goed zien. De meeste games met raytracing zijn nog totaal niet interessant, maar dat zit er wel aan te komen met de nieuwe kaarten.
Ik zei voordat de ps5 (10 teraflops) lanceerde al: de ps5 is met raytracing verre van volwassen, de ps6 wordt grafisch dichtbij realistische graphics en raytracing wordt dan pas echt duidelijk , de ps7 zal graphics kunnen genereren gelijk aan wat wij zien.

De rdna3 kaarten hebben 61 teraflops, stel je voor wat een rdna4 of 5 heeft als een ps6 uitkomt!

[Reactie gewijzigd door Mic2000 op 22 juli 2024 21:35]

Op zich een goed punt.
Maar animatie films en gaming zijn totaal niet te vergelijken. Monsters Inc kwam uit 2001, en ik heb 20 jaar later nog steeds geen game gezien met haar physics die ook maar in de buurt komen. Om even een vreselijk overdreven voorbeeld te noemen.

Op het gebied van Raytracing. Het is een mooie post-effect, maar tot op heden heb ik nog niet veel meer gezien dan dat het wat meer reflecties geeft. En als het over schaduwen en licht inval gaat, zoals ik al zei de Lumen demonstratie in UE5 zag er uitstekend uit.
Exact Ray Tracing op zelfs de meest high-end PC games is van lachwekkend laag niveau. 1 of 2 bounces terwijl in films 50.000 bounces met volledige Path Tracing zijn. De-noising verbergt de ware kwaliteit van de gebruikte Ray Tracing. Iedereen die denkt dat we enigzins in de buurt zitten van CGI van 10 jaar geleden heeft het mis.
Ik vermoed dat Mic2000 dat deel over animatie uit zijn text verwijderd heeft.
Natuurlijk komen we niet in de buurt van animatie of CGI.
Zelfs met de enorme rekenkracht die CGI studios ter beschikking hebben kan het renderen van één frame uren duren.
Geen enkele standalone GPU gaat dat ooit in real time doen met 24 frames per seconde, laat staan sneller.
Rendertijd van die films is ook geen geintje. Dus het is vrij logisch dat we daar niet bij in de buurt komen, of ook maar zullen komen de komende jaren. Want dan vraag je feitelijk om een framerender van uren zo niet dagen te comprimeren in fracties van secondes. Daar komen we vast ooit, maar voorlopig niet.
de Lumen demonstratie in UE5 zag er uitstekend uit.
Maar Lumen kan ook gebruik maken van RTX.
De softwarematige ray tracing in Lumen is ook beperkt. Ik verwijs voor de details naar hun eigen site.
https://docs.unrealengine...details-in-unreal-engine/
Okee, goed punt.
Maar het heeft de stap al naar half software half hardware.
En wellicht dat er een specifieke berekening nodig blijft. Maar ik verwacht dat RT net zoals particle physix etc. voornamelijk software wordt en dan de hoeveelheid specifieke hardware cores verminderd word.
Zo een vermoeden heb ik ook.
Juist niet, de hardware wordt via de software API aangestuurd maar dat betekent niet dat de hardware niet speciaal ingerichte circuits heeft om deze berekeningen uit te voeren. De hele reden dat er GPU's zijn is omdat er beter gespecialiseerde hardware gebruikt kan worden om afbeeldingen op een scherm te maken dan en CPU. RT hardware is gewoon een uitbreiding op de verschillende specialistische hardware die in een GPU zit.
Ik bedoel ook niet dat de CPU het gaat doen.
Maar de zware nadruk op RT puur via specifieke hardware gaat volgens mij verdwijnen in de komende generaties. Het wordt gewoon een API die klus opdeelt over de GPU en niet special naar RT cores. Wellicht dat er wel bepaalde reken cores nodig blijven maar die zullen niet meer puur voor RT zijn.
Precies mensen praten veel over RT werkelijkheid heb je niet veel aan maar toch veel voor betalen gewoon beter Amd
Altijd datzelfde geleuter over slechte RT van de huidige RX 6xx0 kaarten. Klopt helemaal niets van. RX 69x0 is in RT gelijk aan RTX 3070/RTX 2080 Ti. Ja RTX 3080 en 3090 series zijn beter maar niet 4x beter ofzo. Digital Foundry heeft dit geleuter in de wereld gebracht omdat zij gesponsord worden door Nvidia. Zij zijn ook degene die DLSS heilig verklaard hebben. DLSS 2.0 was perfect totdat 2.1 kwam en toen mankeerde er van alles aan 2.0 volgens hunzelf. Nou is DLSS 3.0 weer helemaal geweldig terwijl iedereen die iets weet van interpolatie weet dat dit gepaard gaat met beeldfouten en verhoogde input lag. Helaas gaat Amd ook komen met een interpolatie techniek in hun FSR. Fake frames geweldig...
Tests wijzen toch uit dat inputlag met DLSS 3 en Nvidia Reflex hetzelfde of toch minder zijn.

En Reflex is verplicht bij DLSS 3

[Reactie gewijzigd door Senaxx op 22 juli 2024 21:35]

Je kan ook Reflex aanzetten zonder frame generation en een nog lagere input lag hebben. Ze hebben Reflex nodig om de input lag laag te houden met frame generation.
Helaas lijkt AMD nu ook in te springen op frame interpolation... ik zou het persoonlijk niet overwegen als je basis FPS niet over de 100 is.
Ja FSR3.0 lijkt daar ook wat mee te gaan doen als je de FPS winst ziet
Ik ben niet zo blij met dit soort benshmark winnende technieken die de beeldkwaliteit flink achteruit laten gaan. Zie bv ook de review van DLSS3.0 door HWU ik wordt daar niet zo vrolijk van.
Maar in reviews lijkt het dan een top oplossing want super hoger framerate op max settings!

DLSS2.4 en FSR2.2 kan ik mij nog wel in vinden maar ook dat heeft al z'n nadelen. En we weten allemaal van TV's hoe vaak je artifacts krijgt bij het bij verzinnen van Frames daar zie ik het ook meteen als het mis gaat en wil je die technieken uit hebben staan. Alleen Sony doet het voor mij goed genoeg dat ik de laagste stand kan gebruiken om van 24 FPS 30 te maken waardoor je het stotterige wat OLED tv's hebben een beetje tegen gaat. Maar ook dan zie ik wel eens een foutje vooral bij begende tekst of de transparante ondertiteling als er iets beweegt achter de ondertiteling.

Dus voor games zit ik helemaal niet op dit soort frame generation algo's te wachten zeker niet als de latency zo veel hoger wordt. Of ze moeten dat laag weten te houden en dat je echt geen artifacts ziet want zelfs bij DLSS2.4 en FSR2.1 kan dat al storend zijn.
Nee hoor Reflex verlaagd de input lag maar in combinatie met DLSS niet lager dan Reflex zonder DLSS. Alle interpolatie technieken moeten wachten totdat de voorgaande frame gerendered is. Dit resulteert altijd in aanvullende input lag.
En reflex zonder dlss3 is nog beter. Inputlag maakt dlss3 voor mij een no go.
Heb je ook onderbouwing van je claim dat digital foundry 1. Door Nvidia wordt betaald / financieel gesteund en 2. Dat dit hun beoordeling beïnvloedt?

Zo niet, dan is het gewoon je mond een slinger geven.
Oke een paar dingen. 1. Sponsoring staat tegenwoordig vermeld aan het begin van gesponsorde videos aangezien dit wettelijk verplicht is. 2. Waarom heeft iedereen bij Digital Foundry een RTX 4090? Allemaal gekocht zeker!? 3. Waarom hadden zij exclusiviteit op de RTX 4090? Andere outlets als Linus Tech Tips, Gamers Nexus, Jay’s 2 Cents en Hardware Unboxed hebben zeker geen bereik of aanzien op de PC hardware markt!? 4. De RTX 4090 is hele krachtige kaart maar alsnog gebruikte Digital Foundry cherry picked pro Nvidia benchmarks voor hun analyse. 5. Help mij eens herinneren wanneer Digital Foundry zich ooit positief heeft uitgelaten over Amd videokaarten. Dat Amd een enorme inhaalslag heeft gemaakt op rasterizer performance hoor ik hun nooit over. Toen werd snel de focus verlengd naar Ray Tracing. Zoals ik ook al eerder aangaf is DLSS helemaal de hemel in geprezen en werden problemen “over het hoofd” gezien. Bij XeSS en FSR 2.0 vergroten ze problemen uit in hun nitpick videos. Geen enkele reconstructie techniek geeft beter beeld dan native rendering.
Helder, geen aantoonbaar bewijs dus, onderbuikgevoelens only.

Ze hebben de 4090 gewoon door hun standaard pallet aan games getrokken en hebben kritisch noten geplaatst bij dlss 3.0 en de frame rendering.

Daarnaast is het gewoon een feit dat de RT performance van AMD achterloopt. Kunnen we lang en kort over lullen maar cijfers liegen niet.
Realiteit is dat het op mijn 6900XT @ 1440p behoorlijk onbruikbaar is zelfs met FSR aan als die optie er al is.
De 6900xt zit gemiddeld op 168fps @ 1440 en bij 4k op 109fps (non raytrace).
Hoezo behoorlijk onbruikbaar? Wat zijn jouw verwachtingen dan en heb je feitelijke voorbeelden van die ' onbruikbaarheid' ?
Dan heb je het denk ik over RT aan? Wat nVidia optimised Titels kunnen hard onderuit gaan ja. Net als vroeger met Tesselation waar nVidia Dev's vroeg om onnodig hoge waardes te gebruiken zodat de AMD kaarten hard onderuit gingen.
IDD zonder RT heb ik niets te klagen. De RT van Nvidia zijn gewoon een flinke hap beter dus is het vanzelfsprekend dat een amd kaart daar nog goed onderuit gaat. Niet dat het me erg veel boeit hoor. ik vind vooralsnog de implementaties niet om over naar huis te schrijven. Het ziet er vaak wat fake uit of er zijn extreme artifacten in de reflecties zoals bij chernobylite.
Nja dat is het niet. nVidia laat dev's te veel RT toepassen waardoor RDNA onderuit gaat net als vroeger met Tesselation. AMD was goed met Tesselation factors tot iets van 8x daar boven zakte het in elkaar. Dat is met RT is dat ook weer. Goede implementaties doen het redelijk op RDNA2 maar bij games waar ze overboard gaan met RT zoals bv Control gaat het helemaal mis. Je moet wel wat optimalisaties hebben wil RDNA2 een beetje goed presteren met RT. En de meeste RT games zijn ontwikkeld voor nVidia hardware en daar voor geoptimaliseerd.

Ja dat vind ik dus ook meestal is het too much waardoor het er juist niet realistisch uit ziet en ik dan nog liever de non RT versie zie.
Maar als Nvidia kaarten beter presteren als er “meer RT” is dan AMD kaarten… dan zijn ze toch beter in RT? Los van de vraag of zit nou opzettelijk is gedaan of niet.
Ja ze zijn beter in RT dat klopt. Maar dat betekend niet dat je dan maar inefficient moet programmeren omdat het op nVidia hardware dan wel redelijk draait. We hebben tegenwoordig niet voor niet dingen zoals Mesh shaders om efficiënter met de GPU resources om te gaan. RT is nu ook nog wat te kostbaar in de hybride vorm die er nu is moet je daar nog spaarzaam mee om gaan en alleen hoeveelheden gebruiken die echt wat toevoegen aan de beeldkwaliteit. Je kan misschien met 50% van het aantal resources 80% van de kwaliteit halen.
Welke games waren dit dan?
Nou nee als RT overgeslagen was dan zou nu GTX4090 zijn puur game architectuur met ipv tensor rt core vervangen door nog meer cuda cores en nog extremere raster performance. Maar ja ze moeten iets doen met die pro architectuur features en dus RT en AI upschaling dat kost ook diespace.
Nvidia blijft voorop lopen op het gebied van ray tracing helaas.

Erg jammer, ik had gehoopt mijn RTX 3080 te kunnen upgraden naar een beter geprijsd amd product deze generatie. Gaat hem helaas niet worden voor mij want ik geniet als liefhebber van RT effecten.

Als ik 1000+ euro uit ga geven voor een GPU wil ik gewoon volwaardige ray tracing performance hebben. Er zijn meer mensen die er zo over denken en op die manier zal Nvidia vermoedelijk redelijk vast kunnen houden aan de price premium over AMD (helaas).

[Reactie gewijzigd door DLSS op 22 juli 2024 21:35]

Hand in hand met Ray tracing richting faillissement als die kaarten zo duur blijven. 🤣
Ja goed, je moet het wel kunnen betalen natuurlijk.

Verder is het maar hoe je er naar kijkt…

Veel hobbies kosten een veelvoud van deze bedragen en op vakantie jagen veel mensen er bijvoorbeeld ook zulke bedragen (als het niet meer is) doorheen.

Dat geld is dan compleet verdampt in 1 of 2 weken. Een gpu gaat meestal meer dan een jaar mee en heeft een restwaarde.

Ik zeg overigens niet dat ik zelf verder nooit geld in de sloot gooi aan bovenstaande zaken maar in bovenstaand perspectief valt het best mee. Het is vooral heftig omdat GPU’s voorheen een stuk voordeliger waren.

[Reactie gewijzigd door DLSS op 22 juli 2024 21:35]

Zolang veel mensen de steeds hogere prijzen bij bijv. Nvidia blijven goedpraten met mooie excuses blijven ze steeds duurder worden. Waarom zouden ze omlaag gaan, wij, de sukkels, betalen toch wel.

wil je echt verandering, moet je toch echt eens gaan stemmen. Met je geld, want dat is het enige waar de industrie naar luistert. Krijgen ze niet genoeg geld, moeten ze iets anders verzinnen. Zo simpel is het.
Overtuig jezelf, dan de anderen. Zodra verkopen tegenvallen, gaan ze echt van een ander torentje blazen.
Houden ze wel blijft gewoon een super elite kaart!
Heeft er iemand een idee hoeveel die kaarten zouden kosten om te maken?
zal rustig rond de 500-600$ zijn een waver van 30cm waar de GPU chip zelf op gebakken word kost alleen zelf al rond de 20000-30000 $ en dan moet je daar nog van uit gaan dat 25% van die chips het niet doen, dan heb je van de 89 chips iets van 50 bruikbare chips die 7900 XT of XTX chips worden, afhankelijk van het aantal defecten.

24 GB aan GDDR6 chips zijn ongeveer 250$.

En dan moet je de rest van de kaart daar nog omheen bouwen.
@Mindfree heeft nog een wat gedetailleerdere uitleg!

[Reactie gewijzigd door dakka op 22 juli 2024 21:35]

Je berekening klopt niet! De wafer kost 17000 dollar een 300mm en er passen op een 300mm 148 chips van 20 bij 20 mm wat 400 mm3 is. AMD chip is zelf dus 300 mm3 Dus theoretisch passen er mogelijk nog wat meer op.

Op tomshardware geven ze aan dat een chip op 5nm ongeveer 238 dollar kost om te produceren. Ik geloof dat de 6 stuks voor memory op 6nm nog apart zijn, maar die zijn wel erg klein in formaat van 37mm3 waarvan je 6 stuks hebt.

Met de kleine 6nm 37mm3 chips zal je amper uitval hebben omdat ze zo klein zijn. Jou berekening zijn van een 640mm3 chip. AMD heeft een stuk kleinere chip. In 2019 zat TMSC al op 80% yield en ik vermoed dat ze nu ergens richting de 95% zullen zitten.

Als je beide zou optellen de chips die ze nodig hebben zit je dus op 501mm3 waarvan dus de 37mm3 weinig verlies aan de randen hebt doordat ze zo klein zijn en je bijna de hele waffer ervoor kan gebruiken. Ze zullen dus eerder ergens rond de 350€ totaal per chip uitkomen. Nog steeds erg duur. En samen met gddr6 en het pcb koeler enz zal je rond de 500 uitkomen. Dan nog je R&D zeg 100.000.000 dus als je 1 miljoen kaarten verkoopt 100 per kaart zit een een gezonde marge op.

Hopelijk willen ze nog wat zakken. Zeg 799 voor de XT en 849 voor de XTX dat zou mooi zijn maar zal niet gebeuren helaas. Dromen mag toch? 😀
Fair points! ik heb inderdaad ook 17K voor de 5nm wavers gezien, maar ik denk dat die prijzen wel een beetje omhoog gegaan zijn met de huidige kosten van grondstoffen en energie, maar TSMC zal inderdaad wel meer dan die 55% en 80% yield hebben sinds toen.

[Reactie gewijzigd door dakka op 22 juli 2024 21:35]

Ik denk toch dat de yields voor de cache 100% moet zijn maar ook voor de compute units.

De kapotte cache chips worden ook gebruikt als 6e chip op een 7900XT en 90% van de compute die is compute/shader area waar als er een compute block kapot is hij op de 7900XT gezet wordt.
Als het bij de compute die echt niet werkt moet het aan de andere sectoren binnen de chip liggen.
Maw de yield voor compute zou richting de 98% of hoger moeten zitten.

Ook moeten de wafer prijzen omlaag gegaan zijn imho, minder vraag door nVidia en AMD vanwege old stock en 2e hands, daardoor kan Intel er nu gaan produceren anders was Intel nooit binnen gelaten.
Zeker als Apple en anderen ook hun vraag naar omlaag hebben bijgesteld.
PC onderdelen vraag is omlaag, maar dus laptops ook, en dus denk ik tablets ook en dure smartphones ook.

Grondstoffen hebben ze weinig van nodig, en energie zal door de staat gesponsord zijn denk ik.

[Reactie gewijzigd door enchion op 22 juli 2024 21:35]

Dan nog je R&D zeg 100.000.000 dus als je 1 miljoen kaarten verkoopt 100 per kaart zit een een gezonde marge op.
Als ze enkel XT en XTX 1 miljoen stuks verkopen (ben niet zeker of dat haalbaar is) dan maken ze puur winst bij 78xx..77xx ..76xx ...enz.
Prima post van je Minfree maar dan zie ik dat je tomshardware gebruikt als informatiebron....
De 5nm yield van TSMC is redelijk goed. Na een maand zaten ze al op 80%, dus dat zal nu nog wel hoger liggen. Daarbovenop gebruikt AMD chiplets in deze kaarten waardoor de yield ook sterk verbetert. Ik denk dus dat het aantal defecten een stuk lager zal liggen in de praktijk. Mogelijk is dit mede waarom deze kaarten een stuk scherper geprijsd zijn dan Nvidia's aanbod.
24 GB aan GDDR6 chips zijn ongeveer 250$.
Deze prijzen kloppen niet meer, het artikel is bijna 3 jaar oud.
GDDR6 kost nu gemiddeld 5.4 dollar voor 8Gbit chip https://www.dramexchange.com/.
En ik geloof dat AMD ze nog iets goedkoper bulk inkoopt.
@dakka

Met een 308 mm2 chip heb je bij een yield van 80% richting de 130 perfecte dies en dan nog eens zo'n 45 dies met een vlekje, die grotendeels kunnen worden gebruikt voor de 7900 XT. Dus ik heb geen idee hoe je bij slechts 89 chips komt.

Uiteraard moet je er dan nog 6 relatief goedkope dies optellen voor de IO en cache die gemaakt zijn met TSMC 6. Daar is de yield extreem hoog en die wafer is een stuk goedkoper. Dan heb je nog de packaging.

Al met al denk ik dat $300 best in de richting zal zitten voor de hele chip.
Marginale kosten zullen tussen de $150 en $300 liggen. Waar de echte kosten liggen, zitten in de miljoen-ish engineering uren. Dat is rustig 50 tot 100 miljoen. En dan nog marketing en andere overhead enzo.

Op de high-end producten willen ze natuurlijk het meest terugverdienen, dus daar gaan goeie marges overheen, afhankelijk van waar ze denken op de markt mee weg te komen. Ze zijn ook gelimiteerd qua capaciteit vanuit TSMC, dus ze zullen proberen het meeste geld per vierkante millimeter wafer te vangen. Daarom zie je ook de focus van AMD en Nvidia op het nog-end segment de laatste jaren, terwijl bijvoorbeeld Intel (met eigen fabrieken en ogenschijnlijk genoeg capaciteit) met zijn CPUs de hele markt blijft bedienen, van i3’s tot i9’s.

Op een markt met volledige concurrentie zou ik deze kaarten ongeveer 30% goedkoper verwachten, rond de $600-700.

[Reactie gewijzigd door Balance op 22 juli 2024 21:35]

$300 is wel erg optimistisch, met het geheugen van die kaarten alleen al zit je tegen de 250 aan te hikken bij de fabrikant, en dat is goedkoper dan de GPU chip zelf nog.
Dat zijn de gepubliceerde prijzen, maar met de aantallen die AMD afneemt zullen ze wel een aardige korting krijgen. Ik schat in dat het eerder richting de $200 is voor die 24 Gb.
veel minder dan de prijs waarvoor ze in de winkel liggen. Voor de fabrikant is het vooral zaak om de R&D kosten terug te verdienen.
Vooral zaak om de marges hoog te houden, zodat de aandeelhouders tevreden blijven....
Ík heb jaren geleden de 1080 TI (was toen de beste op de markt) gekocht voor 650 euro.
Wat is er precies gebeurd dat er zoveel abnormale bedragen worden gevraagd? De 4090 kost boven de 2000 euro en deze boven de 1000 euro.
Een combinatie van crypto-mining buble en een pandemie waardoor productie achterbleef, en men tegelijkertijd wel een gpu wou, want als de kroeg dicht moet, dan maar gamen

Zodoende kwam nvidia er achter dat je voor een x80 kaart ook prima 1000-1200 usd kan vragen ipv 500, en de klanten toch wel komen
Je mist het feit dat er een hele nieuwe categorie aan high-end gaming monitoren is ontstaan. Dat is waar de vraag naar steeds dikkere videokaarten vandaan komt.

Het is echt niet zo dat je deze peperdure kaarten nodig hebt om normaal te gamen, evenmin als een monitor van €600. Het is eigenlijk een hele andere klasse hardware dan dat vroeger beschikbaar was.

[Reactie gewijzigd door Wolfos op 22 juli 2024 21:35]

Mwa, er is toch altijd een super high end geweest, die je bij lange na niet nodig had voor een beetje OK gamen? 15 jaar terug had je weliswaar geen GPUs van 2000 euro, maar wel quad-SLI/quadfire, van GPUs die ook over de $500 konden gaan bij introductie.

Daarnaast, nee ik heb geen 4090 nodig om te gamen, maar als je kijkt naar de verhouding prijs/prestaties gaat de boel de afgelopen generaties toch echt wel heel anders dan hiervoor. Ik doe normaal niet aan what-ifs, maar als we al die bitcoin/ethereum/corona bullshit niet gehad hadden, hadden we denk ik diezelfde 4090 alsnog gehad, maar voor de helft van de prijs (en had Jensen een leren jasje minder kunnen kopen).

En het zijn ook niet alleen de high-end kaarten die fors in prijs zijn gestegen, ook het middensegment slaat nog steeds nergens op. ALS je nu een 3060 voor msrp kan vinden, biedt ie nog steeds minder bang/buck dan de RX570s die je tussen de twee mining humps voor ~140-150 kon kopen. Ja mijn RX6600 is twee keer zo snel dan mijn 570 was, maar hij was ook drie keer zo duur.
Wie heeft de 4090 wel nodig?
Ik denk dat je een verkeerde vergelijking maakt. De xx90 kaarten zijn nog een klasse boven de xx80 kaarten gepositioneerd. Vergelijk bijvoorbeeld ook het verbruik: De kaarten zijn flink sneller én duurder, maar dat komt ook gewoon deels doordat de chips dubbel zo groot (en dorstig) zijn, niet enkel door technische verbeteringen.
denk terug aan de Titan reeks en zo...
Ik vergelijk die kaarten altijd met de dual-chip producten van vroeger: SLI of op een enkel PCB. De überoplossing voor ultieme prestaties. Maar wel echt flink duurder en zelden de beste bang for buck.

Tegenwoordig krijg je voor zulk geld dus een enkele megalomane chip zeg maar. Te duur voor de doorsnee gamer maar omdat er geen speciaal label meer aanhangt kijkt deze er wel verlekkerd naar. Breng ze als eerste uit, wat vroeger nooit het geval was, en de benchmark ligt ineens de een stuk hoger.

Goeie marketing, maar laat je niet gek maken. Met een Golf TSI kom je ook op je werk, een GTI is ook erg nice. Een R met 300 PK is er omdat het kan, niet omdat het moet.
Omdat het Kapitalisten zijn. Die zoveel winst proberen te maken en smoesjes bedenken om hun veel hogere prijzen te rechtvaardigen. Dat is hoe het gaat.

Als ze van die hogere prijzen nou meer zouden besteden aan hogere lonen of goede arbeidsomstandigheden, is dat een prima reden. Maar dit geld gaat naar aandeelhouders.

[Reactie gewijzigd door BlueBird022 op 22 juli 2024 21:35]

Scalpers hebben zowel Nvidia als AMD laten zien wat voor idiote gedragen mensen willen neerleggen.
Dat was wel in een markt waar amper iets te krijgen was. Ik, en vermoedelijk zeer vele anderen, hadden het er niet voor over. Heb zelf recentelijk een nieuwe kaart gekocht toen de cryptohype voorbij was.
Tweedehands misschien? Want msrp was $699 en dat was zonder BTW. Titan X was toen ook al $1399 zonder BTW. En de 4090 is meer in de klasse van de Titan X.

nieuws: Nvidia brengt GTX 1080 Ti volgende week uit en maakt GTX 1080 goedkoper
Ik vind die GPUs ook echt knap duur. Als die dollar prijs de euro prijs incl btw was, dan kon ik er nog wel een beetje inkomen. Maar high end kaarten zitten er voor mij dit jaar zeker niet in. Veel te duur voor wat je ervoor terugkrijgt imo.
Voor dat geld koop je nu een 6800XT, die een heel pak sneller is dan de 1080TI, flink meer geheugen heeft, en ook een aantal nieuwe features die op de 1080 ontbreken. Ik snap dat je zegt dat top van de markt duurder is geworden. Dat klopt, maar voor elke euro krijg je nog steeds meer waar voor je geld. De tijden van elke paar jaar alles én goedkoper én 2x zo snel liggen al even achter ons.
Was hetzelfde met boodschappen, benzine etc. Alles wordt eenmaal duurder
We hebben geen 300% inflatie gehad in de afgelopen 5 tot 6 jaar.
Qua gasprijzen is de inflatie hoger dan 300%. Dat komt vanwege gastekorten.

Nu bestaat er ook iets als chip-tekorten. Dus zijn de prijzen van gpu's ook hoger :)
Klopt, maar dat is niet wat we inflatie noemen. Dat is namelijk een prijsindex gebaseerd op een breed scala van producten en niet 1 productgroep.

[Reactie gewijzigd door hiostu op 22 juli 2024 21:35]

Dat hangt er vanaf of we het over de algemene inflatie hebben in NL, of over de inflatie in de chipmarkt. Die laatste ligt wel hoog i.v.m. grote vraag en beperkt aanbod. (al dan niet bewust gecreeerd door orders te cancelen)
Sorry , maar de 1080TI comment lees ik hier elke week. Als niet onder een offficieel aankondiging dan wel onder een rumour.
En er zit wel een kern van waarheid in. De topmodellen zijn in de laatste paar jaar extreem veel duurder geworden. Maar dat geld ook voor telefoons en daar maken mensen ook de opmerking over. Dit heeft echter weinig te maken met normale prijsstijgingen zoals bij boodschappen en benzine. Dit heeft puur met marktsegmentaties en marketing te maken.
er zit geen kern van waarheid in...

als nvidia en amd op hetzelfde oude proces een GPU zouden uitbrengen dan klaagt iedereen steen en been. Nu brengen ze kaarten op de laatste nieuwe finn tech en giga die size uit, met veel meer gehuegen om X aantal keer de perf te geven van een 1080ti van vroeger.

Heb je dus niks aan aan dit vergelijk, dit is geen marktsegmentatie, dit is markt positionering.

[Reactie gewijzigd door d3x op 22 juli 2024 21:35]

1080 ti was een 800 euro (650 zou enorm goedkoop geweest zijn) 5 jaar geleden.
Sinds 2017 is er een 22% inflatie geweest dus een 975 euro, of een 7900XTX.
1080 ti vs 6900XT scheelt een 50-100% in 4k , tel daar 50-75% bij en je zit toch snel aan een kaart die voor dezelfde prijs 75-150% sneller is.
Groot gedeelte wordt gewoon kunstmatig hoog gehouden hoor.
Inflatie, en deze kaarten doen gewoon meer dan oudere kaarten, en de onderdelen van de kaarten alleen al zit je tegen de 500 aan bij de TSMC's en Micron's van deze wereld, daar kan een Nvidia of AMD weinig aan doen. Zie hier ook de uitleg van Mindfree al met al zijn dit nog heel erg nette prijzen.

de 1080 ti was een V8 motor zeg maar, de nieuwe top of de line kaarten zijn eerder V12's, maar die V8 kaarten zijn wel een stuk goedkoper geworden.

Maar die Nvidia prijzen zijn idd wel een beetje hoog, maar hey, vrije markt.

[Reactie gewijzigd door dakka op 22 juli 2024 21:35]

Omdat mensen het blijkbaar ervoor over hebben, zolang mensen de kaarten blijven kopen is er voor hun geen reden om de prijzen niet te verhogen, ze gaan voor maximale winst, zelfde als dat ze expres steeds beetjes 30 series kaarten shippen om te proberen de prijzen niet te hard te laten crashen, en daar openlijk voor uitkomen.
De massa is door de lockdown geïnteresseerd geraakt. Oftewel aangeboord. GPU's zijn een soort van tv's geworden. De massa wil er ook aan. De bedrijven zien en merken dat aan hun verkoopcijfers. Aandeelhouders vinden het ook geweldig. Weg terug is er vrijwel niet. Tenzij de massa geen interesse meer heeft. Alleen zal de massa nu niet meer terug deinsen. Er moet weer iets nieuwers komen voor ons. Een nieuwere manier van gamen of manier van onze tijd aan besteden (entertainment). Of gewoon een gpu kaart kopen die past bij je manier van gamen. 1440p max? dan gewoon een max 1440p gpu kopen. En over 2 jaar nieuwe kopen die weer past bij je monitor.
2 goede zaken met de nieuwe AMD kaarten zover voor we echte benchmarks krijgen te zien.

1: verbruik is nog binnen de limiet gebleven. 20 watt meer dan de 6950xt voor de 7900 XTX dat is gewoon erg goed. Ook heel fijn dat je maar 2 8 pins nodig hebt.

2: Prijs lijkt erg goed t.o.v Nvidia. Hoewel 999 dollar nog steeds belachelijk veel is voor een videokaart, maar een stuk beter dan de 1599 van de Nvidia en in de praktijk 2100 of meer.

Als AMD deze kaarten hier voor 1200 tot 1300 max voor de AIO kan leveren en de performance is zeg 10 tot max 20% op 4K gemiddeld langzamer heb je toch een heel goede kaart voor je geld.

Raytracing is helaas nog steeds behoorlijk achter op Nvidia zeker met de 4090, maar ze hebben wel displayport 2.1 wat Nvidia had moeten hebben. Dat is een groot pluspunt!

Zover voorzichtig positief.
Wat heb ik aan DP 2.1 als 4k 120fps nu zo'n beetje de max is in huidige games, en dan heb ik het niet eens over de toekomstige games die ook weer zwaarder gaat zijn, of mis ik iets wat met DP 2.1 wel kan en niet met DP 1.4 of HDMI 2.1?
Zoals hij al zei.
Nieuw begin.

Vroeger zeiden wat moeten we met 1080P en hoge frames.
Gaan we toch niet gebruiken.

Met een Displaypoort 1.4 gaan we het niet doorbreken ;)
Tuurlijk gaan we het wel gebruiken, maar dan zijn de huidige kaarten, zoals in het verleden met 1080p vergelijking ook weer verouderd. Ik zie mezelf nog geen 8k TV kopen om daar 120fps op te halen met de huidige en komende GPU's. Ik kijk nu dus ook bewust niet naar de poorten want ik weet dat ik er niks aan ga hebben als het gaat om gaming. Voor andere zaken zal DP 2.1 vast uitkomst bieden.
OW2/Apex/Fortnite/CSGO etc zitten op 300+ fps op 4k.
Leuk echter is er geen enkele 4k 120hz + monitor met DP 2.1 , die hebben allemaal hdmi.
Dus ja die 1 persoon die CSGO multi 4k 120+hz monitoren wil spelen zal dan naar AMD moeten gaan.
DP2.1 monitoren komen begin volgend jaar. En dan zal het waarschijnlijk gewoon standaard zijn.
Volgens mij komt Samsung al met een 8K 165hz display in Januari op de CES.
Er zijn best wat games waar deze gpu's over de 120 fps op 4k halen, mensen spelen ook vaak oudere titels waar deze gpu's vaak makkelijk over de 120fps gaan in 4k. Een spel als PUBG bijvoorbeeld haalt dik 200 fps op 4k met een rtx4090, dan zou die DP 2.1 toch wel fijn geweest zijn.
Gewoon je settings NIET op "Ultra Mega Premium" zetten. Dan krijg je opeens meer dan 120FPS! ;)
Maar dat is niet wat ik wil en nodig ben, meer fps dan de refresh rate van mijn LG C1. Ik kies dan toch liever voor betere graphics.
Raytracing kan mij persoonlijk echt gestolen worden. De oude technieken werken goed en gaven mij ook een geloofwaardige ervaring. Natuurlijk is het mooier als je de tijd neemt om in ramen en plassen te kijken, maar bij de meeste games ren je er toch voorbij.

Het is nog steeds het eerste wat ik uit zet als ik FPS te kort kom (onder 100).
Ik vind het wel erg jammer van de Raytracing. Nvidia heeft native tegenwoordig zoveel power dat het niet veel verschil meer maakt tussen gewoon en met Ray. En ik heb zelf ook spellen met Raytracing gespeeld en het is zeker een toegevoegde waarde een heel mooi om te zien.

Daar lijkt AMD de grootste steek te laten vallen. Want ze komen met FSR 3 uit die vooral dan Ray moet boosten. Maar native zag ik wat cijfers die amper hoger waren dan de 6950 XT. Dat is wel zorgelijk.

Maar als de kaart verder dicht in de buurt zit van de 4090 en een stuk minder kost kunnen ze alsnog een winnaar hebben.
Reflecties vind ik ook niet zo interessant, maar belichting wel! Dat kan echt zoveel toevoegen aan een game... In Control vond ik het bv echt wel duidelijk meerwaarde hebben.
Ray tracing kan in specifieke use cases juist extreem gaaf zijn. Ik vind het jammer dat AMD nog niet op het niveau is waar het hoort te zijn op dat gebied.

Verder lijkt het me een prima setje kaarten.
De grap is dat de 4090 met een power limiet van 355 nog steeds een beestachtige kaart is waar amd een kluif aan heeft. Hij is alleen meer unlocked voor een paar procent meer prestatie waar een enorme puist meer stroom tegenover kan staan. En ik ze KAN omdat hij in sommige games juist minder als 355 watt gebruikt.

Of de prijs goed is hangt natuurlijk af van de prestaties. Als hij 60% goedkoper is en 50% minder vooruitgang boekt als de 4090 is het een slechte deal omdat de 4090 ook betere features heeft. dat weten we dus pas bij de reviews en de echte prijzen die we in de winkels gaan zien hier.
Als je naar RDNA 2 kaarten kijkt kun je daar ook heel veel performance halen met minder verbruik. Bovendien zit er $ 600 verschil tussen de 7900 XTX en de 4090.. en dan maakt het weinig uit dat de 4090 capped is op 355w of niet.
De vraag is alleen hoe efficiënt draait die kaart al. Misschien is er nog 40% te halen voor minder als 5% fps minder misschien kost het meer fps. Dat weten we pas in dec.
Bij RDNA 2 zijn dat ongeveer de cijfers, ik haal ongeveer 95% van stock performance met 40% minder stroom verbruik op mijn undervolted 6600xt.
Het klopt dat de 4090 idd met minder stroom ook goed is, wel is het zo dat het bij de Nvidia niet erg veel uitmaakt zover. Het undervolten heeft niet zoveel effect als met de vorige generatie.

Zal ook uiteraard komen door het overweldigende aantal met cores dat Nvidia heeft.
De nieuwe AMD heeft helemaal niet zoveel meer cores als de 6950XT. Ik vraag me ook af of ze bewust dit laag hebben gehouden want met een chiplet design zou je meer cores kunnen gebruiken en vermoedelijk ook meer prestaties.

Als je kijk dat ze nu 6144 cores hebben en als die zeg 40% sneller is dan de 6950Xt gemiddeld gezien met 5120 cores dan hebben ze toch een mooie vooruitgang geboekt en zijn ze een stuk goedkoper te maken.

Alle geruchten waren dat ze met meer dan 10.000 cores zouden uitkomen. Maar het is maar ongeveer de helft.

Als ze dan 4080 of 4080ti performance kunnen halen doen ze het uitstekend. Ben erg benieuwd naar AIO modellen en hoe ze overclocken. AMD heeft een relatief kleine koeler voor het topmodel. Daar zit denk ik een behoorlijke rek in. Zodra je 3x 8pins hebt op water met een goede overclock zou je zomaar dicht bij de 4090 kunnen komen.

Duidelijk is dat Nvidia voorlopig de kroon behoudt. En in Raytracing echt heel ver is uitgelopen. Ik vraag me af of de 7900xtx native sneller is dan een 3090(ti) in Raytracing.

De 4090 is zoveel sneller native. De grafieken zagen er niet goed uit bij AMD. Dat is zorgelijk. Maar als de kaart verder heel goed presteert en 60% goedkoper is en in normal ras niet meer dan 20% achter loopt heb je een heel goed alternatief.
Hoe kom je erbij🤔 Deze kaarten hebben 2x zoveel compute units. Echt, je vergist je !
AIBs voor de reference card adviesprijs hopen te krijgen is wel heel erg optimistisch. Zou toch eerder van 1500+ uit gaan voor alles behalve bottom tier.
Als je momenteel kijkt naar bv de 6900XT van Asrock die staat voor 699 en andere modellen onder de 800 ook verkrijgbaar.

Als de AIO niet meer dan 100 tot 150 erboven doen voor de goede gemiddelde kaart zou het zomaar goed kunnen worden. De 1500+ zie ik ze niet snel halen indien de prestaties niet dicht op de 4090 liggen.

Op Raytracing lopen ze namelijk flink achter. Ze zullen dus met prijs/performance wat moeten doen.
Displayport is zeker een vooruitgang, raar dan ook dat Nvidia niet op zijn minst 2.0 ondersteund aamgezien die al sinds 2019 vast ligt. Maar 480hz noem ik sowieso pure onzin, zullen werkelijk maar heel weinig usecases zijn waar dat echt zinvol is, gaming is dat niet, en iemand die beweert dat die dan beter is dan bv 240hz heeft het echt tussen de oren zitten.
Als het daadwerkelijk waar is, wat veel tech youtubers tot nu toe gezegd hebben, dan is dit een grote W voor AMD. Veel gehoord dat: 7900XTX rond 10% zwakker is dan een RTX 4090 in RAW gaming (zonder FRS, DLSS etc.). Dat is een 999 euro (Winkelprijs gok ik rond de 1100-1200) kaart.. Om dan te denken dat een RTX 4090 een nucleaire centrale is dat stroom vreet en heel veel commotie heeft omtrent de adapter schandaal, en nog eens rond de 2000 euro kost...
Het is allemaal moeilijk te zeggen zolang we geen onafhankelijke benchmarks hebben, maar als je kijkt naar de data die AMD heeft prijsgegeven en hoe ze met hun 61 TFLOPs zaten te pronken, dan denk ik eerder dat ze 25% slomer zijn. Maar goed, met zo'n prijs van 1000 dollar is dat nog een pittige prijs/prestatie verhouding. Als je fuck you geld hebt, zal de RTX4090 de betere keuze blijven. Maar op de upper mid end markt kan het wel eens spannend worden.

Maar ik denk dat het vooral de generatie hierna spannend wordt. AMD kan wel eens op prijs dus die upper mid end winnen, en met het chiplet ontwerp kunnen ze wellicht ook meer kaarten eruit pompen. Dat is een pittige pot geld die ze weer in de volgende generatie kunnen steken. Wie weet wat voor resultaten ze daarmee gaan boeken.
Je doet nu alsof de 4080 en in dit geval de 7950XTX upper midrange kaarten zijn. Je bent echt teveel in de mindset van nvidia gaan geloven waarbij alles onder de 4090 midrange is. Mensen zijn gevoelig voor dit soort marketing en kunnen daarom geen 4080 halen omdat ze dan het gevoel hebben iets middelmatigs gekocht te hebben. 7950xtx is gewoon een high-end kaart net zoals de 4080.
Helemaal waar! Zo heb ik het persoonlijk ook altijd gezien. De duurste kaarten zijn vaak voor de Youtubers/Enthusiasts/Hardcore gamers, waarbij de mid-high segment voorr de alledaagse Jan is. Een normale gamer zal meer dan genoeg hebben aan een RX 7700(XT) of RTX 4060Ti/4070 en 4080 als het meer om 4K gaming gaat (al hoewel dit nog verre van de norm is.) De GTX 1060 is hele lang tijd (en nog steeds) de populairste videokaart onder de gamers geweest volgens de statistieken van Steam, gevolgd door de 2060!
Mwa de laatste paar Keynotes waren AMDs claims wel degelijk waar. Vaak zelfs lager dan wat onafhankelijke reviewers lieten zien.
Is op zich ook wel vrij logisch. Natuurlijk wil je jezelf zo goed mogelijk neerzetten, maar als AMD claims maakt die vervolgens door onafhankelijke reviewers aan stukken gescheurd worden en de kaarten daardoor worden neergezet als 'een teleurstelling' is dat waarschijnlijk meer negatieve publiciteit dan de positieve publiciteit van de initiële foute claims.

Daarentegen als ze zelfs nog iets beter gepresteerd hebben dan oorspronkelijk gezegd heb je 2x winst (vanuit gaan dat de initiële claims niet zo laag waren dat niemand er warm van werd).
Dit zijn gewoon highend kaarten hoor... Echt geen midrange, ook niet als je er upper voor zet. Die 4090 is gewoon het equivalent van een absurde hypercar. Je gaat een supercar ook geen snelle middenklasser noemen omdat een hypercar bestaat...
4080 / 6900xt zijn high end
FLOPS zijn leuk, maar zeggen lang niet alles. Een 6950XT haalt minder FLOPS dan een een RTX 3080, maar is zeker weten een stuk sneller in gaming. Waarschijnlijk geldt dat AMD ze beter gevoed houdt, bijvoorbeeld door de extra cache op RDNA2 ten opzichte van Ampere. Voor RDNA3 zeggen ze de front-end sneller te runnen, dus dat zou ook best eens betere occupancy op kunnen leveren.

Je ziet dat ook in Blender (HIP vs CUDA, OptiX laat ik buiten beschouwing) AMD flop-voor-flop competitief is met Nvidia, want dat is blijkbaar een applicatie waarin ruwe doorvoer veel belangrijker is dan in games. Daardoor lijkt het alsof HIP heel langzaam is, maar dat valt dus best mee.
Dat gaat echt niet gebeuren. Er is absoluut nul kans dat AMD een kaart met 10% minder performance neer gaat zetten voor een fractie van de prijs van de concurrent, als die ook nog eens veel zuiniger is. Waarom zouden ze dat doen? Best case scenario zal een 20% betere prijs / ruwe performance zijn, maar 10% lijkt mij waarschijnlijker.

En tech youtubers, tja. Ze praten elkaar allemaal wat na.
Wel eerlijk vergelijken dan, 999 dollar tegenover 1599, 60% meer en niet 100% meer.

Ben overigens heel benieuwd hoe goed de 7900XTX underclocked kan worden, gezien de 4090 dik 95%+ performance haalt met maar 320w. Dat is toch uiteindelijk de echte vraag i.p.v. die praktisch nutteloze TDP verhalen.
Je berekening is sowieso niet volledig. 999 USD is 1022 euro exclusief BTW. Je zit dus al op 1239 euro inclusief btw als een kaart de msrp weet te halen.
Ze zeiden, heel bewust, dat het de beste kaarten zijn onder de 1000 dollar. Dus ik vermoed dat ze met deze kaarten geen directe concurrent hebben voor de 4090. Wat op zich niet gek is, ik hoop dat deze kaarten ook echt concurrenten zijn voor de 4080 en 4070.
Voor de 4080 kan je er zeker vanuit gaan met de RX 7900 XTX. En de 7900 XT tegen de 4070.

Enkel niet mee met de 4090. Maar eigenlijk kan je de power vaak bij Nvidia niet gebruiken doordat ze displayport 1.4a hebben wat absurd slecht is voor zo een dure kaart.

Wee kunnen denk ik ongeveer 1.5 performance op 4K verwachten tov de 6950XT wat gewoon zeer deftig is.
7900 XT met 20 GB VRAM tegen een 4070 met maar 12 GB VRAM, denk het dus niet. Ik denk dat de 7900 XT gaat opboksen tegen de 4080 die maar 16 GB VRAM heeft. Dat gaat een selling point worden.

Verder moeten we gewoon de benchmarks gaan afwachten. Maar de prijs is in ieder geval zeer goed.
Zolang die 12 of 16GB niet volgepompt worden maakt het weinig uit voor de performance. Mijn 6800XT met 16 zie ik nooit meer als 11gb gebruiken. Dat noem ik de Nvidia limiet.
Verwacht met deze generatie exact hetzelfde
En van die 11 GB is een groot deel niet eens nodig maar gewoon gecached omdat het kan.

Vaak word er geheugen gereserveerd maar is het niet echt nodig voor de game.
Koop jij GPU's om er slechts een jaar gebruik van te maken?

Genoeg games die ondertussen graag meer dan 8GB VRAM gebruiken. Mijn 8GB VRAM zit op 1080p met recente zwaardere titels eigenlijk altijd al vol.

Als je nu een kaart met 12GB VRAM gaat kopen, doe je dat niet voor de midden-lange termijn.

VRAM is meestal de eerste bottleneck die je het hardste zal merken. Je kan heel wat grafische opties omlaag schroeven zonder dat je hier veel van merkt. Maar zet b.v. je texture details omlaag (notoire vram vreter) en je ziet het direct.

Persoonlijk zou ik toch echt voor 16GB VRAM of meer gaan, dan kan je veel makkelijker minimaal weer 3 jaar vooruit.
Welke games dan wel?
Iets als elden ring heeft zelf op 4k nog geen 5gb effectief vram geheugen nodig .
Spider-Man Remastered, Battlefield 2042, Dying Light 2. Scrum tikt al een paar jaar de 8GB aan.
Je moet oppassen omdat wat je in windows ziet is toegwezen geheugen, niet wat het spel nodig heeft.

https://www.overclock.net...-vram-allocation.1720688/

https://www.reddit.com/r/..._vram_used_not_allocated/
Even snel kijkend naar benchmarks. Op papier zijn de GTX 1060 6GB en de RX 580 8GB behoorlijk aan elkaar gewaagd.

De RX 580 ramt er toch een behoorlijke hoeveelheid meer FPS doorheen in Dying Light 2 en Spider-Man remastered.

Een deel van die VRAM zal cache zijn. Maar hoe minder cache, hoe meer het moet gaan swappen tussen RAM en VRAM, hoe meer performance dat kost, vooral op de momenten dat de GPU het niet kan gebruiken. Hoe lager de kracht van een GPU, hoe minder ruimte je hebt.

8GB VRAM is op 1080p en hoger echt de norm aan het worden. Deels omdat het hierin gewoon de consoles volgt, die ook 8-12GB VRAM tot hun beschikking hebben.

VRAM is al een paar GPU generaties zo'n beetje de eerste bottleneck die je gaat merken in je performance.

Als je nu een kaartje wil kopen en daar 3-5 jaar mee vooruit wil, is het echt aan te raden om richting de 16GB VRAM te gaan. 12GB VRAM gaat sneller een bottleneck vormen.

[Reactie gewijzigd door batjes op 22 juli 2024 21:35]

Over architecturen vergelijken is al lastig laat staan over fabrikanten.

6500 XT komt met een 4 & 8 gb versie :
https://www.youtube.com/watch?v=E2S48r18TbY

Zoals je ziet zelfs zo een extreme vergelijking (4 vs 8gb) en je ziet amper verschil. Dying light 2 die je vermeld zit erbij en daar is het 1 fps verschil op 1080p.
Hier ging de discussie over 12 vs 16 gb vs 20 gb .


https://www.resetera.com/...hy-10gb-is-enough.280976/

Het probleem is tegen de tijd dat 12GB niet meer genoeg is en als je perse wil gamen op 4k/ultra met RT meestal (en geen dlss ed) je kaart toch te traag zal zijn omdat te doen.

Die 16GB vram is dus nuttig voor iets als renderen bijvoorbeeld maar niet echt voor games.
Maat van mij heeft de RX580 4GB en die loopt al een paar jaar tegen performance problemen aan en speelt al heel lang dezelfde games als mij op low-mid.

Games hebben tegenwoordig gewoon veel VRAM nodig, Nvidia doet al generaties alsof geheugen er niet toe doet. Mijn oude GTX 760 werd keihard gebottlenecked door die 2GB geheugen, de GPU kon makkelijk betere graphics aan met 3 of 4GB aan geheugen en dat was al 5+ jaar geleden.

[Reactie gewijzigd door batjes op 22 juli 2024 21:35]

Tja de feiten spreken je tegen, zoals je zelf kan zien zelfs op recente games is er amper verschil tussen 4gb en 8gb. laat staan 10/12 gb vs 20 gb waar het hierover ging.

580 is al meer dan 5 jaar oud nu en was toen vooral een goedkopere kaart die ging voor prijs/performance niet voor absolute top prestaties maar zelfs dat en zelfs met 4gb gaat die nog goed mee hoor:
https://www.youtube.com/watch?v=AWbD7SLapmk

Ik heb echt geen idee wat je meer wil van een mid range kaart uit 2017 , de 8gb versie is amper verschil qua prestaties.
https://www.youtube.com/watch?v=yOUxO50erUY
https://www.youtube.com/watch?v=kOaEorgENoQ

Kom dan met fatsoenlijke vergelijkingen. Exact dezelfde kaarten, alleen verschil in geheugen. Sommige games maakt het niets uit en in sommige games scheelt het gewoon 10-15%

Maar goed, koop jij lekker een GPU met 4GB VRAM 👍
Nogmaals in je bizarre ge-ergerde reactie: het ging hier over 10/12gb vs 20gb.
Idd als je cherry picked kan je ergens 10% verschil in FPS vinden tussen eenzelfde kaart met 4 en 8gb, het is dus wel duidelijk dat een kaart met 12gb ruim voldoende is en 20gb zo goed als geen voordeel op dat vlak brengt.
De reden dat ik dus een 6800xt met 16gb heb.
Gezien wat AMD en Nvidia nu uitbrengen sla ik deze generatie over.

Maar toch zal je een limiet op geheugen grootte zien. Daardoor kan ik dus nog even vooruit.
Anoniem: 407645 @arbraxas4 november 2022 12:30
Misschien dat het extra VRAM later nog nut heeft met technieken als DirectStorage
Volgens mij heeft AMD al generaties lang ruim meer (tot twee keer zo veel) geheugen dan nvidia, als je kaarten van dezelfde prijsklasse vergelijkt.
Goedkoper geheugen dan meer ook geen probleem en infinityn cache maakt dat tegen high-end …x geheugen kan.
Ik denk niet dat AMD in staat zal zijn om de 4090 te evenaren. Ze hebben de technologie niet. Maar de upper mid range is toch wel het belangrijkste segment, en daar kan het nog wel eens pittig worden. En vergeet niet dat chiplet ontwerp. Waarschijnlijk wordt dat makkelijker te produceren dan een grote chip. Dus kunnen ze ook meer kaarten schuiven.

Eigenlijk ben ik vooral benieuwd wat dat gaat betekenen voor de Rx 8000 lijn. Die krijgen dan een pittige cash injectie uit deze nieuwe kaarten.
In theorie zouden ze gewoon een zwikkie meer chiplets op een kaart kunnen plakken ten kosten van verbruik en natuurlijk tegen hogere productiekosten.

Ik denk vooral dat het niet interessant genoeg is daarin mee te gaan nu op het moment een recessie en energiecrisis aanstaande zijn. Je moet het immers beheren, produceren en marketen. En zoals je zelf al zegt zitten de grote aantallen in het segment er onder.
Zo werd toch ook gedacht met de 3090 en de 6900xt. Dat de 6900xt nooit zo kunnen opboxen tegen de 3090, maar wat blijkt..

Ik wacht de benchmarks even af!
Scheelt misschien enkele %'en echter is de XT 1/3e goedkoper
Qua RT niet. Qua raster kan hij wel. Maar inderdaad AMD lijkt ze wel lager te positioneren ik denk vooral gebaseerd op de RT prestaties. En als Selling point krijg je dan een kaart die sneller is met Raster en veel zuiniger is.

[Reactie gewijzigd door Astennu op 22 juli 2024 21:35]

De 4080 is echt wel een stuk slomer dan de 4090, ik verwacht zelf dat de 7900xt hem goed kan bijbenen en mogelijk sneller is.
rip nvidia, 350W, 2 slots, 2x 8-pins, 61 Teraflops, wat een beest !
en dat voor maar €999

[Reactie gewijzigd door FinalLight op 22 juli 2024 21:35]

Het is dollar en die is duurder dan de € en er komt nog belasting van 21% bij. Dus reken meer rond de 1300 voor de 7900 XTX en 1150 a 1200 voor de 7900 XT
De berekening wordt letterlijk in het artikel gemaakt op €1110 en €1233. Dat in combinatie met hoeveel zuiniger deze kaarten zouden zijn in vergelijking... Pfoe.
Ja klopt, ik bedoel meer voor AIO kaarten is de verwachting. Dat had ik erbij moeten zetten. In mijn post boven had ik dat staan.

Maar nog steeds veel te veel geld. We doen nu opeens of 999 dollar een goede prijs/prestatie is.
Als ze daar 599 van hadden gemaakt zou het gelijk helemaal in orde zijn.

Maar R&D moet natuurlijk terugbetaald worden. Ben benieuwd hoeveel ze daaraan hebben besteed in de 3 jaar die ze eraan hebben gewerkt.

Maar AMD moet nu meer binnenhalen voor de aandeelhouders en ja dan betalen we als consument ervoor.
Nou nee dat heet inflatie en de kloe is dat inflatie ook gecompoenseerd moet worden in de lonen. Zolang dat achter blijft lopen dan is dat niet AMD Nvidia Intel probleem maar ons probleem. Persoonlijk in april loop bij mij energie contract af. En dus dit en volgend jaar niet de tijd om luxe en hobby zooi aan te kopen alsof het gouden tijd is. We gaan hier harder recesie in. Dit zijn internationale global commerciele bedrijven die $ gedreven zijn dat euro ruk staat is niet hun verantwoording en niet hun doel om hardware voor dump prijzen in de markt te knallen omdat hier krenten zijn die menen dat AMD intel nvidia liefdadigheids instanties zijn.
Oorlog in de regio waar energie politiek wapen geworden is en recesie voed.
Of escaleerd verder. Die russen vallen tegen kwa slagkracht die oekrainier bieden onverwacht hoge tegenstand en dat maakt oorlog langdurig.

Dus RDNA4 en Zen5 en battlemage is ellende mogelijk ook niet voorbij.
Wat gaat de diesel doen in mijn branch is dat heel belangrijk.
In goede tijden mogelijk zen1 tr vervangen een g-kaart zeker wel nu voorlopig niet.
Niet alleen inflatie, hou een generatie die maar 599 was voor het topmodel in je linkerhand en deze in je rechterhand, 2x zo zwaar veel betere en grotere componenten, 6x meer transistors en veel vonplexere chips.

Het slaat nergens op dat mensen dat allemaal verwachten voor dezelfde prijs. Zolang je voor hetzelfde geldt nu iets beters kan kopen is het gord, dat dat beters niet perse het beste is maakt weinig uit.
Maar AMD moet nu meer binnenhalen voor de aandeelhouders en ja dan betalen we als consument ervoor.
Het staat je vrij om ook een paar aandelen AMD te kopen hoor. Win-win. Waarom wil jij jezelf identificeren als consument en niet als aandeelhouder?
En reken daar verder nog maar even de scalper prijsverhoging van de webwinkels bij want 'schaarste', en je kan zo 1500+ aftikken of nog veel meer voor de third party OC Ultra Chill Tripple X Cool aRGB Gold editions...
als je er dan toch zo mee inzit met de prijsverhoging, koop dan een via de website zelf aan MSRP...
geen bling, oc, chill, tripple, cool, aRGB whatever.
Dit ligt er altijd een beetje aan.
Sony bijvoorbeeld, zorgt ervoor dat de prijzen overal hetzelfde zijn in de desbetreffende valuta.
De PS5 bijvoorbeeld koste op release in de VS 499 dollar en hier 499 euro.
Hoe ze dat doen geen idee, wellicht nemen ze de kosten op zich of hoe dan ook, de consument heeft daar voordeel aan.
Zie AMD echter dit niet doen helaas
Volgens mij heb je wat nieuws gemist. Adviesprijs van de PS5 met ODD is tegenwoordig €549, terwijl hij in de VS nog steeds $499 is. De prijzen zijn hier dus wel degelijk omhoog gegaan.

Ook niet meer dan begrijpelijk. Tuurlijk wil niemand meer betalen, maar het zijn allemaal geen liefdadigheidsinstellingen, vooral de tech bedrijven waar de marges vaak al jaren onder druk staan.
Ik had het letterlijk over de release. Dat de prijs na bijna 2 jaar omhoog is gegaan doet daar niks aan af.
En met release was de euro 20% meer waard en betaalde je nog steeds evenveel in euros als dollars.
Maakt niet uit, het is altijd goedkoper geweest.
De RTX 3080 is tijdens dezelfde wisselkoers gelanceerd MSRP daarvan was 699 dollar. De direct sale prijs daarvan hier was iets van 720 euro.
Indien daar hetzelfde was gedaan was die 699 euro dus ook goedkoper.
(Hele scalper issue veranderd overigens niks aan dit gegeven)
Dit ligt er altijd een beetje aan.
Sony bijvoorbeeld, zorgt ervoor dat de prijzen overal hetzelfde zijn in de desbetreffende valuta.
De PS5 bijvoorbeeld koste op release in de VS 499 dollar en hier 499 euro.
Hoe ze dat doen geen idee, wellicht nemen ze de kosten op zich of hoe dan ook, de consument heeft daar voordeel aan.
Hoe ze dat doen is niet doen wat jij denkt dat ze doen, de PlayStation 5 kwam voor €499,- op de markt en in de vs voor $499,-

Ook met Amerikaanse sales tax erbij was hij daar dus goedkoper. Geen voordeel voor de consument hier en nu met de prijs van €549,- zeker niet meer.
Ja het is dan door wisselkoers bepaald waar hij goedkoper is. Dat is juist het punt. Ze veranderen gewoon de valuta ongeacht lokale belastingen. Dat houd dus in dat de verkopende partij, na de BTW afdracht minder overhoud.
De Nederlandse consument profiteert hiervan want dat is altijd goedkoper dan hoe veel andere partijen dat doen.

Even als voorbeeld;
De RTX 3080 is tijdens dezelfde wisselkoers gelanceerd MSRP daarvan was 699 dollar. De direct sale prijs daarvan hier was iets van 720 euro.
Indien daar hetzelfde was gedaan was die 699 euro dus ook goedkoper.

[Reactie gewijzigd door NosferatuX op 22 juli 2024 21:35]

Is dat de wisselkoers tov de dollar of de yuan?
De kaarten gaan direct vanuit China naar de EU. Niet China > VS > EU
Oftewel nog steeds belachelijk veel voor een GPU (van <500m²). Wel bizar hoe snel mensen gewend raken aan hogere prijzen. Die teraflops vertalen nooit naar daadwerkelijke performance. Zelfs AMD zegt reken op 1.5x-1.7x terwijl de teraflops bijn 3x zijn.

Gelukkig gaat de MSRP wel weer omlaag ipv omhoog zoals Nvidia die nog steeds in de cryptoboom leeft. 24GB en gewoon 2x 8-pin is ook wel fijn!
"Omgerekend naar euro's is dat met de huidige wisselkoers inclusief BTW momenteel 1110 euro voor de RX 7900 XT en 1233 euro voor de RX 7900 XTX."

Helaas dus geen €999,-
De dollar is duurder geworden... en de euro is minder waard geworden. thx Putin.
Je richt je tot de verkeerde politici, de inflatie was al begonnen voordat putin binnenviel.
nope, doe ik niet. inflatie was er nog nauwelijks. en het was een inflatie veroorzaak door tijdelijke tekorten, met name in geraffineerde olie producten (doordat ze express niet anticipeerde op verhoogde vraag). Dat was al aan het oplossen toen Putin zijn invasie begon en alle energy prijzen omhoog schoten... en alle rest er dus achteraan.

[Reactie gewijzigd door Countess op 22 juli 2024 21:35]

Dan zijn we het dus eens dat de inflatie al begonnen was voor de invasie ;)

Elke periode van inflatie begint met "in het begin was er nauwelijks inflatie" om dan daarna te stijgen.

De hoge energieprijzen verergeren de situatie natuurlijk, maar de oorsprong ligt bij het gevoerde monetaire beleid en de keuzes van onze overheden tijdens de corona crisis.

De energieprijzen stegen voordien al door te weinig investeringen in de voorbije decennia. Dat was een keuze van onze overheden.

Dat de oorlog in oekraine de prijzen nog verder deed stijgen klopt, we waren heel erg afhankelijk geworden van russisch gas. Dat was een keuze van onze overheden.

De parabel van de kikker en de schorpioen lijkt me een mooie samenvatting vd de gas situatie.

Enfin, dat is toch wat ik uit allerlei bronnen zo'n beetje mentaal bijeengeharkt heb de voorbije jaren. Kan verkeerd zijn, maar de stelling dat alles door putins invasie veroorzaakt werd lijkt me te simpel, en te lief voor deze falende politieke generatie.
Heeft niet zoveel met Putin te maken. De FED is monetaire verruiming gaan afschalen en heeft eerder de rente verhoogd dan de ECB. De ECB gaat overigens vrolijk door met monetaire verruiming en heeft alleen de rente een beetje verhoogd. Dat zorgt voor waardevermindering, in ieder geval t.o.v. de dollar.
op dit moment 1 Euro = 0.98 dollar
Maar de dollar prijzen zijn altijd nog exlusief btw, dus doe de prijs maar x1.21.

[Reactie gewijzigd door amelsander op 22 juli 2024 21:35]

Ooit was de euro 1.21 dollar en dus precies gecompenseerd. Regelmatig is de euro 1.10-1.15 dollar geweest en dus een heel eind gecompenseerd.
Inderdaad, maar toch nu staan we redelijk gelijk dus klats er die x1.21 maar bovenop.
Het scheelt natuurlijk wel dat de Amerikanen daar wel degelijk sales tax op betalen, maar omdat dat zo ongeveer per straat verschilt, wordt die er pas bij de kassa op gegooid. Onder de streep betaalt de Amerikaan dus ook meer als wat AMD hier roept.
Bedank eerder de ECB die 3200 miljard heeft bijgedrukt de laatste twee jaar.
Thanx corona en de rate hikes in de vs maken de dollar sterker.
De euro en dollar zijn ongeveer evenveel waard, maar door onze vrij hoge BTW van 21% kun je een vijfde optellen bij de dollar-prijs om bij de verwachte euro-prijs uit te komen.
Zonder real-life prestaties kunnen we helaas niks zinnigs zeggen over de prijs.
Maar ik zou inderdaad zeker geen 4090 kopen voor een godsvermogen zonder eerst de 4080 en 7900xtx af te wachten.
Hoe dan ook zijn er voor de consument momenteel gigantisch veel keuzes, en laat ik nou net op het punt staan om mn complete game-pc te gaan vervangen voor iets nieuws :)
je vergeet naast btw ook nog eens de prestaties. We hebben nog niets dan wat vage FSR scores gezien en we weten niet eens welke preset daar gebruikt is...

Het is dus heel goed mogelijk dat een 4080 voor 899 sneller is met een betere feature set.

Gewoon even netjes de reviews afwachten en dan OBJECTIEF de beste keuze maken.
899 voor een 4080 ?
Dacht het niet
Alles is mogelijk. Niemand hier had 2 uur geleden durven gokken op 899 en 999 voor deze kaarten. Met een recessie op komst kunnen er rare sprongen genomen worden om toch de verkopen te stuwen.
Zat Nvidia niet met een overschot van RTX 3xxx kaarten die eerst nog een eigenaar moeten vinden?

Als je nu naar de prijzen kijkt dalen die generatie kaarten ook niet echt dus ik verwacht geen massale prijsdaling in ene voor de 4xxx series
Eerlijk is eerlijk ze hebben de afgelopen jaren echt massaal winst gemaakt dus of die kaarten wel of niet verkopen zal Nvidia niet echt in de portemonnee raken. Die kosten zijn al lang en breed terugverdiend.
Hhet gaat niet im kosten, maar om marges. De CEO heeft zelf aangegeven dat hij minstens 60 procent wil en daar vloeien deze prijzen uit. De 4080 zal dan ook niet snel zakken, hooguit als de verkopen blijken tegen te vallen.
Wat Nvidia heeft gedaan, is wat scalpers in de voorgaande twee jaar deden: meer marge pakken 'want het wordt toch wel verkocht'. Ik kan ze geen ongelijk geven, al zie ik ook wel met lede ogen hoe dit soort high-end kaarten, even als de kaarten uit het (hogere) middensegment, steeds minder bereikbaar worden voor de grote massa. En dan niet eens zo zeer qua beschikbaarheid, maar qua prijs.
Maar hoezo zou de grote massa de top kunnen kopen? Niemand kijkt verbaasd op dat Jan Modaal niet met een privéjet vliegt. Zelfde lijkt mij hier gelden. Er is niks mis met een midrange kaart. Ja dan kun je niet alles op ultra deluxe high zetten maar dat hoeft toch ook niet altijd?
uiteindelijk bepaald de markt en het aanbod de prijs. Als het aanbod van AMD goed genoeg is en de prijs per prestatie beter dan zal NVIDIA niets anders overblijven dan de prijs verlagen of minder verkopen wat gegarandeerd minder oplevert. Marge is leuk op papier maar of de markt daar aan mee werkt blijft altijd de vraag. Daarom is het ook zo belangrijk dat we concurrentie hebben.
uhmm, we hebben hier te maken met nviida. Die gaat echt nooit een kans laten lopen om hun dominante markt positie te misbruiken om de markt uit te knijpen. Nee, ik deel jouw optimisme hier totaal niet.
Zolang er nog een belachelijk overschot aan 3xxx kaarten is, zal die prijs van de 4xxx absoluut nog niet omlaag gaan, in extreme geval weer richting MSRP prijzen, maar zeker niet op een lager niveau.
Ze zullen wel moeten als niemand ze straks nog kost.De 3xxx investering is al lang en breed terugverdiend door de bizarre prijzen afgelopen jaren en de grap die ze met de TI/LHR uitgehaald hebben. Maar 4000 nog lang niet.
De 4000 dev is allang betaald.
4080 prijs is toch al bekend @1200 dollar? 200 dollar duurder dus.
Ik zie die xtx toch zeker gelijkaardig of zelfs beter als die 4080 uitkomen qua prestaties.
Ik voel me nu wel een beetje als een clown, vorige week nog 700 euro betaald voor een 6900XT.
Ja dit heb je helaas altijd voor de launch. je weet nooit wat er gaat gebeuren. we hebben ook generaties gehad waar de oude bijna niet goedkoper werd. Maar onder de streep blijft het natuurlijk een beest van een kaart en beter dan wat 95% van de wereldbevolking heeft.
Ik kan deze natuurlijk altijd nog op Vraag & Aanbod gooien :)
Dan heb je nog steeds een prachtige videokaart waar je vele jaren plezier van zult hebben.
Vind ik nog steeds een nette prijs (natuurlijk wel een hoop geld). Ik zou hem er ook nog wel voor kopen (twee maanden geleden een RX 6800 gekocht voor 700 euro).
Je moet eerst nog maar zien hoe de verkrijgbaarheid van de nieuwe kaarten zal zijn, en dan is de RX 7900 toch nog een aardig stuk duurder.
Misschien als Nvidia met een nieuwe 4080 variant komt komt met 8GB geheugen :Y)
Waarom niet? Zelfs de 16GB versie is maar 379m², dat is kleiner dan een 3060ti.
4080 voor 899 in welk dromenland leef jij?
The GeForce RTX 4080 (16GB) has a starting price of $1,199.

Het is een feit dat we nog niks weten over de prestaties, maar anderzijds shrijf jij hem al volledig af in de andere richting met foute info alvorens ook maar enige benchmark...

OBJECTIEF noemen ze dat? :+
Niks RIP nvidia, de 4090 zal heer en meester blijven, genoeg mensen interesseert het helemaal niets dat die 4090 maximaal zoveel stroom trekt, zeker niet als ze daarmee hun werk sneller kunnen uitvoeren.
Ik denk dat maar heel weinig klanten een 4090 kopen voor hun werk.
Die zullen dan eerder naar Quadro's gaan, oid.
Maar de Quadro varianten zijn er nog niet, en zeker grotere VFX bedrijven hebben die kosten er zo uit voordat de Quadro varianten er zijn.
Amd presenteerd God Of War 4k op 63fps op 4k zonder frs. Ik speel hem op meer dan 160fps met soms een dip naar 120 met mijn 4090.

Ik ben dus zeer benieuwd naar Digital Foundry. Maar dat het de 4080 gaat verslaan (los van raytracing) is mooi om te zien
AMD komt niet aan de performance van de 4090. Daarom ook 0 vergelijking in hun live stream met Nvidia, Ze weten dat ze het niet halen. Pl;aatsen een DP 2.1 port erop.. voor 8K xxxHZ gaming.. wat niemand kan of gebruikt.
die DP 2.1 is al bruikbaar als je over de 120pfs op 4k gaat, wat in veel games niet moeilijk is voor deze klasse gpu's. In Pubg haalt de RTX4090 al makkelijk over de 200 fps in 4k, was die 2.1 poort toch wel handig geweest, het blijft gewoon een blunder.
165fps haal ik ook met de 1.4 hoor.
Kunnen jullie makkelijk hier nakijken:

https://en.wikipedia.org/...limits_for_standard_video

en hier welke versie welke bandbreedte ondersteund:

https://en.wikipedia.org/...yPort#Main_specifications

1.4 kan maar tot HBR3.
Met HBR3 kan je maar tot 4K 120Hz gaan, of 1440p 240Hz, of 1080p meer dan 360Hz.

Met 2.1 (UHBR20) kan een poort:
4K meer dan 360Hz, 1440p meer dan 750Hz, 1080p ... erg veel.

Alles gaat wel flink omlaag met 10 bits per color. Ik nam 8bpc aan.

[Reactie gewijzigd door grasmanek94 op 22 juli 2024 21:35]

Dat klopt, maar je hebt dan te maken met kwaliteitverlies.
Waar ik persoonlijk niks van zie als ik op 4K native speel.
De 7900 XTX is dan ook (meer dan) de helft van de prijs van jouw 4090.
Nee hoor, 1233 (wat waarschijnlijk toch wel meer zal worden als adviesprijs hier) vs 1.959 is een heel stuk MINDER dan de helft van de prijs van de 4090, of mijn rekenkunsten zijn toch echt zwaar verslechtert. En kom niet aanzetten met straatprijzen, want die weet je nu ook nog helemaal niet voor deze AMD prijzen, je moet adviesprijzen met elkaar vergelijken.
Ik snap die prijzen in Euro’s niet helemaal. Hoort het niet zo te zijn dat de adviesprijzen in Dollars enkel één op één omgezet dienen te worden aan de hand van de wisselkoers? Zijn de aangegeven adviesprijzen in Dollars niet inclusief Amerikaanse BTW ofzo?Zo ja, waar komt de rest van het verschil dan vandaan?

[Reactie gewijzigd door Boss429 op 22 juli 2024 21:35]

Prijzen in dollars zijn nooit inclusief btw omdat dit per staat verschilt. De btw is niet in heel Amerika hetzelfde zoals in Nederland.

Het is niet meer dan een educated guess op basis van de waarde van de euro + 21%.
Ah zo. Oke makes sense dan. Ik denk dat het door PlayStation komt die altijd dezelfde bedragen hanteerde tussen de twee valuta’s en de Euro bedragen waren altijd inclusief btw volgens mij. Nog iets geleerd. Nu vraag ik mij wel af wat de psychologie is achter het beleid van Sony PlayStation wat dit betreft.
De benchmarks zullen het uiteindelijk moeten uitwijzen, maar na de release van Nvidia ben ik niet onder de indruk van de specificaties en aangekondigde framerates. AMD is momenteel competent, maar Intel heeft gewoon echt wel goede CPU's en Nvidia echt wel sterke kaarten, en ik zie AMD toch wel worstelen op de high end.

De prijs daarentegen is andere koek. 1000 dollar is bijzonder concurrerend tegen de peperdure kaarten van Nvidia. Ik zie AMD niet op de high end winnen, maar daarvan worden er nooit zoveel verkocht. De upper mid range is het belangrijkst. En daar kan het nog wel eens spannend worden.

Met het chiplet ontwerp kan AMD wellicht ook makkelijker kaarten produceren (en dus meer kaarten). Daarmee kunnen ze nog wel eens deze generatie winnen. Niet op performance misschien, maar op prijs en pure kwantiteit. Dan zou het me niet verbazen als AMD flink geld weet binnen te harken.

Eigenlijk ben ik vooral enthousiast voor de volgende generatie kaarten. Als AMD nu op prijs/kwaliteit en kwantiteit kan winnen, kunnen ze met de winst flink investeren in verbeteringen. En dan kan de Rx8000 serie misschien nog wel de prestatiekroon weten te stelen. Mijj voorspelling is dat het vooral over 2-3 jaar echt heel spannend wordt.
Nah, op CPU level is AMD eigenlijk net zo goed als Intel. Zelfs met multi beter als je ziet dat AMD minder cores heeft. Single lopen ze wat achter maar ook dat valt reuze mee.

Ze moeten gewoon de prijs een stuk lager maken. Als ze de 7950X voor 499€ verkopen en de 7900X voor 399€ dan zal je zien dat ze opeens wel een heel stuk beter uit de verf komen,

Als de nieuwe 3D modellen er zijn zullen ze met gamen zeker weer gelijk zijn zo niet beter.

Met de videokaarten is het een beetje afwachten. Duidelijk is wel dat ze de 4090 niet gaan verslaan. Zowel niet native en zeker niet in Raytracing. Dat laatste is wel zorgwekkend de achterstand.

Maar als ze de prijs nog wat lager kunnen maken, zeker van de non XTX dan hebben ze waarschijnlijk een goede prijs/prestatie.

Tevens ben ik benieuwd wat een goede AIO eruit kan halen. Ik zie een goede watergekoeld model wel in de buurt van de 4090 komen met een overclock. Iets wat met de nieuwe Nvidia amper mogelijk is door het verbruik.

Ik denk dat ze hebben besloten meer op performance per watt te kijken dan op absolute prestaties, omdat ze daar gewoon nog wat tekort komen.

Als we straks bv een mooie 7800XT hebben die onder load niet meer dan 250 watt slurpt en sneller is dan de 3090ti kom je al een heel eind.

Over een week of 6 weten we meer.

Op dit item kan niet meer gereageerd worden.