Nvidia brengt GeForce RTX 4090 in oktober uit, RTX 4080-gpu's volgen in november

Nvidia heeft zijn eerste GeForce RTX 40-videokaarten aangekondigd. Deze worden gebaseerd op een nieuwe Ada Lovelace-architectuur. Het bedrijf komt met een RTX 4090 voor 1959 euro en twee RTX 4080-varianten voor respectievelijk 1099 en 1469 euro.

Nvidia positioneert de GeForce RTX 4090 als het topmodel in de nieuwe line-up. De RTX 4090 beschikt over 16.384 CUDA-cores met een baseclock van 2,23GHz en een boostclock van 2,52GHz. Nvidia levert deze videokaart met 24GB GDDR6X-geheugen en een geheugenbus van 384bit. De kaart krijgt een tbp van 450W. Nvidia claimt dat de kaart 'tot twee keer sneller dan de RTX 3090 Ti is in huidige games'.

Daarnaast komt het bedrijf met twee verschillende GeForce RTX 4080-modellen. Het 'instapmodel' wordt een GeForce RTX 4080 12GB, die beschikt over GDDR6X-geheugen en een Lovelace-gpu met 7680 CUDA-cores. Deze krijgt kloksnelheden van 2,31GHz met een turbofrequentie van 2,61GHz. De RTX 4080 12GB krijgt een 192bit-geheugenbus en een tbp van 285W.

Daarnaast introduceert Nvidia een 16GB-variant van de RTX 4080. Deze krijgt, naast extra geheugen, echter ook een krachtigere gpu met 9728 CUDA-cores. De kloksnelheid ligt bij deze kaart op 2,21GHz met een boostclock van 2,51GHz. Verder krijgt deze kaart een 256bit-geheugenbus en een tbp van 320W. Beide RTX 4080-videokaarten komen in november uit. Nvidia gaat Founders Editions van de RTX 4090 en RTX 4080 16GB produceren. Van de RTX 4080 12GB komen alleen aangepaste varianten van boardpartners op de markt.

Nvidia GeForce RTX 4090 en RTX 4080Nvidia GeForce RTX 4090 en RTX 4080

TSMC en de Lovelace-architectuur

De GeForce RTX 40-videokaarten worden geproduceerd op het 4N-procedé van TSMC, dat het bedrijf samen met Nvidia heeft ontwikkeld voor het produceren van gpu's. De vorige RTX 30-generatie werd door Samsung geproduceerd op 8nm.

Het topmodel in de GeForce RTX 40-line-up, de RTX 4090, beschikt volgens Nvidia over 76 miljard transistors. De fabrikant claimt dat de Lovelace-architectuur tot twee keer sneller is dan de huidige GeForce RTX 3090 Ti in games met rasterization. In het geval van raytracing claimt Nvidia een prestatiewinst van vier keer ten opzichte van de RTX 3090 Ti.

De nieuwe videokaarten worden gebaseerd op een nieuwe Ada Lovelace-architectuur. Hiermee vernieuwt Nvidia onder meer de streaming multiprocessors. Volgens het bedrijf leveren deze ieder tot twee keer betere prestaties. Daarnaast introduceert Nvidia een nieuwe shader execution re-ordering-functie. Deze moet shading in de gpu-pipeline versnellen door workloads in realtime te reschedulen om deze zo efficiënt mogelijk uit te voeren. Volgens Nvidia is dit twee tot drie keer sneller voor raytracing en levert dit tot 25 procent betere gameprestaties in zijn algemeen.

Onderdeel van Lovelace is ook een derde generatie raytracingcores, die een twee keer hogere throughput moeten leveren bij ray-triangle interceptions. Een vierde generatie Tensor-cores moet daarnaast tot vier keer hogere throughput leveren dan voorheen. Dat wordt bereikt door gebruik te maken van de fp8-transformerengine die Nvidia introduceerde in de Hopper-architectuur voor datacenters. Verder krijgt de RTX 40-serie ondersteuning voor AV1-encoding. Upscalingtechniek DLSS krijgt een nieuwe 3.0-versie, die voor het eerst ook eigen frames kan genereren voor hogere framerates. DLSS 3.0 werkt alleen op RTX 40-kaarten, en dus niet op gpu's uit voorgaande generaties.

Prijzen en beschikbaarheid

De gepresenteerde RTX 40-videokaarten komen in de komende weken beschikbaar. De GeForce RTX 4090 komt op 12 oktober uit. Deze videokaart krijgt dan een adviesprijs van 1959 euro; dat is 410 euro meer dan de RTX 3090 bij release. Beide RTX 4080-varianten volgen in november. De 12GB-variant komt dan beschikbaar voor 1099 euro, waar de RTX 3080 bij release 719 euro moest kosten. De 16GB-variant krijgt een adviesprijs van 1469 euro en komt daarmee dichtbij de adviesprijs van de RTX 3090 bij release.

Het bedrijf houdt voorlopig zijn RTX 30-serie in de running. De GeForce RTX 3080, 3070 en 3060 blijven allemaal beschikbaar naast de drie nieuwe RTX 40-videokaarten, zo stelt Nvidia tijdens zijn presentatie. Nvidia rept op dit moment nog niet over de release van lager gepositioneerde GeForce RTX 40-videokaarten, zoals een RTX 4070 of RTX 4060. De verwachting was al dat Nvidia tijdens deze presentatie alleen zijn hoogst gepositioneerde modellen zou presenteren.

Nvidia GeForce RTX 4090- en RTX 4080-benchmarksNvidia GeForce RTX 4090- en RTX 4080-benchmarks
Nvidia GeForce RTX 40-kaarten naar hun RTX 30-tegenhangers
Videokaart RTX 4090 RTX 3090 RTX 4080 16GB RTX 4080 12GB RTX 3080 RTX 3070
Architectuur Ada (TSMC 4N) Ampere (Samsung 8nm) Ada (TSMC 4N) Ada (TSMC 4N) Ampere (Samsung 8nm) Ampere (Samsung 8nm)
CUDA-cores 16.384 10.496 9728 7680 8704 5888
Boostsnelheid 2,52GHz 1,70GHz 2,51GHz 2,61GHz 1,71GHz 1,73GHz
Geheugen 24GB GDDR6X 24GB GDDR6X 16GB GDDR6X 12GB GDDR6X 10GB GDDR6X 8GB GDDR6
Geheugenbus 384bit 384bit 256bit 192bit 320bit 256bit
Tbp 450W 350W 320W 285W 320W 220W
Releasedatum 12 oktober 2022 September 2020 November 2022 November 2022 September 2020 Oktober 2020
Adviesprijs 1959 euro 1549 euro 1469 euro 1099 euro 719 euro 519 euro

Door Daan van Monsjou

Nieuwsredacteur

20-09-2022 • 18:47

354

Lees meer

Reacties (354)

354
348
191
8
0
86
Wijzig sortering
Ik vind het vooral stom om 2 versies van de 4080 uit te brengen. Als ze alleen qua vram verschilden was dat nog wel te begrijpen. Dat blijkt immrrs uit de type aanduiding 4080 12gb en 4080 16gb. Maar dat er zo een groot verschil zit in cuda cores leidt voor de leek tot een hoop verwarring. Had dan de duurdere 4080 Ti genoemd.
Videokaarten worden steeds duurder. Prijzen zijn stevig maar wel te verklaren. Ten eerste de euro-dollar koers die ze in euros duur maakt. Ten tweede is bij vorige generatie gebleken dat consumenten bereid waren veel meer te betalen dan de adviesprijzen. Waarom zou je dan als commerciele onderneming niet de prijzen verhogen? Ten derde liggen er nog veel 3080s enzo op de plank die ze ook nog kwijt willen raken.
De specificaties zijn grotendeels gelijk aan de leaks van afgelopen maanden. Ik ben wel benieuwd hoeveel ze echt sneller zijn dan rtx 3000 series.
Stroomverbruik vind ik te hoog worden maar komt niet onverwacht. Vooral Europa heeft een energiecrisis. Elders speelt dat minder.
Jammer dan dlss 3.0 niet naar rtx 3000 series komt.
Niet alleen meer geheugen, ook een hogere geheugenbus 192 vs 256bit. Dit maakt ook wel degelijk verschil.
Daar doelt Robsenden ook juist op; juist omdat het meer afwijkt dan op enkel het geheugen, had deze kaart beter de ( of een ) Ti versie kunnen zijn. Dat maakt het gelijk duidelijker dat het echt een hoger gepositioneerde kaart is.
Als ze alleen qua vram verschilden was dat nog wel te begrijpen. Dat blijkt immrrs uit de type aanduiding 4080 12gb en 4080 16gb. Maar dat er zo een groot verschil zit in cuda cores leidt voor de leek tot een hoop verwarring. Had dan de duurdere 4080 Ti genoemd.
Precies... ja, we hebben twee videokaarten waarvan de ene geheugen, cores and bandbreedte, dus we noemen ze allebei 4080. Dit is een tragisch dieptepunt in de videokaart-nomenclatuur. Nog afgezien van de graai-je-raak prijsstelling.
Ik denk dat de 4080 12GB eigenlijk een 4070 is, maar dan zouden ze er minder voor kunnen vragen, en dan verkoopt hun 3000 series minder goed, daar willen ze juist graag vanaf.
Hahahahahahah ...Nou dat was high end pc gaming voor mij. Als ik iets kan betalen betekent het niet dat ik het wil betalen en volgens mij heeft Nvidia gemist dat er een crisis gaande is :+

Ga wel weer gewoon meer op de Xbox Series X gamen en alleen RTS en Builders op de pc spelen. Die gaan nog wel eeen tijdje draaien op mijn 2080.

[Reactie gewijzigd door Beakzz op 23 juli 2024 09:45]

Ik snap je punt, is te gek voor woorden maar goed dat boeit ze geen..

Btw op een Xbox kan je gewoon toetsenbord + muis aansluiten dus RTS gaat dikke prima
Ja ze proberen de winsten die ze hadden met de crypto vast te houden. Ze hebben de levering van de 3x00 serie aan de markt ook verlaagt om de prijzen te houden waar ze nu zijn zodat deze serie "redelijk en logisch" geprijsd lijkt. JayZ2cents heeft een aardige analyse van de investors call van NVidia over dit topic.

Ik weet niet of we op AMD kunnen rekenen om hier een deuk in te slaan dat lijkt mij wishfull thinking. Ook daar gaat het er alleen maar om om zoveel mogelijk winst te maken maar ik heb het graag fout in deze. Ik denk dat het moet komen van de 2e hands markt 3x00 series kaarten. Als er daar genoeg van op de markt komen moeten ook de nieuwe 3x00 kaarten verder omlaag en dan wordt de prijs van de 4x00 serie alleen maar absurder.

Het beste is om idd met je portemonnee aan te geven dat je aan dit soort bedragen niet mee doet. De markt kan echt Intel gebruiken als 3e partij.
High-end deed ik al een tijdje niet meer aan, maar elke gedachte op toch maar eens een ultra-wide te halen of zo is hiermee ook weg, 1080p it is :P

En nu idd de series-X weer goed verkrijgbaar is, zou ik toch veeeeeeel sneller die kant op kijken, als ze 1200 durven te vragen voor een gegimpte 4080, zal een 4060 ook wel ~600 gaan kosten, echt absurd
Mijn 1080 ti doet het goed op een ultrawide. Ik speel nu niet de nieuwste spelletjes maar al wat ik tot nu toe geprobeerd hebt lukt toch goed. Het is geen 4K ultrawide, dat wel niet.
Nee klopt, een RX6600 zou ook best meer aankunnen dan 1080p, maar ik hoop juist een beetje levensduur uit het ding te halen, als ik bijvoorbeeld een 1440p scherm zou halen nu, zit ik kwa power/pixel weer ongeveer op hetzelfde niveau als met mn oude RX570, en die trok nieuwe games toch ook niet heel lekker meer.

Misschien dat 2560*1080 een optie is, maar soit, mn 1080p schermpje is ook nog geen twee jaar oud, dus ook een beetje overdreven om die alweer door te schuiven
Het is duur maar ik denk dat ze ook goed gekeken hebben naar de vorige generatie en de discrepantie tussen hun MSRP prijzen en daadwerkelijke markt. Dat was natuurlijk een beetje een bizarre situatie en ze kregen een hoop flak voor de onbeschikbaarheid en scalpers die alles overal wegkaapten en de prijs opdreven. Ik denk dus dat ze deze generatie kaarten door deze prijs hike ook minder interessant voor scalpers willen maken. (En er zelf wat meer aan overhouden natuurlijk).

p.s. Ik heb zelf nooit de top of the line kaart willen kopen tijdens launch. Je betaald veel te veel extra door het beste te willen. Als je een generatie achter loopt kun je prima op hoge kwaliteit gamen voor een fractie van het geld.
Helemaal akkoord. Ik ben altijd een PC Gamer geweest, maar sinds mijn PS5 aankoop besef ik pas hoe waardevol consolegaming is. Prachtige graphics, meeslepende games ... op een systeem dat minder kost dan één grafische kaart.

Er zit een 1070ti in mijn pc en dat is genoeg om de games op PC te spelen die niet op PS5 uitkomen. Overigens zijn er maar heel weinig games die een zware GPU vereisen als je speelt op FHD of QHD. Ik speel amper shooters ... dat scheelt heel wat GPU-power.
Blijf ook nog wel even doorpuffen op mijn GTX1060-6. Als er weer current gen high-end kaarten voor <700 euro zijn, tweedehands of nieuw dan meld ik me weer. Kans dat ik dus nooit meer geld neer leg voor een videokaart, dan maar switchen naar console.

Fijn dat jullie de markt op slot gooien en de AIB partners alle marge afpakken Nvidia. Van mij krijgen jullie na al jullie acties in deze tijden precies nul klandizie meer.
Jup, zodra de PlayStation beschikbaar is deze maar eens kopen, afgelopen jaar nog steeds niet gelukt. Denk dat er een tijdje geen PC meer komt. Hopelijk worden de 3000 kaarten nu aangeboden voor de prijs zoals in het begin beloofd was.
Ik denk dat ze onder druk staan van investeerders die opeens de winsten gigantisch hebben zien inkakken.

Vind het opmerkelijk dat ze het truukje van de 1060 3GB versie weer toepassen op de 4080 12GB, enkel is in dit geval het nog een stukje erger. ( in de zin dat de kaart niet enkel minder geheugen heeft zoals de naam doet lijken, maar dat die los van dat ook een stuk langzamer is).

Lijken in ieder geval niet op daden van een bedrijf waar het goed mee gaat.
Hahahahahahah ...Nou dat was high end pc gaming voor mij.
I hear jah. Dat gaat waarschijnlijk voor mij ook gelden. Heb altijd high end gedaan. Mijn huidige 3080 gekocht net na launch voor de toenmalige MSRP prijs. Destijds was de upgrade naar een 3080 voor rond de 800 ook al wel hoog, maar nog enigszins acceptabel w.b.t. de performance gain ( zeker gezien de prijzen van de voorgaande 20.. serie ). Die benodigde performance gain is er voor mij niet echt meer. ( vind 100+ fps op 1440p wel prima zo, en heb een 4K 120hz scherm ). En al helemaal niet voor zulke prijzen.

Er wordt verwacht dat deze kaarten ( 4080, 4090 ) weer als broodjes over de toonbalk zullen gaan, maar ik heb er mijn twijfels over. Het aandeel gamers die perse die 144 frames op hoger dan 1440p willen lijkt mij niet heel erg groot. Ik had het nooit verwacht, maar eigenlijk zijn de kaarten tegenwoordig sneller geworden dan de behoeften van een gemiddelde gamer, maar voornamelijk dus ook veel duurder. Het echte voordeel van nog snellere kaarten zie ik eigenlijk alleen liggen in nog veel betere graphics. Maar dat zie ik niet zo snel gebeuren, daar bijna alle games geport worden van/naar de huidige consoles.

Nah, mijn 3080 gaat nog wel even mee denk ik.

[Reactie gewijzigd door micla op 23 juli 2024 09:45]

We moeten niet vergeten dat stroomverbruik van dergelijke kaarten zal resulteren in een total lifetime cost dat significant hoger ligt dan voorgangers. De prijs kwaliteit verhouding moet dit ook zeker mee nemen.
Hoger? Dat is natuurlijk maar hoe je de kaart gebruikt. Als je de kaart altijd maar de maximale frames eruit laat drukken, dan ga je meer betalen. Maar veel games kan je ongetwijfeld ook op 50% van de capaciteit van de GPU spelen als je je framerate niet hoger laat gaan dan de refreshrate van je monitor.

Mijn 1080 Ti verbruikt zo'n 280 Watt op volle kracht, een 4090 zal hoogstwaarschijnlijk niet eens een kwart hiervan dat verbruiken om tot dezelfde prestaties te komen. Niet dat ik mijn 1080Ti ga omruilen voor een 4090, dat zou absurd zijn met mijn 3440x1440 60hz monitor, maar wellicht wel voor een 4070 of 4060.

Prestatie/Watt ratio is waar je op moet letten, niet op het kale verbruik.

Het TDP gaat tegenover de 3090ti blijft exact gelijk, terwijl het aantal TFLOPs meer dan verdubbeld van 40 TFLOPs naar 82,5 TFLOPs. Voeg daar ook nog eens aan toe dat Lovelace architectuur per core en clock waarschijnlijk beter presteert dan Ampere, en dan kom je uit op een prestatieverbetering van rond de 150%, voor hetzelfde verbruik.

[Reactie gewijzigd door MadDogMcCree op 23 juli 2024 09:45]

op 4k ga je de prestaties zeker nodig hebben, moderne titels kan je vaak nog steeds niet op ultra draaien en al zeker niet met raytracing. Dus de spierballen van de 4000 serie zullen zeker ruimte krijgen om te flexen in mijn usecase.
In modded gameplay al helemaal
1099 voor een 4080.. reference nog wel.

7800xt onder de 1099 hoop ik..
Als je naar de specs kijkt is die 4080 12GB naar mijn bescheiden mening toch echt een verkapte 4070ti. Ten opzichte van de 4090 en 4080 echt fors minder cores en een smallere bus.

Dus wat mij betreft 1099 voor een 4070ti.

De prijzen zijn echt belachelijk als je het mij vraagt. Zo raakt voor mij de lol er echt af...

[Reactie gewijzigd door Thekilldevilhil op 23 juli 2024 09:45]

Niet eens een 4070ti. Lijkt zelfs een andere die size. 4070 at best
Zijn zelfs alledrie andere chips:
4090 -> AD102-300
4080 16Gb -> AD103-400
4080 12Gb -> AD104-400

Onder Ampere deelden de 3090 en de 3080 hun chip, onder Turing waren de Titan RTX en 2080Ti een chip, de 2080 en later de 2070 Super een chip, en de 2070, 2060 Super en 2060 een chip. Binnen de xx80 kan ik geen enkele keer vinden dat er verschillende chips gebruikt werden.
Destijds toen de 20xx series de current gen was, ging ik kijken om m`n toenmalige 970 te upgraden naar een 2080. Die kostte toen der tijd rustig tussen de 13 en 1400 euro voor de wat deftigere uitgepimpte versies. Zelf ben ik een EVGA man en de basis EVGA 2080 was bij introductie 1200.
Op het einde van zijn verkoop periode in de prijs & aanbod chart zie je dat hij alsnog 1100 euro was.

Dus je bent na 2 generaties goedkoper uit met met die 1099 met meer perfromance. Wat valt er te klagen?

Zelf had ik uiteindelijk een 3080 gescoord vlak na launch en had nog de mazzel dat ik voor 849 m`n kaart had.Ik weet toendertijd nog dat mensen op het T.net forum zatten te zeggen van "ach te duur, we wachten nog wel ff" - waarop ik al bovenstaande voorbeeld erbij haaldde met "We zijn nu al goedkoper dan vorige gen en je gaat klagen dat je het _nog_ goedkoper wilt? Dat word het hem niet."

En jahoor, paar weken daarna bleek dat de prijzen helemaal niet goedkoper zouden worden maar op termijn stervensduur.

[Reactie gewijzigd door lithiumangel op 23 juli 2024 09:45]

Meeste RTX 2080 kaarten waren stuk goedkoper dan die EVGA, 2080 kon je vrij makkelijk onder 1000 euro vinden.

Nvidia verkoopt Founders Editions van de RTX 2080 Ti, 2080 en 2070 voor respectievelijk 1249, 849 en 639 euro.

Dat waren de adviesprijzen toen (en wat huidige artikel vermeldt is ook adviesprijs), en de normale prijzen zaten er niet ver vanaf, dus er is wel degelijk genoeg te klagen over het feit dat je straks minimaal 1099 euro betaald voor een nep 4080 die eigenlijk een 4070 hoort te zijn.

Om maar over te zwijgen of AIBs niet meer moeten vragen omdat Nvdia zoals met de de 3000 series onrealistische prijzen hanteert waar alleen Nvidia aan kon voldoen.

en dan zwijg ik over de 2xxx Super series, mijn 2070 Super zit amper onder een 2080 en ik betaalde 610 euro voor een nieuwe, "veel te dure" ROG variant van de 2070 Super, daar kon makkelijk 80 euro of meer vanaf kocht ik een meer normale variant. Die 1099 euro zal nooit van toepassing zijn voor die kaart buiten Nvidia om, en ik ben fors wat vertrouwen kwijt in dat bedrijf na wat ze vooral tijdens de 3000 series flikten

[Reactie gewijzigd door Mizgala28 op 23 juli 2024 09:45]

de prijzen...
- weinig tot geen concurrentie
- hoge inflatie
- veel vraag, blijkbaar genoeg mensen die het er willen voor geven

zo werkt de markt

Ik ben eerder verrast dat er direct 2 versies van de 4080 uitkomen. Dat lijkt verwarrend, maar misschien bedacht door de marketing mensen: men koopt een 4080 (symbolisch) en toch nog redelijk betaalbaar.
Euro is ook hard gedaald tov de Dollar en we betalen hier nog 21% btw. In US komt BTW pas bij uitchecken erbij want verschilt per locatie.
Maar zijn deze prijzen de NL verkoopprijzen? Of heeft Tweakers die berekend door conversie + btw?. Wat er komt alleen een FE van de 4090 niet van de andere modellen. Dus AIB prijzen zullen nog 100-200 euro hoger zijn voor de 'betere' modellen.

Blijkbaar komen er wel FE's van alle modellen (las op Reddit van niet, of misschien niet beschikbaar overal). Dit zijn inderdaad de echte prijzen staan ook op de Nvidia website.

[Reactie gewijzigd door kr4t0s op 23 juli 2024 09:45]

Vanaf prijzen in US t.o.v. EU volgens de respectievelijke Geforce subwebsite:
RTX 4090 $1599 vs €1959
RTX 4080 16GB $1199 vs €1469
RTX 4080 12GB $899 vs €1099
Dollar prijzen zijn zonder BTW ( omdat die overal verschillend is , per staat/ regio etc ) Bij de Us prijzen moet je ongeveer 10% optellen.
Dan nog is er een aardig verschil in prijs.
Er zijn zelfs plekken in Amerika zonder BTW, dus dan is het 1:1.
20 jaar geleden ging ik op vakantie naar de US en bracht ik een halve PC mee in de valies, 100en euros uitgespaard.
Denk dat die tijden terug gaan komen...
fkn hell mate. 2000,- voor alleen je videokaart.... en dan de rest nog.

Hoe gaat dit zich in de praktijk verhouden tot praktische verschillen. Welke game gaat hier specifiek voor gemaakt worden zodat je die rekenkracht ook optimaal kunt benutten. Extreem goede ray tracing lijkt me prachtig, maar ook daar is na een tijdje wel het dak bereikt toch? Je kunt upscalen naar 8K 200fps of noem iets geks, maar de kwaliteit valt of staat in de basis toch met het detail waarin het gebouwd is.
Veel vraag is nog maar afwachten. De vlag hangt er behoorlijk anders bij dan 2 jaar geleden
Herstel: Nvidia denkt er genoeg te zullen verkopen de tijd zal het uitwijzen, ik en vele anderen haken alvast af.
Ja exact!! Bizar gewoon. Waarom lukt het niet meer een gemiddelde kaart (4060/4070) voor €200/350 neer te zetten en een high end kaart voor €600/800 euro -bij de release.
De kosten zijn naar mijn weten niet veel hoger geworden, alleen de marges van Nvidia stijgen flink!
Ze laten gamers en enthousiast echt dil in de steek zo…

Daarnaast knijpen ze hun board partners ook flink uit de laatste jaren, hun marges slinken -EVGA stopt zelfs las ik..
Nvidia is niet cool!
Ook al ben ik niet blij met de prijzen, de kosten voor de GPUs zijn daadwerkelijk wel gestegen.
Maar niet zoveel. Dit is gewoon omdat ze gezien hebben dat hoge prijzen ook verkopen, dus ze gaan nu cashen.
De enige gepaste reactie is: niet kopen.
Ja net zoals

Brandstof is duur, we moeten met zijn allen niet tanken

Gas is duur, sluit massaal de gaskraan af

Eten is duur, dan maar geen eten

CoD is kut, niet preordered allemaal

Gaat niet werken dat weet jij ook
Jij vergelijkt eerste levensbehoeften met een videokaart. Gamen kan ook op een oudere of zuinigere kaart, gaming laptop of Steam Deck. Allen verbruiken minder stroom dan energiezuipende 40.. kaarten.
En ook op ie 1e levensbehoeften valt meestal wel degelijk te besparen, dus zo gek is dat rijtje niet eens.
Exact, en hij zegt dat het niet gaat werken. Ik zeg van wel. Er zit een nuance tussen het dichtdraaien van de gaskraan en minder gas gebruiken. Ik stond eerder 10 min onder de douche, nu 1, verder https://zetmop60.nl, gebruik een stoomkoker en draai de verwarming vrijwel dicht aankomende winter wat kan aangezien mijn woning goed is geisoleerd.

[Reactie gewijzigd door nullbyte op 23 juli 2024 09:45]

Sommige dingen kun je niet laten liggen. Een videokaart en een game kun je wel zonder problemen laten liggen.

Maar een autovrije vrijdag invoeren wereldwijd kan best weleens pijn doen. Al zullen ze dan gewoon de prijzen nog hoger maken als antwoord O-)
Op high settings spelen kan ook prima, ultra zie je vaak amper :eigenlijk vooral bij stilstaand beeld
Als ik geen brandstof koop dan rijdt mijn auto niet. Als ik geen eten koop dan ga ik dood. Als ik geen nieuwe videokaart koop dan.... ga ik lekker verder met mijn huidige videokaart :P
Nouja, als je naar de specificaties kijkt dan presteert de 4080 12GB gelijkaardig aan de huidige 3090Ti (beide 40 TFLOPs), en wellicht zelfs beter, want nieuwe architectuur en procedé zorgen waarschijnlijk voor een betere prestatie per core en per clock. De 3090Ti heeft dan wel 24GB aan VRAM geheugen, maar is dat is geen meerwaarde in het geval van gaming, 12GB is ook nog altijd ruim voldoende.

Dan is die prijs niet eens zo heel gek, want er tegenover staat een verbruik van nog geen 2/3e van de 3090Ti.
Het is goed mogelijk dat nVidia een 4070Ti uit gaat brengen op een latere moment, vooral als er de 3090Ti is. nVidia zal dus helaas vreemde keuzes blijven maken met veel verschillende kaarten met veel verschillende (dure) prijzen.
De 12Gb 4080 is eigenlijk gewoon een 4070. Flink verschil in cuda cores met de 16Gb variant..

[Reactie gewijzigd door Noord27 op 23 juli 2024 09:45]

De 12Gb 4080 is nothing personal, just business. Smeerlapperij om je naar een 1500 euro kaart te duwen en om het overschot van de 30 serie kwijt te raken, niks meer niks minder.

After thought.

[Reactie gewijzigd door Odder thing op 23 juli 2024 09:45]

Hoe kan de 4080 een overschot van de 3000 serie zijn als het een ander architectuur is. Je hebt wel gelijk dat alles minder is behalve de clockspeed. Benieuwd hoeveel dat goedmaakt, ik gok niet genoeg.
ik denk dat @Odder thing bedoelt dat door de nieuwe generatie zo duur te maken, mensen mogelijk alsnog de oudere generatie kaarten kopen zonder dat deze heel erg in prijs hoeven te zakken. Meen dat dat ook een beetje de strekking van Nvidia was op een aandeelhouders meeting.
En toch gaat het niet werken, de markt word overspoeld door 3000 kaarten. De prijzen gaan omlaag, Nvidia mag nu, na enkele extreem vette jaren op de blaren zitten. De markt hersteld , gelukkig voor ons.
Dat was inderdaad mijn intensie. De 12Gb is er niet om verkocht te worden hij is er om consumenten te manipuleren om de veel duurdere 16Gb aan te schaffen of waar Nvidia het meest op hoopt is om voor de 30 series te gaan want ze hebben een overschot van deze kaarten.
Exact, dat is de uitmuntende marketing van Nvidia aan het werk.
100mhz gaat het verschil niet maken.
Ook nog een smallere memory bus!
De AMD kaarten zullen wellicht ook die prijstrend volgen.
Anoniem: 574346 @TV198420 september 2022 22:53
Veel mensen hebben de vorige generatie overgeslagen omdat ze niet verkrijgbaar waren. Dus veel mensen wachten op deze nieuwe generatie. En volgens de steam hardware data zitten nog mega veel mensen op 3 generaties terug (GTX 1000) serie. Ik zelf zit ook nog op de GTX 1080. Ik dacht ik sla een generatie over en koop de RTX 3080 maar dat is er dus nooit van gekomen.

Dus er is een mega grote groep op zoek naar nieuwe GPU's om eindelijk eens te upgraden na jaren. Plus het feit dat er in de tussentijd nieuwe consoles zijn uitgekomen. Dus PC gamers hebben wat in te halen.

Als AMD slim is gaan ze mega scherp in prijs. Want mensen die nu upgraden gaan waarschijnlijk voor een compleet nieuwe PC. Dus als je dan toch voor een AMD GPU gaat dan meteen die nieuwe ZEN 3 erbij.

Dit geintje van nvidia kan intel onverwachts ook wel eens pijn gaan doen deze generatie.
Ze waren een hele lange tijd gewoon goed verkrijgbaar, maar de prijzen waren nog steeds absurd hoog, terwijl alles beschikbaar was. Nvidia heeft zitten gambelen en hebben gelukkig verloren, mooi dat miners het niet meer interesseert.
Amd moet gewoon mid-high pakken, met een prijs tussen de 300-350.
Dat voor 60% produceren en de rest in low high segment.

Hebben ze zo marktaandeel terug
Lijkt mij idd te kloppen, ik was dat ook van plan,,,,,,
Als ze slim zijn hanteren ze een veel scherpere adviesprijs :)
Nvidia komt nu eerst, kan AMD op inspelen, en andersom natuurlijk ook weer ;)
Dat waren miners en de echte hardcore geld spender, maar niet de normale gamer. Er is niet voor niks een overstock ;)
Miners kochten juist na de introductie van de 3000 kaarten nog massaal nieuwe kaarten voor hoge prijzen. Dat kun je eenvoudig zien aan de sterk toenemde Ethereum-hashrate tijdens die periode. Op hetzelfde moment dat de hashrate stabiliseerde en miners dus ophielden met het kopen van kaarten, gingen de prijzen omlaag en de beschikbaarheid sterk omhoog.

Alles wijst er echt op dat er alleen voldoende kopers waren bij de hoge prijzen door de miners.
850 voor een 2080 in 2018 + 10% inflatie sindsdien + 10% euro dollar koers en je zit aan 1030 euro.
De 12GB versie is alleen een 4080 qua naam.
Qua prestaties ten opzichte vd 16GB versie vast ook wel.
Nee, hij gaat er echt ver onder zitten.
Jij denkt echt dat ze twee 4080's uitbrengen die qua prestaties gigantisch verschillen?
Ja, kijk maar naar t aantal proc units.

[Reactie gewijzigd door Santee op 23 juli 2024 09:45]

Ik gebruik altijd al NVIDIA videokaarten, maar als AMD een vergelijkbaar product uitbrengt voor een lagere prijs en verbruik ga ik dat halen, want 1099 wordt wel heel erg duur.

[Reactie gewijzigd door JustHuman op 23 juli 2024 09:45]

Zelf ook altijd Nvidia gehad, maar vond deze de vorige ronde al veel te duur geworden. Dus een 6900XT gekocht voor 980€ nieuw en eigenlijk best wel tevreden voor wat je krijgt. Ding kan zo goed als alles draaien op 4k met fatsoenlijke fps.
€1099 adviesprijs want Nvidia gaat zelf geen reference 4080 12GB uitbrengen. Dus valt nog maar te zien wat de board partners ervan gaan maken...
Hoe kom je daar bij? Kan op Nvidia's eigen site wel een notificatie krijgen zodra hij beschikbaar is namelijk, dat gaat toch gewoon om de "eigen" versie?

E: Nu lees ik het. Heel raar. Die 4080 is ook wel extreem duur zo (beide versies).

[Reactie gewijzigd door Thomas op 23 juli 2024 09:45]

7800 xt naar verwachting tussen de 7-900 dollar. In ieder geval een stuk schappelijke, maar nog steeds duur
Die prijzen.. dat verbruik..

Maar vooral, de marketing van Nvidia heeft z'n werk gedaan, ook T.net trapt er in.
De fabrikant claimt dat deze videokaart twee tot vier keer sneller is dan de huidige GeForce RTX 3090 Ti.

Lees eens goed wat er onder die afbeelding staat:
DLSS in superperformance mode.

Denk niveau autofabrikant die z'n range neerzet bij heuvel af, wind mee, 0 bagage, perfecte temperatuur.

Denk dat dit een zeer raar Q4 gaat worden, AMD in de mix, prijzen all over the place, energie-...soort-van crisis..

[Reactie gewijzigd door SinergyX op 23 juli 2024 09:45]

Amen, goed gespot. Nu snap ik ook waar ze die "2-4x" performance vandaan halen. Wel zorgelijk, ze geven een beetje het idee dat ze geen vertrouwen hebben in raw performance.

Denk toch echt dat dit relatief(!) vies mee zal vallen.
Ik denk toch dat we de reviews even af moeten wachten. Die nieuwe DLSS techniek die even wat extra frames tevoorschijn tovert kan maarzo zorg dragen voor 30% extra frames. Dan wordt het raw-performance plaatje toch echt een stuk anders.
Ik denk toch dat we de reviews even af moeten wachten. ...
Dat sowieso, als fabrikant heb je baat bij een rooskleurige voorstelling, dus net zo betrouwbaar als elke dag dronken zijn ;).
Ik ben zo blij dat ik niet zo fps/pixel hongerig ben. Ik speel Far Cry 6 op een RTX2070 op 4K en vind het beeld mooi en het aantal fps prima. De hele dure tijd heb ik gelaten voor wat het is en waarschijnlijk kijk ik straks naar een 30xx serie kaart. Beetje hetzelfde als met smartphones, een €500 smartphone is al echt netjes tegenover een €1000+ apparaat.
Zat ook naar die dlss 3.0 te kijken. Ik kan ook elke frame kopieren en dan roepen dat ik 2x de originele fps haal. Eens kijken wat het doet qua kwaliteit.
Als je native 4k beeldmateriaal hebt om mee te spelen, dan zijn er denk ik prima dingen te interpoleren. Zeker als er wat vectorinfo aanwezig is. Maar hoeveel kwaliteit houdt je over als je 4k materiaal op 1080p rendert, via DLSS2.0 upscaled naar 4k (waarbij je dus 3 pixels bijverzint voor elke pixel die aanwezig is). en dan nog eens 50% extra geinterpoleerde frames ertussen drukt.

Ik ben benieuwd wat je dan nog overhoud, of dat het dan meer gaat lijken op Onlive of 1 van de modernere varianten daarvan.
Wel zorgelijk, ze geven een beetje het idee dat ze geen vertrouwen hebben in raw performance.
Dit was al met de 3000 series. Waarin veel reviewers door Nvidia bevolen werd te focussen op raytracing en DLSS ipv rasterization performance.
Zoals toen bij HWunboxed: https://twitter.com/Hardw...tatus/1337246983682060289
Je vergeet het stukje hoe ze last-minute de 4070(ti) vernoemd hebben naar 4080 12GB...
Nou sterker nog de RTX4080 16GB is eigenlijk de RTX4070Ti als je naar de die-size kijkt. De RTX4080 12GB is eerder de RTX4060.
Waar heb jij, en vele anderen, het in vredesnaam over?
De 4080 is eigenlijk een 4070Ti, maar aan de andere kant ook een 4060!

Mijn moeder is eigenlijk ook mijn vader, en overdag m'n broer.
Heel simpel. De RTX4080 16GB (AD103) is een GPU met een die-size van slechts 380 mm². Dit is vergelijkbaar met de RTX3070Ti (GA104 392 mm²). Nvidia laat je high-end prijzen betalen voor een mid-range GPU. RTX4080 12GB (AD104) heeft die-size van slechts 300 mm² en is vergelijkbaar met de RTX3060 (GA106 276 mm²).

[Reactie gewijzigd door Buck Naked op 23 juli 2024 09:45]

En dat is relevant waarom? Zal mij een zorg zijn welke kaart een grotere die-size heeft.
Die kaart zal waarschijnlijk gewoon een keer zo snel zijn als m'n 3070.
Best significant dat die kaart nog geen € 200 kost om te maken. Voelt voor mij niet goed om zo’n enorme winstmarge te betalen aan zo’n inhalig bedrijf maarja ieder z’n ding. Zonder DLSS 3 zal de kaart overigens niet 2x zo snel zijn. Zag een filmpje van Digital Foundry met RTX4090 op 4k native in CP2077 en de framerate was ver van stabiel.
Dit kwartaal gaan we leren of consumenten ook gewoon de middelvinger kunnen opsteken naar arrogante hebberige Amerikaanse rotbedrijven wanneer die bedrijven de consument in hun gezicht uitlachen terwijl ze een rotslecht aanbod voorschotelen: Apple die de iPhone 13 herverpakt als de iPhone 14 (zelfde sensor, zelfde soc, maar een veel hogere prijs), nVidia die de 40 serie nog meer stroom verbruik dan de vorige al erg onzuinige generatie (met de huidige energieprijzen is dit verbruik absurd), en dan ook nog eens de 4080 gimpt (de 12 GB versie is gewoon een andere, minder krachtige GPU, hoezo krijgt die dezelfde naamt als de 4080 16GB? dit is misleiding ten top) maar alsnog de prijs gigantisch omhoog trekt (mining boom prijzen, zonder dat er een mining boom is).

Zelfs als de performance veel beter is: ik kan nu een tweedehands RX6800XT kopen voor onder de 700€, deze is even snel als de 3080 FE... gelooft ook maar iemand dat een 4080 16GB, met een dubbel zo hoge prijs, dubbel zo snel is als de 6800 XT of de 3080 FE?

Nee, objectief gezien is dit simpelweg een enorm slecht aanbod. Dit hoort een gigantische flop te worden.

Als dit goed verkoopt bewijzen vele klanten dat ze domme fanboys zijn die hun eigen portemonnee haten, en zal nVidia de volgende generatie de prijs gewoon verdubbelen.

[Reactie gewijzigd door kiang op 23 juli 2024 09:45]

Anoniem: 63072 @kiang21 september 2022 00:34
Voor circa 700 euro koop je op het moment zelf een nieuwe RX7800XT, dus tweedehand mag dan wel flink daaronder zitten, wil ik de gok nemen met de miner kaarten die de tweede hands markt overspoelen...
Anoniem: 63072 @kiang21 september 2022 20:10
Ik ga sowieso voor een 7900XT of een 3090.

Ik koop altijd top model en sla dan een generatie over, waardoor ik de prijs moet vergelijken met twee midrange kaarten. Waarvan de tweede dan de performance biedt die ik anders meteen heb.

Ik verwacht dat die allebei voor alles wat ik wil voldoet, dus veel zal van de prijs afhangen.
AuteurAverageNL Nieuwsredacteur @SinergyX20 september 2022 19:07
Ik had die cijfers eigenlijk vooral uit de presentatie en het bijbehorende persbericht, waar Nvidia o.a. claimt dat de 4090 '2x' sneller is in renderworkloads. Klonk een stuk algemener. Die extra afbeeldingen stonden op de website en zijn volgens mij vooral ter illustratie. Ik zal dat echter wat aanscherpen :)
Tja, in de stream hadden ze het over dubbele performance voor rasterization ten opzichte van een 3090. Dat is best een leuke boost, maar op dat punt het afwachten van RDNA3 zeker waard. RDNA2 wint in de meeste benchmarks al van nVidia en de geruchten hebben het over een verdubbeling bij RDNA3. Dan wordt het een prijs vergelijk.

Wat AMD bij raytracing gaat doen is wat minder gelekt, dus dat is afwachten.

Hoe dan ook stoor ik mij op mijn 2080Ti erg aan de artifacting van DLSS en speel ik alles in native resoluties. Als dat met RT niet snelgenoeg is dan speel ik zonder RT ipv dat ik DLSS aanzet.

Ik wacht dus sowieso 3rd party benchmarks af die zonder DLSS testen (en de beeldkwaliteit van DLSS 3.0 testen, het is niet alsof die geheel door AI tussengevoegde frames mij op het punt artifacten erg gerust stellen.
Heb je dat met DLSS stoort aan de artefacten met meerdere computer spellen? Want ik zet DLSS juist overal aan als het spel het ondersteund. Ik vind het echt een top optie. Ik heb het dan wel over DLSS 2.x spellen.

Ik heb wel een 2560x1440 monitor met originele G-sync dus misschien dat dat nog effect heeft.
F1, Metro en Control, niet zozeer in de snelle actie, dan valt het niet op, maar bij langzame beweging.

Het zou ook wat te maken kunnen hebben met het feit dat ik op een 32" monitor speel en het daardoor wat meer opvalt?
Control heb ik zelf ook daarin vind ik DLSS echt top.
Ik speelde het met Raytracing en DLSS aan. Weet niet meer of DLSS op quality of balanced stond. Ik vermoed balanced. Bij performance ga ik ook wel dingen zien.

Bij Metro Enhanced Edition had ik ook DLSS en Raytracing aan. Dit heb ik niet zoveel gespeeld. Ben denk ik gestopt omdat ik het toen erg druk had. Lag niet aan DLSS.

Mogelijk ligt het aan de grotere monitor. Mogelijk iets anders.
Rdna2 is alleen in een aantal games sneller vooral op lage resoluties. Op hogere is nvidia vaker sneller.
Inderdaad allemaal marketing bs. Ik ben er benieuwd wat de prestaties in de praktijk gaan zijn.

Overigens wel puur uit interesse want ik zie mezelf niet zo snel dergelijke bedragen op tafel leggen voor een videokaart.
Als de de relatieve performance pakt uit deze video van Digital Foundry: https://youtu.be/qyGWFI1cuZQ

Kun je aan de hand van die waardes uitrekenen dat DLSS3 voor ongeveer 50% meer performance zorgt dan DLSS2, en daarna dat een 4090 65% sneller is dan een 3090 Ti in een directe vergelijking met DLSS2 aan.
Hoezo marketing?
Als de theoretische performance x2 is, dan mogen ze dat zo melden.
Dat doet elke fabrikant ter wereld en daar is niets mis mee.

Zoals altijd: reviews afwachten en kijken. Onderhand weet toch iedereen dat theoretische performance x2 niet hetzelfde is als framerate x2.
Een auto met 200pk rijdt ook niet 2x zo snel dan een auto met 100pk (om het met een typische auto analogie uit te willen leggen).
Dat en waarschijnlijk DLSS 3.0 vs DLSS 2.0, gezien 3.0 alleen op 4000 kaarten komt en flinke verbetering meeneemt met frames. Dus beide op 60fps zetten, tja dan kom je wel met die claims.
Verbruik valt me 100% mee.. RTX 4080 16GB verbruikt precies hetzelfde als een RTX 3080, allebei 320W.. Qua verbruik niks veranderd dus, maar wel veel meer prestaties.. Prijzen zijn inderdaad wel belachelijk.. In de VS een stuk goedkoper, net als met de Apple iPhones.. Wat is er toch aan de hand hier in Europa dat we nu ook met elektronica keihard genaaid worden qua prijzen?!? Dat ligt echt niet alleen aan de hogere dollarkkoers t.o.v. de euro, daarvoor is het verschil veel te goot..
Tweakers.net trapt nergens in, ze reporten wat de producent heeft verteld. We weten allemaal dat we gewoon op de reviews moeten wachten en op basis daarvan een waarde oordeel kunnen maken. Zelfs met DLSS 3.0 in super performance mode, als de beeld kwaliteit goed is, dan maakt dat weinig uit. Echter moeten we dan wel gaan testen op beeldkwaliteit, iets dat we al heel lang niet meer gedaan hebben...

Ik hoorde dat LTT Labs wel een dergelijke test inelkaar aan het zetten is voor automation, ik ben benieuwd of een Tweakers.net daar ook mee bezig is... Ik verwacht dat de gasten van Digital Foundry ook wel kritisch gaan kijken naar kwaliteit vs. performance.

Als echter een RTX 4090 2-4 keer krachtiger is dan een RTX 3090 Ti, dan vraag ik me af waarom ik een RTX 4090 nodig heb... Als een RTX 4070 dan straks ook 2-4 keer zo krachtig is, is dat imho goed genoeg (voor velen). Want ik verwacht dat de 8k crowd erg klein is en de 4k crowd de 240Hz displays mist...
Het grappige is dat je met DLSS 3.0 in super performance mode misschien helemaal geen 40 serie meer nodig hebt om een fatsoenlijke framerate te halen. Extra euros neertellen voor frames die je niet gebruikt. Maar inderdaad eerst de reviews afwachten.
Alleen werkt DLSS 3.0 niet op de oudere kaarten.
Oef dat is sneu, en verklaart mede het grote verschil. Dat wordt vergelijken met onafhankelijke alternatieven, die ook alleen maar beter worden.

[Reactie gewijzigd door Blackice09 op 23 juli 2024 09:45]

Ik durf te wedden dat het een software/driver limitatie is en geen hardware limitatie. De prijs moet immers gerechtvaardigd worden :P
Die werkt echt wel op de 3000 series als het moet gaat allemaal om het geld.
De nieuwe processor heeft een feature die benodigd is voor 3.0, de zgn. Optical Flow Accelerator. Ik mag toch hopen dat ze versie 2 wel door blijven ontwikkelen zonder die feature.
Quote uit het artikel: "DLSS 3.0 werkt alleen op RTX 40-kaarten, en dus niet op gpu's uit voorgaande generaties."

Dus als DLSS 3.0 het wonderkind is, moeten we wel eerst hoe dan ook die 40 serie kopen
Digital foundry heeft al zoiets aangekondigd te gaan doen in deze video: https://youtu.be/qyGWFI1cuZQ
Tweakers neemt dat soort claims zelfs maar al te graag over, want ze weten zelf ook dondersgoed dat dat soort claims - hoeveel *'s ze er ook bij zetten - gewoon enorm veel clicks opleveren. En in dit geval doet nVidia hetal vo or ze, dus hoeven ze het alleen te herhalen. Niet hun schuld, maar ook gewoon bewust overgenomen uiteraard.
welke game?
of jouw. 3090 ti is stuk.
of iets klopt er niet met jouw systeem.

rolf op 4k moet jij denk bove de 60fps zitten.....bij mij weten is er geen enkele game die zulke hoge systeem eisen heeft!!
Inderdaad. Met mijn RTX 2080 Ti kom ik al over de 60 fps op 4k met bijvoorbeeld F1 22.

Ik zou kijken aan de kant van de processor, geheugen of Mobo.
Ik speel alle games op een gewone 3080 op allles ultra 60+ FPS.
Wat een prijzen, en wat een energieverbruik zeg. Ik hoop dat AMD hier volop misbruik van gaat maken, want dit lijkt me hun uitgelezen kans om écht op prijs te concurreren.

Misschien dat Nvidia ze expres te hoog prijst aan het begin om van het overschot aan 30-series af te raken?
Als je weet dat er zóveel vraag is dat je de eerste paar maanden toch wel je hele productie uitverkoopt, zou ik ze ook gewoon voor maximale prijs in de verkoop zetten.

Bij de 30-serie hebben de scalpers laten zien waar de echte prijs die mensen willen betalen zit. Nu doet nVidia dat wat slimmer en steken ze die winst in eigen zak.
Waar komt "zóveel vraag" dan vandaan volgens jou?

Of zeg je daarmee eigenlijk dat Nvidia 'de eerste maanden zó extreem weinig gaat produceren' (als in; precies genoeg voor de mensen die het tegen elke prijs, en onmiddellijk, gaan kopen), dat zie ik dan weer wel tot de mogelijkheden behoren... ;)
Dat gaan ze zeker doen. Pas geleden de topman van Nvidia uitgebreid horen "toegeven" in een interview hoe ze de markt bespelen. 30 serie er naast laten bestaan zo dat de 40 serie een goede deal lijkt. Die doen echt alles om de prijs zo hoog mogelijk te houden (wat natuurlijk geen misdrijf is).

En waarom zou je geen gebruik maken van die eerste groep fans/liefhebbers die alles betalen wat je vraagt. Daarna kan je de prijs altijd nog langzaam laten zakken.
Dat ging om aanbod van overschot afte knijpen zodat aanbot beter bij de vraag past en dus betere prijs punt zodat het aansluit bij de hoger dan de 3090ti presterende 40 lijn .
Nou heb ik je reactie meerdere keren gelezen, maar ik snap niet wat je aanvulling is :? Volgens mij heb ik enkel het overschot niet aangegeven (leek mij duidelijk).
Ze laten de prijs nooit zakken. dus dat gebeurd gewoon niet
Als de verkopen tegenvallen zakken de prijzen. Dat ze het de laatste generatie niet gedaan hebben (was niet nodig) zegt helemaal niets over de toekomst.

Heb een RTX 2080 in mijn pc voor €600 nieuw gekocht jaren geleden. Dus daar gaat je nooit.
Dat waren andere tijden. Toen cryptoprijzen nog richting de maan gingen. Met crypto op zijn gat zie ik de markt dit soort prijzen niet meer zo makkelijk accepteren.
Ik hoop dat AMD hier volop misbruik van gaat maken
Design keuzes zijn al jaren geleden gemaakt, productie inkoop zal zijn geweest in een periode van ongekende tekorten. Aan energieverbruik kunnen ze nu dus helemaal niets doen (tenzij die keuzes/resultaten al jaren geleden zijn gemaakt) en qua prijs zullen ze ook zeker aan handen en voeten gebonden zijn an de afgelopen paar jaar...

AMD had afgelopen jaar een winst van 19% van de omzet (wat hoog is) en Nvidia 33% (wat heel hoog is)... Beide hebben dus best wel wat buffer over, Nvidia heeft er voor gekozen om er nog meer voor te vragen (naast de slechte euro/dollar koers). Gezien dat AMD ook in de afgelopen jaren hun CPUs ook aardig in prijs hebben verhoogd, verwacht ik hier niet heel veel van...
AMD heeft echter wel een veel kleiner marktaandeel, dus mochten ze er deze generatie voor kiezen om iets minder (exorbitante) winst te maken, zouden ze wat marktaandeel kunnen bijgraaien.

Een snelle Google search lijkt me te vertellen dat de verdeling van de discrete GPU nu 20% / 80% in het voordeel van Nvidia, dus daar zouden ze bij AMD nog waarde in kunnen zien.

Maar goed, het blijft meer een wens dan een verwachting hoor, haha.
Het marktaandeel van AMD tov. Intel was ook relatief laag in 2020 en ook daar gooide AMD significant de prijzen omhoog (35%), zonder dat er een enorme verandering was in de dollar/euro koers.

Bron:
https://www.tomshardware....-q2-2022-cpu-market-share
Klopt, maar toen waren ze performance leader, en dat zijn ze (tot nu toe) nog niet in de discrete GPU-markt. Plus dat Nvidia iets meer unieke features heeft, wat bij CPU's niet echt een ding is (tot nu toe).

Maar verder ben ik het redelijk met je eens, ik heb alleen de hoop nog niet helemaal opgegeven ;) .
Dat kwam alleen voornamelijk omdat Intel fabricageproblemen had, en jarenlang vastzat op het 14nm procedé. Niet omdat AMD ineens zoveel verbeterde. Ik geloof er niet meer zo in dat AMD echt gaat concurreren. Ze zijn een veel kleiner bedrijf en geven minder uit aan R&D. Daardoor zullen ze altijd achterlopen zolang de concurrent het niet gigantisch verpest.
Maar wat is marktaandeel waard in GPU-land, naast prestige? Ik verwacht niet dat de meeste gebruikers erg merkvast zijn. Als ze de prijzen kunstmatig laag houden maken ze minder winst, en als ze de volgende generatie weer omhoog gaan dan gaan de nieuwe gebruikers gewoon weer terug naar Nvidia als die een betere deal heeft.

Applicaties die Nvidia-exclusief zijn (of vaker, sneller op Nvidia) zijn dat niet vanwege het marktaandeel, maar puur omdat hetzelfde niet mogelijk is op AMD hardware.

[Reactie gewijzigd door Wolfos op 23 juli 2024 09:45]

Dat is deels de reden waarom EVGA eruit is gestapt, als je hun mag geloven. Hoe anders wil je je prijs van de 4xxx verdedigen als je voor amper de helft van de prijs (als de prijsdaling had doorgezet) z'n voorganger kon krijgen?
EVGA gaf zelf aan dat ze pas de prijs op het allerlaatste moment te horen kregen, aangezien ze de beslissing al in juni hebben gemaakt, zal dat dus niet kloppen...
Waarom niet? Ze hebben schijnbaar vele jaren ervaring in de industrie en hebben goede contacten. Ondanks dat ze geen prijs doorkregen hebben ze alle kennis (hun ervaringen met nvidia, de kennis van de laatste jaren o.a. de verdwijnende marge, de wereldwijde economie) gecombineerd en een juiste voorspelling gemaakt.

Lijkt me niet dat ze gelogen hebben.
Omdat EVGA weet dat deze gen door de vele layer en vrm een duurdere kaart om te produceren word zo ook de BOM en dat kosten van gpu
Mem zeer strak staat tov maximale performance limiet en prijs range.
Dat het niet duidelijk is of de marge -5% of 10% gaat vallen. Om daar in juni je aankoop orders op te baseren is niet gezond voor bedrijfs continuiteit. Vooral miljoenen inkopen heb gedaan en je dan op margere 2% marge uitkomt.
Wacht, heb ik iets gemist?
4090 Adviesprijs 1599 dollar, maar nu lees ik 1950+ euro? Tering!
Btw plus zwakke euro.
maar zou de euro herstellen, zullen de adviesprijzen dan ook weer worden teruggebracht? :X
Met het beleid van de ECB hoef je daar voorlopig niet op te rekenen. Nvidia doet dat in elk geval niet.
Langzaamaan, ja. Maar er zal dan al heel wat in het retail, groothandel, distributie kanaal zitten wat is verkocht/gekocht tegen de relatief hoge dollar/euro koers. De verwachting is echter dat de slechte dollar/euro koers alleen maar slechter gaat worden de komende jaren...
Het is allemaal nep, de euro is helemaal niet zwak, de EU produceert veel meer dan de Verenigde Staten dus de euro is vele malen sterker dan de dollar. Rijke beleggers hebben deze koers bepaald maar het zal niet lang vasthouden
1599$ dollar zonder belasting, en de euro is veel minder waard geworden. Zeg maar dag tegen de high-end gpu's zo.
Ja sorry, Nvidia verbindt z'n prijzen in Europa aan de gasprijs. /s
1600 + 20% belastingen (zowat de standaard in west europa) is 1920.
Ze hebben het naar boven afgerond, boeie.

Een 4090 is ruwweg 2x 4080 12GB, ik ben benieuwd hoe ze zich verhouden irl.
Ja dat vond ik ook wel een vreemde.
Mijn god zeg, wat een prijzen en wattages. Kan iemand mij uitleggen of dit ooit nog gaat normaliseren technisch gezien? Lees: gaan we ooit nog proberen te innoveren door meer rekenkracht uit een GPU te halen zonder er alleen maar meer vermogen (geld en energie :+) tegenaan te gooien? Of is de nieuwe missie van Nvidia om duurzaamheid in de studeerkamer/game kamer te promoten door geen reguliere verwarming meer nodig te hebben. Ik vind het iig allemaal niet normaal en geniet nog ff van mn betaalbare Xbox Series X. (Die overigens ook riant warm wordt, maar hij is tenminste betaalbaar!)
Mensen/tweakers zien dit te extreem en beoordelen het op de highend modellen. Gaan we ook de technologie van de doorsnee auto beoordelen op het verbruik van een F1 raceauto?

Kijk eens hoeveel verbetering de integrated graphics heeft behaald. Kijk specifiek naar een Steam Deck, die ergens op de 9W kan draaien (inc. display) en prima presteert naast een 15 jaar oude Geforce 8800 GTX die samen met de rest van het systeem 200W+ trok (zonder display), in 15 jaar ruim een factor 20x minder verbruik, in een veel kleinere formfactor en portable.

Imho is het issue niet zo zeer de kosten (voor mij), maar de combinatie van het hele verhaal. Beschikbaarheid tijdens de pandemie, prijzen, handelswijze, verbruik, verbruikskosten, warmte, etc. Na deze informatie, zie ik niet dat ik dit jaar een nieuwe computer ga aanschaffen. Ik heb nu al 8 jaar gedaan met een GTX970 en zit nu te overwegen om een Steam Deck met een Playstation stream abo. Daarnaast heb ik twee kleine, zuinige, meer zeer krachtige PCtjes die momenteel een hele hoop kunnen doen, maar qua 3D zeker niet zo krachtig zijn als mijn GTX970. Ik wil in de toekomst meer gaan doen met 3D design, maar ik zie tegen die tijd dan wel wat er beschikbaar is...
Ik game nog steeds met een GTX 970 gaat prima 👍🏻
Gaan we ook de technologie van de doorsnee auto beoordelen op het verbruik van een F1 raceauto?
Yup dat doen we wel...weet je waarom? zoals jouw voorbeeld....betere motor minder brandstof verbruik en toch sneller raar he?

Dus eigenlijk zou de video kaart minder tpd moeten hebben of niet?
De power consumptie is veel te hoog.
Tuurlijk hebben we hier ook mensen die zeggen....undervolten en toch Nvid blijven promoten...waanzin
Vergelijk het dan met andere high-end modellen. De GTX 980 was ook high-end en had een adviesprijs van €550 toendertijd. In drie generaties is de prijs bijna verdrievoudigt.
Mensen die vroeger het beste van het beste konden betalen moeten het nu doen met entry-level kaarten. Mensen die vroeger entry-level GPU's kochten vluchten nu gedwongen naar consoles.
Want als een 4080 al meer dan €1000 kost, wat kost een 4060 dan straks?
Een MSI GeForce GTX 980 GAMING 4G koste bij introductie €600. Inflatie is bijna 20% geweest in die 8 jaar, dollar vs euro is bijna 30% slechter (wat samen zorgt voor een ruim 50% hogere prijs). Verbruik van een 4080 vs een 980 is bijna verdubbeld. We hebben nog geen performance review van een 4080, maar een 3080 doet het al bijna 4x beter dan een 980 qua fps. Dat is dan nog zonder technieken als DLSS. Als je DLSS 3.0 met de verwachte performance van een 4080 bekijkt is dat een enorm verschil met een 980.

Wat Nvidia en AMD zijn gaan doen is steeds de highend oprekken. Waar je vroeger een 8800GTS kocht is een 4070 niet een vergelijkend model. Niet in stroomverbruik en niet in prijs. Sure het heeft een vergelijkbare positie qua relatieve prestaties in het huidige aanbod. Maar dat is alleen als je puur daar naar kijkt. Als je vroeger de een na duurste wc borstel kocht (van plastic) maar dat de nu een na duurste wc borstel van goud wordt gemaakt (duurste is van platina), ga je je dan blindstaren op het feit dat het de een na duurste wc borstel is?

Is het realistisch om te verwachten dat je nu al je 4k Ultra gaming op 60fps+ doet voor de prijs van een 980 gecorrigeerd voor inflatie en koers fluctuaties?

De low end kaarten van vroeger zijn ondertussen al vervangen door integrated graphics. Als je in de toekomst een 4050 koopt zal dat significant beter zijn dan de laagste kaart van 8+ jaar geleden.

Mijn conclusie is, dat men de naamgeving over de jaren heeft opgeschoven.
Maar de instapkaarten zijn ook veel duurder geworden. Een RTX 3050 zou nu €285 moeten kosten (en dat was vóór de inflatie van dit jaar). De goedkoopste kaart is nu de 6500XT van €200, en die gaat het echt moeilijk krijgen nu de systeemeisen van games omhoog gaan.
PC gaming is gewoon een stuk duurder geworden dan dat het een generatie geleden was.
Vroeger was de goedkoopste kaart een Geforce 8500GT, de genoemde 3050 heeft echter 52x de performance van een 8500GT. Een PNY GeForce 8500GT 512MB was 15 jaar geleden $150 bij introductie, 15 jaar inflatie en koerscorrectie zit je op €260.

Het verschil tussen een Geforce 8800 Ultra (snelste kaart) en een 3090 Ti is slechts 27x de performance (zie het verschil met de 8500GT). Een Gainward GeForce 8800 Ultra 768MB was bij introductie €700, met inflatie is dat €1000, met de koersfluctuatie daarbij is dat ~€1430. De goedkoopste 3090 Ti is nu €1250...

PC gaming is een stuk duurder geworden, alleen maar als je het duurste wil hebben. Je kan tegenwoordig prima PC gamen op niet de duurste kaarten, we zijn een bepaalde drempel voorbij, net zoals we dat al een tijd zijn met CPUs en smartphones, je hoeft al jaren niet meer elk jaar te upgraden...
Tja. Een F1-raceauto is geen consumentenproduct. Deze kaarten zijn dat in theorie wel.

Ik vind het niet OK dat het maximale verbruik zo omhoog schiet. Ook al lijkt het me best plausibel dat deze kaarten, als je ze gelijk laat presteren met hun voorgangers, wat efficienter zijn. Het hele punt is dat ze op die manier natuurlijk niet gebruikt worden, en naar ik verwacht uiteindelijk gewoon meer verbruiken gedurende hun levensduur.

Maar ja, wat doe je eraan? Dat deze apparaten zoveel kunnen verstoken (maar eigenlijk nooit zouden hoeven) heeft puur met een zekere cijfergeilheid te maken. Hogere prestaties verkopen beter zelfs al is de prestatie zelf niet relevant.

Om ook in de autovergelijkingen af te sluiten, moeten we dan maar een 'snelheidslimiet' op het verbruik afdwingen? Ik geloof er niets van dat deze ontwikkeling vanuit 'de markt' vanzelf gaat veranderen.
Klopt, dit is in de kaart van consoles spelen. Ik hoop dat AMD wat normaliteit brengt voor pc gamers.
Als dat zo is, dan neemt de vraag af, waardoor de prijzen misschien terug wat naar beneden kunnen. Marktwerking, niet? Ik zie dat opzich niet als iets slecht. Zeker niet met crossplatform multiplayer mogelijkheden van de dag van vandaag.

Ik nam vroeger om de of om de 2 generaties een high end kaart af. De 1080ti is wel de laatste geweest. En ik denk niet dat ik ooit nog high end kaarten nodig ga hebben met de performance de dag van vandaag. Ik speel nu gewoon op een razer blade. Dat kostte me evenveel als een grafische kaart an sich. En performance zat.

Mijn vraag naar high end gpus is naar aanleiding van deze belachelijke prijzen weggevallen. En ik neem aan dat ik hier niet alleen ben, zeker niet na het lezen van al deze reacties.

[Reactie gewijzigd door BlaDeKke op 23 juli 2024 09:45]

In principe zijn de wattages nog niet zo gek, as de 4090 daadwerkelijk 2x zo snel is als een 3090ti (ik denk eerder een 3090) dan is 450w nog steeds een gigantische efficiëntieslag.

Het echte probleem zit hem in de prijzen, dat de 3090 geprijsd is als een titan vind ik niet verbazingwekkend. Maar de prijzen voor de 4080 en de verkapte 4070 zijn absoluut belachelijk. Lekker links laten liggen die kaarten.
In een kleine kamer kan je er idd best wat verwarmingsvoordeel voor uit halen. Ik weet nog dat ik een kleine slaapkamer had zonder verwarming en als ik dan mijn Xbox aan liet staan op een demo ofzo (dus druk aan het rekenen) werd het echt 2 graden warmer in de winter.

Aangezien je toch moet gaan verwarmen zou dat het minen wellicht weer wat aantrekkelijker maken.

[Reactie gewijzigd door GekkePrutser op 23 juli 2024 09:45]

Ik heb altijd een high end desktop gehad op de slaapkamer, laatste was een 3900x met RX 6800 XT, maar gebruik nu een laptop met 5800H en 3060 mobile en moet zeggen dat het verschil in temperatuur ongelooflijk is. Ik game nog wel maar gebruik de laptop vooral in silent mode (25W cpu en 80W gpu) en dat is genoeg voor wat ik erop doe. Nu ben ik moeten overschakelen naar een elektrisch kacheltje om wat bij te verwarmen maar voordeel in de zomer is ook groot, geen sauna meer :)
Waarom zie ik op andere sites prijzen in dollars die veel lager zijn? $899 voor de 4080 bijvoorbeeld.

Zie ook https://videocardz.com/ne...october-12th-for-1599-usd

[Reactie gewijzigd door J_Koedijk op 23 juli 2024 09:45]

Niet heel sterke euro en Amerikaanse prijzen zijn zonder BTW.
Goed punt die btw.... Dollars zouden ongeveer gelijk zijn aan euro's dus dat maakt niet het verschil. Maar ik vergeet steeds dat zij zonder btw adverteren. Jammer.
Ja, vroeger gingen we ook uit van €=$, maar toen stond de euro ook duidelijk sterker dan de dollar. Dat verschil was ongeveer gelijk aan BTW, waardoor het elkaar ophief. We zijn daardoor ook wel gewend om BTW te negeren.
In dollars is de 4070 4080 12 gb 899 dollar maar in europa komt er 21% meer bij door BTW en aangezien de euro is ingestort en nu net zoveel waard is als de dollar.
Is het mogelijk om op basis van de getoonde informatie te bepalen of pci-e 4.0 een bottleneck is voor de rtx 3090? (qua bandbreedte en stroom)
PCI-e 3 was geen bottleneck voor de huidige generatie. Als we Nvidia op hun woord moeten geloven dan is deze kaart 2x zo snel (of dat met verschillende DLSS versies wordt vergeleken is onduidelijk). In dat geval zou PCI-e 4 geen probleem moeten zijn.
De "2x" claims zijn gebaseerd op DLSS 3, wat onafhankelijk is van de PCIe bus. Goede kans dat deze ook nog werkt op PCIe 3; PCIe 4 is zeker meer dan voldoende.
PCIe 5 levert niet meer stroom dan 3 of 4, dus dat maakt niet uit.

Bij de 3090 was het verschil tussen PCIe 3 en 4 meestal niet te onderscheiden van de foutmarge, dus ik verwacht voor de 4090 ook niet dat dit echt uitmaakt

Op dit item kan niet meer gereageerd worden.