Eerste Nvidia GeForce RTX 4080-videokaarten verschijnen bij webwinkels

Verschillende GeForce RTX 4080-modellen zijn verschenen bij webwinkels in de Verenigde Staten en het Verenigd Koninkrijk, inclusief prijzen. Modellen van Palit en PNY kosten omgerekend zo'n 1690 en 1460 euro. De videokaart verschijnt officieel op 16 november.

Een grote Amerikaanse webwinkel toont een PNY XLR8 Gaming Verto-model van de GeForce RTX 4080, schrijft ook Tom's Hardware. De videokaart wordt daar vermeld tegen een prijs van 1200 dollar. Dat komt overeen met de Amerikaanse adviesprijzen die Nvidia noemt voor zijn eigen Founders Edition. Omgerekend en met btw zou de videokaart hiermee 1460 euro kosten. Dit model heeft een boostclock van 2505MHz, net als de Founders Edition. Newegg vermeldt ook een OC-variant van de XLR8 Gaming Verto met een boostclock van 2555MHz, 50Mhz sneller dan de gewone variant. De webwinkel noemt geen prijs van het OC-model.

Tegelijkertijd heeft een Britse webwinkel een aantal GeForce RTX 4080-modellen van Palit gepubliceerd, merkte techwebsite VideoCardz op. Deze videokaarten zijn duurder dan de PNY-variant bij de Amerikaanse webwinkel. Het goedkoopste model, de GeForce RTX 4080 OmniBlack, kost 1449,97 Britse pond, wat omgerekend neerkomt op 1690 euro. De webwinkel toont ook een RTX 4080 GameRock en GameRock OC voor respectievelijk 1499,97 en 1529,97 pond. Omgerekend is dat 1749 en 1784 euro.

Nvidia kondigde zijn eerste RTX 40-videokaarten eind september aan. Het bedrijf zou aanvankelijk met twee RTX 4080-videokaarten komen, die werden aangeduid als de 'RTX 4080 12GB' en 'RTX 4080 16GB'. Deze kaarten verschilden, naast de hoeveelheid geheugen, ook in het aantal CUDA-cores. Later schrapte Nvidia de release van de 12GB-variant. De RTX 4080 16GB verschijnt op 16 november. De Founders Edition krijgt een adviesprijs van 1460 euro. Eerder verschenen al afbeeldingen van RTX 4080-gpu's van Gigabyte en MSI, hoewel daarbij geen prijzen werden vermeld.

Nvidia GeForce RTX 4080 bij webwinkelsNvidia GeForce RTX 4080 bij webwinkels

Door Daan van Monsjou

Nieuwsredacteur

31-10-2022 • 07:44

227

Submitter: Vurenvos

Lees meer

Reacties (227)

227
226
91
7
0
117

Sorteer op:

Weergave:

GeForce RTX 4080
Mehr als schnell

Die NVIDIA® GeForce RTX™ 4080 bietet die Ultraleistung und die Funktionen, die begeisterte Gamer und Ersteller erwarten. Erwecke deine Spiele und kreativen Projekte mit Raytracing und KI-gestützter Grafik zum Leben. Dies wird durch die ultraeffiziente NVIDIA Ada Lovelace-Architektur und 16 GB superschnellen G6X-Speicher unterstützt.
Ab 1.469 €

Verfügbar ab 16.11.

https://www.nvidia.com/de...cards/40-series/rtx-4080/

Belachelijke prijs natuurlijk, zeker vergeleken met de RTX3080 die ik kocht voor E 759,-
Ik ben blij dat ik niet ging twijfelen toen ik mijn pc ging samenstellen afgelopen september.

Dacht eerst, ik wacht tot november voor de RTX 4080 serie..
Maar heb toch voor de RTX 3080 Rog Strix Evangelion 12gb voor 980,- gekozen. ( wat ik een super prijs vond )
De prijzen die nu bekend zijn gemaakt voor de ( nog niet eens ASUS modellen ) zijn echt belachelijk !

En blij toe !!!
Echt om te huilen die prijzen! Ze zijn diep gezonken zeg.
€1500,- MSRP voor een xx80 kaart... Ik heb twee jaar geleden nog een 2080 gekocht voor 650€. Deze prijzen voor de GPU's kunnen toch niet lang zo hoog meer blijven?
Ik zou er niet van uit gaan dat ze significant lager gaan worden...

Buiten enige fluctuaties en de huidige marktsituatie om is de langetermijnrichting van inflatie alleen maar omhoog.
Dit heeft niks met inflatie te maken (of althans, nauwelijks). De xx80 kaarten zijn 2.3 keer duurder geworden in twee jaar tijd, dat zou een inflatie van 230% betekenen in twee jaar tijd, en zelfs met de extreme getallen die ons de laatste tijd om de oren vliegen kan ik me nauwelijks voorstellen dat het totale inflatiecijfer boven de 20% uit zal komen. Dit is ook een gevalletje chiptekorten, miners, en vooral graaien van nVidia
Chip tekorten zijn er niet. Ze kunnen niet eens de 3000 chips verkopen.
Miners zijn er ook niet meer op dit moment. Want het mag niet in China en de stroom is te duur.
Wat blijft over? Graaien van Nvidia.
Is dit niet gewoon een logisch vervolg op weinig concurrentie op een relatief saaie markt? AMD doet goed zijn best, maar op de een of andere manier blijven we vaak voor nvidia gaan. Als ik zie hoevaak de 3080 nog in de desktop advies naar voren komt dan kan ik concluderen dat nvidia er best goed voor staat.

2 kaarten verkopen voor 1500 euro is voor nvidia vaak beter dan 4 kaarten verkopen voor 800 euro.

Ik denk dat het weinig te maken heeft met graaien, maar meer om de keuze die nvidia kan maken op dit moment. We zullen zien of dit een goede keuze is geweest. Ik krijg vaak het idee dat de echte gamers, die bereid zijn deze videokaarten te kopen, meer uitgeeft dan hun lief is. Niet elke gamer is een tweaker die 1x per jaar een nieuwe videokaart koopt.

Daarnaast komt er ook nog een gevoel bij. de 3080 is een 2 jaar oude kaart en de 4080 is gewoon een nieuwe kaart.

Niemand kan in een bol kijken, maar ik denk dat nvidia helemaal niet slecht gaat scoren met deze prijs. Dat ik graag de prijs door de helft zie ben ik het met je eens.
Gebrek aan concurrentie is wel een probleem. AMD kan op pure rasterization prima de concurrentie aan, daar zijn ze wellicht het snelste. Maar zodra raytracing om de hoek komt kijken is AMD nergens. DLSS is ook superieur aan AMD's FSR. Dus ik zie ook geen reden om niet voor een Nvidia kaart te gaan.
DLSS is in mijn ervaring helemaal niet superieur aan FSR2.0. Dat blijven mensen wel roepen, maar het is onzin.
https://www.techspot.com/...-fsr-2-vs-dlss-benchmark/
nieuws: Eerste onafhankelijke AMD FSR 2.0-vergelijking met Nvidia DLSS versch...
https://www.techpowerup.com/review/amd-fidelity-fx-fsr-20/

FSR2.0 is gewoon temporal, net als modern DLSS

Voordeel aan FSR2.0 is dat het met bijna alle GPU's werkt, in tegenstelling tot Nvidia die het op de tensor cores laat draaien en daardoor alle GPU's behalve RTX kaarten buitensluit en ondertussen helemaal niet geweldig veel meerwaarde biedt tov FSR2.0.

[Reactie gewijzigd door youridv1 op 26 juli 2024 22:33]

Hier is bijv. een vrij recente vergelijking van XeSS op arc, DLSS 2.4, en FSR 2.1: https://www.youtube.com/watch?v=Gb53nUHV48I - de kwaliteit van FSR is meestal duidelijk lager dan die van DLSS, en vaak ook dan die van XeSS (de XMX versie op intel, niet de slechte dp4a fallback).

Dat FSR nog zo goed mee kan dingen met zo veel minder rekenkracht erachter - die matrix-operaties van intel XMX of nvidia's tensor cores kunnen echt veel meer flops berekenen. 1.32 Tensor petaflops op de vs. 82.6 vector tflops 4090.

Alle respect aan FSR, en net als iedereen hier heb ik baat bij serieuze concurrentie op dit vlak... maar DLSS is echt nog beter. Misschien kun je het argument maken dat de verschillen niet veel impact hebben, maar ja, je zou ook kunnen beargumenteren dat DLSS meer marge heeft en dus een lagere setting kan gebruiken wat weer perf oplevert. Als we mazzel hebben komen de verhoogde matrix-ops van RDNA3 goed tot hun recht in een toekomstige FSR 2.x (even los van de beloofde frame-generation van volgend jaar).

Het blijft een lastig iets om te vergelijken, maar identiek zijn ze niet.
DLSS is niet beter dan FSR. Je gelooft in de marketingpraatjes van nVidia
https://www.techpowerup.c...-xess-vs-dlss-vs-fsr-2-0/

Het verschil is inderdaad marginaal in het voordeel van Nvidia..

In Dying Light 2 wint AMD met iets ruimere marges.
https://www.techpowerup.c...2-dlss-vs-fsr-comparison/
In termen van frame-time bedoel je? Want kwalitatief vind ik in die dying light vergelijkingsscreenshots van zelfs DLSS performance denk ik iets mooier dan FSR quality; kleine details lijken beter weergegeven.
Er is natuurlijk wel degelijk een verschil tussen dlss 3 met frame insertion en FSR 2.
Die frame generation schijnt qua kwaliteit redelijk tegen te vallen. Zie deze video
Ik hoop dat amd deze generatie het wat beter doet op het gebied van ray tracing. Ik denk er aan om een 4080 te kopen maar ik zou graag keuze hebben.
Zou mooi zijn inderdaad! Ook het beste voor de consument.
AMD heeft nul interesse in een prijzenoorlog te beginnen. Want natuurlijk, Nvidia heeft grote winstmarge erop. Komt AMD straks met een 4080 equivalent voor €1350, dan vindt Nvidia het wel prima: Ja op puur prijs/performance wint AMD het, Nvidia heeft ook zo zijn voordelen, en die klagen niet. Maakt AMD diezelfde kaart €1000, dan zal Nvidia met hun prijzen naar een ~€1100 gaan. Resultaat voor AMD? Lagere winstmarges zonder meer te verkopen.

Vorig jaar had Nvidia $10MLD winst, AMD $3MLD. Nvidia kan een prijzenoorlog veel langer volhouden dan AMD. En gezien Nvidia marktleider is, gaan die hem al helemaal niet beginnen.

Dus wanneer zou het wel veranderen? Als mensen massaal de wat goedkopere AMD alternatieven gingen kopen. Maar goed, puur voor mezelf gesproken: Afgelopen 15+ jaar heb ik altijd gewoon beste prijs/performance gekocht. Dat was dus vaak, maar niet altijd, AMD/ATI. Tot ik op de 5700XT uit kwam. De puinhoop die ze daar drivers noemde zorgde ervoor dat Nvidia mijn enige optie voor de kaart daarna werd.
Als AMD de prijs lager maakt zullen ze wel meer verkopen.
Behalve dus als Nvidia reageert dan door ook de prijzen lager te maken. En dat is idealiter hoe concurrentie werkt, maar met zo'n duopolie is het al snel interessant voor AMD om de prijzen niet teveel goedkoper te maken. Tenzij ze echt denken een prijzenoorlog van Nvidia te kunnen winnen doordat hun producten veel goedkoper zijn om te produceren, maar dat moet ik nog maar zien.
RDNA3 gaat wel op chiplets gebaseerd zijn, dus dat kan best de kosten flink wat omlaag drukken. RDNA2 lijkt me ook relatief goedkoop om te maken t.o.v. Ampere gezien de smallere geheugenbus en het gebruik van GDDR6 in plaats van GDDR6X. Ik geloof dat RDNA3 ook nog steeds GDDR6 gebruikt. Verder zitten de cache complexes op een goedkoper proces geloof ik.
Nee want Nvidia reageert hier gewoon op met ook een verlaging.
Jawel want AMD spreekt het budget bewuste segment aan. Dus in dat segment zullen ze meer verkopen. Er zullen meer mensen GPUs kopen bij zowel AMD als NVIDIA.
De drivers zijn nummer 1 probleem waarom ik niet voor de inmiddels goedkopere 6800(XT) ben gegaan. Ik zag ook dat AMD VSR heel weinig opties biedt tegenover nVidia DSR en dat is voor mij écht de feature to go voor mij. Ik vind het echt heel jammer maar het is wat het is en zal mijn 1080Ti blijven gebruiken tot het stukgaat.
Dat is het probleem bij AMD... leuke hardware. Slechte software. Geen wonder dat elke AI setup nog voor Nvidia kiest. Of dat als men performance wil in de wetenschappelijke wereld liever kiest voor intel in plaats van AMD voor de CPU. Omdat intel en Nvdia wel hun software op orde hebben en dus betere performance krijgen in de echte praktische applicaties. Niet in die benchmarks die niks met de echte wereld te maken hebben waarbij bijvoorbeeld AVX512 gebruikt wordt voor geoptimaliseerde en snelle berekeningen.
Komt AMD straks met een 4080 equivalent voor €1350, dan vindt Nvidia het wel prima: Ja op puur prijs/performance wint AMD het, Nvidia heeft ook zo zijn voordelen, en die klagen niet. Maakt AMD diezelfde kaart €1000, dan zal Nvidia met hun prijzen naar een ~€1100 gaan. Resultaat voor AMD? Lagere winstmarges zonder meer te verkopen.
Dat heet prijsafspraken maken en dat is verboden. Gelukkig kan je bij AMD wel stellen dat ze lager gaan zitten met hun prijs omdat ze ook gewoon concurrentie moeten drijven.
Kunnen de autoriteiten wel vaststellen dat er daadwerkelijk sprake is van prijsafspraken? En hoe kunnen ze dat dan vaststellen? Want ze kunnen ook zeggen 'oh we hebben niks gevonden dus prima zo' als ze zeggen dat er geen prijsafspraken zijn gevonden.
Ja dat kunnen ze en dat is ook vaak gedaan in het verleden, zie bv. de bouwfraude.
Kijken wat de concurrentie doet en je prijzen daarop aanpassen is niet het zelfde als prijsafspraken maken.
het scenario bij een 'te' goedkope kaart is dus helemaal niet zo gek en negatief voor beide bedrijven.

Dus.. blijven de kaarten voor een bizar hoge prijs aangeboden worden.
Nee, dit is klassieke Adam Smith kapitalisme, en is al eeuwenlang toegestaan. Vergelijkbare producten hebben vergelijkbare prijzen, concurrenten mogen op elkaar reageren.

Prijsafspraken zijn een vorm van prijsstelling buiten de markt om, MSRP's en dergelijke zijn expliciet prijsvorming op de markt.
Kaart kost niet veel om te maken.
Is idd rest r&d kosteb dat gedekt moeten worden.
Wil je dat na 10 kaarten al terug hebben of na 100. Dat is dan de vraag.

Amd heeft vaker kaart met zelfde performance verkocht sie vele malrn goedkoper waren.
Als ik tussen amd of nvidia moet kiezen is vaak het laatste.
Rede van die keer dat ik amd had. Was puur ivm voor hetzelfde geld veel meer kreeg.
Deze kaarten kosten wel behoorlijk veel om te maken. De nVidia-topchips hebben meestal iets van 600 mm^2 chipoppervlakte op de modernste processen, en het snelste geheugen.
Drivers. En de uitgebreidere featureset.

Er is zovaak vanuit AMD beloofd dat de drivers nu goed moeten zijn, maar dit toch niet zo bleek te zijn. Mensen zijn ermee opgehouden om dat te geloven, denk ik. Zo'n zure periode van 7 jaar terug kan nog erg lang nawerken.. want zolang geleden is het dat ik een AMD kaart dagelijks gebruikte. Daarvoor enkel maar AMD gehad.

Tevens zijn er veel applicaties die eerst NVIDIA en dan misschien nog AMD supporten. Of dat met financiele steun van NVIDIA gebeurd weet ik niet. Maar je ziet vaak dat applicaties eerst NVENC, CUDA, maar ook DLSS enz. supporten voordat ze een bredere API zoals OpenCL inzetten.

Nu heb ik de laatste 4 generaties geen ervaring meer met AMD videokaarten. Al zou ik in de markt zijn voor een upgrade, zou ik nu zeker wel interesse hebben. Echter wederom op voorwaarde: ik heb liever een kaart die 20% trager is en zorgeloos blijft werken, dan 1 die bang/buck (op papier) goed is, maar met enige regelmaat gezeik heeft met crashes oid.
Ik heb nu voor het eerst een AMD GPU en heb eigenlijk geen issues met de drivers gehad. In tegendeel lopen mijn NVIDIA maten nu te rommelen met drivers voor Modern Warfare 2...

FSR doet het in mijn ervaring ook prima. Ook gewoon top dat het voor alle kaarten beschibaar is. Toen ik voorheen met mijn 1080 speelde was ik vanwege het tensor verhaal ook aangewezen op FSR.
6000 serie is prima met drivers.

5000 was wel weer een regelrechte ramp zoals alleen AMD het kan met drivers.

Laten we hopen dat ze het op de 7000 ook voor elkaar hebben.
I'm on the same boat. Hoe goedkoop die krachtige GPU ook is, je hebt er geen ruk aan als de drivers zo slecht zijn. Want slechte drivers betekent veel stress, koppijn en steeds naar workarounds zoeken.
Persoonlijk denk ik niet dat dit door weinig concurrentie komt. Ik denk dat het komt door de hoge prijzen tijdens de corona pandemie.

Ze hebben gezien dat een grote groep gewoon bereid is 1500+ uit te geven aan een videokaart. Zowel alle kaarten die op dat moment bij de webwinkels te koop kwamen als op de tweedehands markt waren zomaar weg.

Concurrentie is er immers voldoende gezien naar gaming: Mobile gaming, Consoles, AMD. Maar blijkbaar is men bereid om 1500+ euro uit te geven aan de nieuwste GPU's om te gaming in plaats van bijvoorbeeld één console met 20 games.

nvidia heeft met de cijfers van de vorige generatie natuurlijk wel te maken gehad met een mining markt. Het kan dus zomaar zijn dat ze deze generatie maar moeilijk verkocht krijgen, en daarop prijsaanpassingen maken.
Maar tijdens corona konden mensen geen kant op met hun geld. Nu wel.. En bovendien hebben veel mensen het nu veel krapper. Ben heel benieuwd hoe de verkoopcijfers zullen zijn uiteindelijk. Je hebt altijd een eerste FOMO golf van enthusiasts en early adopters. Maar daarna?

Wat ook opvalt is dat we flink voor die zwakke euro lijken te betalen. Dat was ook anders 2 jaar geleden.

[Reactie gewijzigd door DavidZnay op 26 juli 2024 22:33]

Klopt hoor, ik vraag me alleen af of nvidia dat ook zo ziet. Inspelen op een recessie is nou niet vaak het sterkste punt van tech bedrijven.
Ben heel benieuwd hoe de verkoopcijfers zullen zijn uiteindelijk. Je hebt altijd een eerste FOMO golf van enthusiasts en early adopters. Maar daarna?
Ik ook, heel benieuwd. Sowieso biedt de 4090 amper meerwaarde voor 1440P omdat een 3090 ook alles op ultra . Een goed 4k 144hz scherm kost toch al snel 1000 euro. Wordt snel een dure setup als je al 3500 euro kwijt bent aan scherm en GPU.
Wat ook opvalt is dat we flink voor die zwakke euro lijken te betalen. Dat was ook anders 2 jaar geleden.
Is het een zwakke euro, of een erg sterke dollar ;) :

https://capital.com/usd-forecast

Volgens mij moet al het geprinte geld daar nog even landen.
Maar tijdens corona konden mensen geen kant op met hun geld. Nu wel.. En bovendien hebben veel mensen het nu veel krapper. Ben heel benieuwd hoe de verkoopcijfers zullen zijn uiteindelijk.
Mijn vermoeden is dat het NVidia helemaal niet zo veel uitmaakt wat de verkoopcijfers voor deze kaarten precies gaan zijn, zeker zo vlak na de release. Als ze er minder van verkopen dan houden ze meer van hun ingekochte gelimiteerde productie capaciteit over voor server GPU's, waar ze veel en veel hogere marges op halen. Elke 4080 die ze nu tegen 1500 euro weg kunnen zetten is mooi meegenomen, en als ze er de helft of zelfs maar een derde van verkopen voor dubbel de prijs, dan zullen ze dat prima vinden. Tegen de tijd dat de inkomsten uit server GPU's en AI accelerators terug begint te lopen kunnen ze met 1 druk op de knop de verkopen van het consumenten spul een boost geven door agressief de prijzen te verlagen. Ik verwacht dat je over 2 jaar bijvoorbeeld nog maar de helft zal betalen voor een 4080 of een 4090. Rond die tijd beginnen ze iedereen alvast op te warmen voor de 5xxx serie, lanceren ze eerst sterk verbeterde server spullen, daarna de 5090 en 5080 en zo begint de hele cyclus weer opnieuw.

Misschien zit ik er naast maar hoe dan ook denk ik dat vandaag zo ongeveer de slechtst mogelijke tijd is om een 4080 of 4090 te kopen, vanuit financieel perspectief tenminste.
Dat is het hem. Er is geen concurrentie voor deze nieuwe kaarten dus Nvidia geniet gewoon van torenhoge prijzen. Je zult zien wanneer AMD met alternatieven komt, dat Nvidia haar prijzen geleidelijk zal laten zakken
Helaas is gebleken dat AMD kaarten nu niet echt heel veel goedkoper waren dan Nvidia. Die hebben wat dat betreft gewoon lekker meegedaan. Hopelijk brengt AMD kaarten uit die kunnen concurreren op prestatie en prijs.
Dan zal de prijs vanzelf wel omlaag gaan toch? Zeker als AMD kan concurreren met deze kaarten. Intel is er bij lange na nog niet, maar door de concurrentie zullen de prijzen op een gegeven moment wel zakken. Net zoals wat gebeurde met de processors toen AMD met RYZEN weer kon concurreren met Intel.
Heb je de prijzen van de nieuwe generaties processoren gezien? Volgens mij vragen ze nu gewoon beide weer veel geld. :p
Het is inderdaad jammer dat AMD ook hun prijzen aan het verhogen is. Toch hebben ze wel een bariere doorbroken, waar we jaren met een quad core zaten. Ik denk dat als je een lijn trekt met performance per dollar dat die toch flink gezakt is ten opzichte van vroeger
AMD vindt het ook zeker niet erg dat ze flinke prijzen kunnen rekenen en toch kunnen concurreren. Ze zullen niets hebben afgesproken uit angst voor kartelbeschuldigingen, maar ze zullen niet verdrietig zijn.
Chiptekorten zijn er niet??? Waarom loop ik dan op mijn werk nog steeds tegen onverkrijgbare chips aan? Er zijn genoeg chips die niet of nauwelijks te krijgen zijn, en als ze op voorraad zijn dan is het tegen de hoofdprijs. Zie bijvoorbeeld de Raspberry Pi 4. En ook autoproducenten verwachten dat het nog tot ver in 2023 aanhoudt. Het is maar weinig verbeterd ten opzichte van een a twee jaar geleden.

Daarnaast moet Nvidia van tevoren ruimte reserveren bij chipfabrikanten. Ze kunnen niet 1 dag voor release nog even beginnen. Die reserveringen zijn op de piek van de chiptekorten gedaan. Dat moet wel als ze nu videokaarten willen uitbrengen. TSMC zal dus ook wel de hoofdprijs hebben gevraagd. Zie ook deze comment van @bwerg hierover: bwerg in 'Eerste Nvidia GeForce RTX 4080-videokaarten verschijnen bij webwinkels'

De enige reden dat ze de 3000 chips niet verkocht krijgen, is omdat ze nu een nieuwe serie aan het uitbrengen zijn. Dan stagneren de verkopen van de oudere generatie altijd, dat is niets nieuws. Mensen willen het nieuwste. En in dit geval nog wel meer dan anders omdat ze de prijs van de oude chips niet willen verlagen.

Nvidia zal vast en zeker lekker graaien, maar zelfs als ze de chips tegen kostprijs zouden verkopen, zouden ze niet goedkoop zijn. Niet zolang ze nog contracten uit de chiptekorttijd hebben, en niet zolang deze chiptekorten nog steeds doorwoeden. Dat Nvidia daar nog een enorme marge overheen gooit, zal ik niet ontkennen, maar chiptekorten zijn nog in volle gang.

[Reactie gewijzigd door Amanoo op 26 juli 2024 22:33]

Chip te korten hangen er af van de node. Waar je nu nog tekorten ziet zijn chips op oudere nodes, vooral voor IoT, Automotive e.d.

De tekorten op de mainstream nodes zoals 4N, N5, N6 en N7 zijn grotendeels wel verholpen, sterker nog, door het instorten van de mining boom, en de tegenvallende cpu vraag zijn er zelfs op die momenteel eerder overschotten, AMD zou al capaciteit hebben teruggegeven, net als Apple, Nvidia zou vooraf ingekochte capaciteit willen verkopen en ook Mediatek lijkt minder af te willen nemen.

Er zijn dus nog zeker chip tekorten, maar niet op iedere node.
De vraag is door de sluimerende recessie, hoge inflatie (en dus het inzakken van de uitgaven van ook de consument) en grote voorraden bij afnemers gigantisch naar beneden gegaan. Chippers waarschuwen overigens al maanden dat dit aan het gebeuren is. Er zijn heel specifiek nog grote problemen, zoals de auto industrie, maar de markt als geheel is al weg van een tekort.

https://www.globaltimes.cn/page/202208/1273038.shtml
https://www.reuters.com/t...enue-forecast-2022-08-09/
https://www.reuters.com/t...s-chip-demand-2022-10-25/

[Reactie gewijzigd door Thekilldevilhil op 26 juli 2024 22:33]

Chiptekorten zijn niet zo zwart wit als jij denkt. Er is een tekort aan chips in de trailing edge. Niet in de leading edge sector van de chips. (High end chips, is geen tekort.) Low end chips wel, microcontrollers, embedded chips e.d.

Zit groot verschil tussen die twee.
Inderdaad. Het is begonnen met chiptekorten en miners. Dan heeft Nvidia gezien: Hey, eigenlijk zijn mensen blijkbaar bereid om VEEL meer te betalen dan we tot dusver vroegen. Vervolgens zijn de prijzen van tijdens de tekorten hun nieuwe norm geworden.
Mensen denken vaak dat inflatie de enige reden is waarom producten duurder worden, echter is naast inflatie ook de gigantisch hoge energieprijs de boosdoener die los beweegt van de inflatie.

Om chips te produceren is heel veel energie nodig, als de energie prijzen voor sommige bedrijven wel 3 tot 4x zo hoog zijn gaat de consument dat ook wel terug zien in de verkoopprijs.

Desondanks is de hebberigheid van nVidia nogsteeds een grote marge van die retailprijs.
En dan komt daar nog bovenop dat de prijs per transistor op de recente nodes relatief hoog is. Sterker nog, TSMC 5nm is zo ongeveer de eerste node waarbij de prijs per transistor gelijk is aan die van de voorgaande node. Vroeger betekende een nieuwe node altijd meer transistors voor dezelfde prijs, waardoor je een snellere kaart kreeg voor hetzelfde geld. Nu krijg je meer prestaties voor evenredig veel meer geld. Een generatie die 50% sneller is dan de vorige is zo ook gewoon 50% duurder dan de vorige. Of even duur en even snel en een stuk zuiniger, maar dat is commercieel natuurlijk veel minder interessant.

Dit gaat in de toekomst nog een probleem worden, elk jaar of twee een nieuwe interessante hardwaregeneratie zit er zo niet meer in want we moeten niet alleen wachten op een nieuwe node, maar ook tot die nieuwe node 'afgeprijsd' wordt voordat de producten echt interessant worden.

Het alternatief is een architectuur die efficiënter omgaat met zijn transistors maar alles wijst erop dat Ada Lovelace juist helemaal niet efficiënt is omdat er relatief veel die-space wordt gebruikt voor extra's als ray tracing en AI-randzaken. Wat dat betreft maakt AMD een betere kans. Maar dan nog kent efficiëntie natuurlijk ook zijn grenzen.

[Reactie gewijzigd door bwerg op 26 juli 2024 22:33]

DLSS 3 en Ray tracing zijn toch juist efficiëntere dingen?
DLSS gebruikt minder energie voor hetzelfde aantal FPS. Bij DLSS 3 is dat nog wat sterker omdat er een tussen frame wordt gemaakt.

Ray tracing uit de video kaart gebruikt veel minder energie dan hetzelfde proberen met een videokaart die niet aankan.
Bij het niet gebruiken van ray tracing in spelletjes gebruik je wel minder energie. Dan spelletjes spelen met ray tracing

Nvidia is trouwens ook bezig met echt volledige ray tracing. Hierbij heb je nu echt veel sneller resultaten. Door allemaal slimme dingen en shortcuts die ze nemen. Per frame zul hiervoor vast heel veel minder energie nodig hebben dan vroeger.
https://www.youtube.com/w...b_channel=TwoMinutePapers
Ray tracing uit de video kaart gebruikt veel minder energie dan hetzelfde proberen met een videokaart die niet aankan.
In de praktijk is het alternatief gewoon: geen ray tracing. Als je een AMD-kaart hebt zul je het typisch niet aanzetten, tenzij je kaart echt compleet overkill is.

DLSS, ja, dat kun je gebruiken om je efficiëntie te verhogen. Maar dan moet je het wel gebruiken. Ik lees ook genoeg meningen van mensen die gewoon native rendering willen omdat je toch gewoon grafische artifacts kan verwachten (al zijn die bij NVidia minder erg dan bij AMD/Intel).

Dus samengevat: als je NVidia's features wil gebruiken moet je natuurlijk een NVidia hebben, wil je 'gewoon' een videokaart om zonder fratsen op hoge settings/resolutie te renderen dan is Lovelace niet bepaald efficiënt.
Ik heb zelf een 3060 TI en zet DLSS aan bij alles wat 2.0 of hoger ondersteund. Ray tracing is met deze kaart soms wel te doen soms niet. Zonder DLSS is het eigenlijk altijd te zwaar. Ik heb wel een 2560x1440 monitor met de originele G-Sync. Hierbij is vaak niet zo boeiend als je FPS af en toe onder de 60 Hz zakt zolang hij maar boven de 30 FPS blijft. Ik speel wel eigenlijk alleen echte single player spellen.

Maar als je alles native wil doen heb je nu inderdaad niet zoveel aan Nvidia. Maar bij sommige spellen is het best wel een verschil om het met raytracing en DLSS te spelen.

Maar hier heb je inderdaad veel meningen over.
Dure energie en grondstoffen.. Je betaalt ook flink meer dan in de VS. Komt uiteindelijk allemaal omdat jouw euro's minder kunnen kopen. Inflatie dus.
Je betaalt ook flink meer dan in de VS. Komt uiteindelijk allemaal omdat jouw euro's minder kunnen kopen. Inflatie dus.
Een slechte wisselkoers is niet hetzelfde als inflatie.
https://topics.amcham.com...s-low-electricity-prices/

Dat is dus sowieso geen relevant iets, gezien al deze in Taiwan worden geproduceerd. Daarnaast ja, chips maken kost best een hoop energie. Maar die dingen rollen ook in gigantische hoeveelheden van de band. Hoe groot is per chip dan echt de kosten aan elektriciteit?
Ik denk dat iedereen hier een aantal valide punten aandraagt voor de hoge prijzen; het zal gewoon een combinatie van de volgende zaken zijn:

- Er ligt nog een berg 3000-series kaarten op de plank. Die kunnen niet voor een schijntje verkocht worden omdat het verlies van de resellers dan te groot wordt en NVidia wil dat niet oneindig compenseren. Dit betekent dat de 3000-series nog altijd voor relatief hoger bedragen verkocht worden. De 4000-series kaarten moeten daar natuurlijk een stuk boven zitten vanwege de marketing en vanwege het performance-verschil.

- De 4000-series zijn ook daadwerkelijk veel sneller en met betere (duurdere) tech ontworpen en geproduceerd, en de chipindustrie heeft al aangegeven dat de productieprocessen relatief duurder worden om die extra prestaties te behalen, dus dat wordt doorberekend aan de consument.

- Inflatie speelt een rol.
- De euro-dollar koers is al een tijdje minder gunstig voor de Europeanen als het gaat om import.

In die zin hebben we echt mazzel dat de crypto's zo zijn gezakt in populariteit, anders waren de kaarten mogelijk nog duurder geweest, maar daar staat weer tegenover dat je ook als gamer hogere energiekosten hebt.
Mijn punt was meer dat prijzen over de langere termijn omhoog gaan. Als een product(categorie) een bepaalde prijs heeft bereikt, komt deze over het algemeen niet meer eronder.
Dit heeft niks met inflatie te maken (of althans, nauwelijks). De xx80 kaarten zijn 2.3 keer duurder geworden in twee jaar tijd, dat zou een inflatie van 230% betekenen in twee jaar tijd, en zelfs met de extreme getallen die ons de laatste tijd om de oren vliegen kan ik me nauwelijks voorstellen dat het totale inflatiecijfer boven de 20% uit zal komen. Dit is ook een gevalletje chiptekorten, miners, en vooral graaien van nVidia
de 2080 TI was ook 1400 euro bij introductie. Toegegeven, afgelopen jaren is het wel een bizarre tijd geweest.
Mining is allang geen ding meer, chip te korten zijn voor dit soort hardware ook geen issue meer, ik vraag me trouwens wel af hoe je aan 2.3x komt.

Kijk je naar adviesprijzen kostte een RTX 3080 kostte die $69, de RTX 4080 kost $1199, een toename van +-70%, bij lange na geen 230%.

Naast inflatie, die natuurlijk aanzienlijk is, zijn er ook andere factoren die meespelen, deze chips zijn een stuk duurder om te produceren, wat over het hele traject zorgt voor hogere prijzen, want de BOM zal hoger zijn en iedereen in de keten, van Nvidia, naar de OEM, naar de distributeur(s) en uiteindelijk de retailer willen daar een stukje van mee pakken. Zie bijvoorbeeld dit artikel: https://www.semianalysis....-gpus-shows-how-desperate voor een goede analyse en ook waarom AMD hier waarschijnlijk meer speelruimte heeft.

Daarnaast zijn andere zaken denk aan container shipping e.d. bijvoorbeeld voor zover ik het begrijp ook nog altijd fors duurder dan bijvoorbeeld pre-corona.
Nee, dit zit em ook vooral in dat het produceren van deze kaarten daadwerkelijk vele malen duurder zijn geworden, de marge zal ongeveer gelijk zijn als bij de 30xx serie (waarbij je moet bedenken dat de webwinkel prijzen VERRE waren van wat nvidia voor de GPU's vroeg aan de producenten).
Toch klopt dit niet helemaal in mijn ogen. Ten eerste kun je beter de dollarprijzen vergelijken i.v.m. de waardedaling van de euro tov de dollar. Daarnaast is dit de "betere" xx80 kaart, vergelijkbaar met de 3080 12 gb die een MSRP van 999 dollar had tijdens zijn (latere) release. Deze 4080 kaart heeft een MSRP van 1199 dollar. Dat is alsnog 20 procent meer, maar dat is dan weer deels te verklaren door de hogere grondstoffen e.d.
De 4080 12 GB was eigenlijk gewoon een 4070, gezien de afgeknepen bus en slechtere chip. Niet voor niets is hij 'unlaunched.'
In grondstoffen ligt de prijsstijging een stuk hoger. De inflatiecijfers zijn berekend op een aantal standaardproducten voor consumenten.
die prijzen gaan heel hard klappen niemand koopt die onzin voor die prijzen. en die crypto en chip te kort onzin is voorbij en ze moetten nog van veel 30 serie kaarten af. die 40 serie gaat ook amper verkopen.

en amd komt er soon bij voor normalere prijzen
ik heb ook de 2080, deze gaat gelukkig nog goed mee. voel de behoefte niet zo'n mega bedrag neer te leggen voor iets meer frames
Alleen is het natuurlijk niet alleen "iets meer frames". Het is grofweg het dubbele aan frames tussen die twee kaarten.

Dat neemt niet weg dat ik de prijzen net zo goed belachelijk vind. Vraag blijft wat AMD doet. Als die geen marktaandeel meer willen halen, dan stagneren we op dit prijsniveau. Maar dat is lastig te voorspellen.
Maar, wanneer is een bepaald aantal frames goed genoeg?
Ik haal met m'n 3090 makkelijk de 144 fps op 1440P in 95% vd games die ik speel. Als ik een 4K scherm aanschaf met 100+ hz word een 4080 of 90 interessant. Ik weet niet waar @roeltjow op speelt (1080P of 2K?) maar als je <4K speelt is de 4000 serie gewoonweg niet interessant en kun je prima uit met een mooie deal in de 2 of 3000 serie.
Fijn voor je, maar voor de gemiddelde consument zeg je zoiets als “ik hoef de nieuwste Ferrari niet, want mijn Lamborghini van vorig jaar is nog snel zat.”
Vervang 3090 dan even door 3080 (ti). En ik bedoel te zeggen dat er nu een niveau bereikt is dat overstappen vanaf 3070> op minder dan 4K resolutie niet meer zo bijster interessant is. Oh en de 4080 is de nieuwe 4090 prijsgewijs.
Daar heb je toch al aan meegeholpen, de 2xxx serie was naar mijn idee ook al fors duurder dan de voorgaande. Dus je hebt voor nvidia al een ja gestemd op hoger dan 'normale' prijzen.

Ikzelf ook hoor, en de 3080 heb ik ook gekocht.
Maarja, de prijzen van AMD kaarten waren vergelijkbaar met die van nvidia, dus je moet dan even nadenken hoe dat komt, waarbij Nvidia pas dus nog heeft aangegeven dat de nieuwe gpu's gewoon veel duurder zijn om te produceren. Als AMD nu ineens met vergelijkbare functionaliteiten/snelheden kan komen voor de helft van de prijs van de nvidia kaarten, tja dan heeft nvidia een heel groot probleem, maar ik gok dat de prijzen van AMD kaarten met vergelijkbare functionaliteiten/snelheden niet heel erg verschillend zullen zijn van die van Nvidia, misschien een honder euro ofzo lager, maar niet bv de 4080 gelijkende die nu $1460 is voor $800..
Voor zover ik weet heeft het alleen deze keer niets te maken met scalpers (of hoe heette dat ook alweer?).

Zaken worden nu eenmaal duurder, waaronder elektronica. Kijk naar tablets, laptops, monitoren en telefoons, het is allemaal enorm duur en dat lijkt de nieuwe maatstaaf te worden. Productie en loonkosten nemen ook toe vanwege de inflatie, wat de prijs nog meer doet drijven, daarnaast is het uiteraard gewoon betere technologie, en dus ook duurder.

Het feit dat de euro zo laag staat helpt niet, alhoewel het eerder ook een klakkeloze vertaling bleek van dollar naar euro, houden ze nu wel rekening met de slechte koers.
Allemaal waar maar de grootste prijs opdrijver benoem je niet, winstmaximalisatie.
Dit is idd. de hoofdreden.

Nvidia had het geluk dat ze de afgelopen jaren door de mining-gekte videokaarten voor de dubbele prijzen konden verkopen. Nu de gekte voorbij is zitten ze met het probleem dat als ze videokaarten voor de oude prijzen gaan verkopen de omzet sterk zal dalen en ze hiervoor op de beurs gestraft zullen worden met een flinke koersval. Dus wordt de nieuwe generatie videokaarten voor de dubbele prijs van de vorige generatie verkocht en kan Nvidia de oude voorraad voor de oude prijs blijven verkopen ipv dat die afgeprijsd wordt.

"Fuck the fans" is blijkbaar het motto van Jensen Huang. En blijkbaar vinden sommige fans dat prettig gezien het gemak waarmee ze voor zichzelf rationaliseren dat 1500 euro voor een Nvidia 40980-kaart in 2022 een normale prijs is.
Als het om een inflatiecorrectie zou gaan gaf ik je gelijk, maar twee opeenvolgende generaties waarbij een factor twee wordt losgelaten op de introductieprijs, is absurd. En zelfs met alle gestegen prijzen voor energie, grondstoffen en transport niet goed te praten.
Dit is wat mensen willen toch? Een vrije markt, want dat is beter voor iedereen. Alleen is nVidia een quasi-monopolist en zijn ze door de cryptowaanzin van de afgelopen 2 jaar gewend geraakt aan absurde winstmarges. Ik vermoed dat de vraag over een paar maanden vies gaat tegenvallen en dan wel wat redelijkere prijzen zullen komen. Maar we zijn nog steeds in de periode van herstel van die onzin.
Misschien moeten we het vooral bij de consument zoeken. In bij de 30xx lijn zag Nvidia dat bizar hoge prijzen geen belemmering waren in de verkoop van deze kaarten. Ondanks het protest op bijvoorbeeld Reddit dat de prijzen te hoog zijn, gaan ook de 40xx als warme broodjes.

Nvidia komt hier goed weg met de hoge vraagprijs en als de verkoop zo blijft, gaat deze prijs alleen maar stijgen. Misschien dat Intel de prijs nog kan drukken als concurrent, de tijd zal het leren.
Ik denk dat de mensen die de kaarten nu kopen niet de algemene consumenten zijn die 1500 voor een hele pc al veel vinden. De meeste zijn gekocht door enthousiastelingen die altijd al het nieuwste van het nieuwste meteen kopen. Die verkopen gaan rap dalen als de prijzen niet gaan dalen gok ik zo.
Je denkt dat scalpers hier niks mee te maken hebben? Ik beweer juist het tegendeel. Een GPU die een MSRP van 600 euro had wordt door scalpers verkocht voor 1400 euro en vindt ook nog eens gretig aftrek. Dan ga je als fabrikant ook denken van: 'waarom vragen wij dat dan niet? Mensen betalen het blijkbaar toch wel'. Betekent dus meer winst en als er weer tekorten zijn dan kan de prijs weer stijgen. Het zal dan wel niet de hoofdmoot zijn maar zo werkt de markt nu eenmaal.

Zo vaak gezien dat de aardappelprijs door een mislukte oogst omhoog ging. Een kleintje friet ging dan van Hfl. 1.50 naar Hfl. 1.75 bij de frietboeren. Het jaar erop was er een megaoogst en zou je verwachten dat een frietje weer Hfl. 1.50 ging kosten, maar nee hoor die bleef gewoon op Hfl 1.75 tot de volgende mislukte oogst en veranderde toen naar Hfl 2.00. De insteek was: mensen betalen het toch wel. Dat is bij de GPU's dus niks anders.
Maar dat was in een tijd dat je de kaarten nauwelijks kon kopen via de normale weg als je er exht een nodig had ter vervanging van een kapotte bvb, door al die opkopers die het voor crypto of voor scalping kochten. Nu die crypto markt ingezakt is valt die hele schaarste weg, dat kan nvidia wel leuk een debiel hoge prijs vragen maar dat gaat de gem. Consument echt niet betalen.
De "gemiddelde consument" is dan ook niet de doelgroep van de 4090 of de 4080. Sterker nog, misschien moet je wel vaststellen dat de "gemiddelde consument" kiest tussen de PS5 en de XBox.

En als focused op de "gemiddelde PC-gamer", dan moet je naar de Steam survey kijken.
Zolang nvidia alles verkocht krijgt, zullen ze scalper prijzen hanteren. Enige waar we op kunnen hopen is concurrentie van AMD in de vorm van de 3e 7000 serie.
Merkgebonden zijn is sowieso jezelf branden.

AMD die gaat echt niet minder vragen; als ze een krachtigere GPU hebben, vragen ze meer dan Nvidia.
AMD is echt geen stichting of goed doel. Ik snap niet dat mensen dat blijven denken. Het is gewoon een bedrijf uit op winst, niks meer, niks minder. Bij elke release waar AMD het beter product heeft zie je dat het daar ook naar geprijsd is.

[Reactie gewijzigd door grasmanek94 op 26 juli 2024 22:33]

Daarom is het ook goed dat Intel de GPU markt betreden heeft, ondanks dat Intel best een ruk bedrijf is. Is het voor de concurrentie wel weer goed. Ik hoop echt dat Intel gaat doorzetten en de volgende (of 3de) generatie wel goed concurrerende GPU's weet neer te zetten.

AMD staat bij veel mensen met een slechte reputatie te boeken. Terwijl dat in de praktijk best wel mee valt.

Bulldozer was zo slecht nog niet. Als ik zie hoe goed mijn RX580 nog altijd kan meekomen (hoeveel performance die kaart er over de jaren ook bijgekregen heeft, helemaal met FSR, holy moly).

Het zou voor iedereen beter zijn geweest als men concurrentie echt zijn werk liet doen en eens goed ging kijken naar prijs-kwaliteit verhoudingen. Maar te veel mensen zijn inderdaad merk gebonden en blijven nog altijd vast hangen aan Intel voor de CPU's en Nvidia voor de GPU's.

Daar zijn we best mee gebrand, jarenlang op CPU vlak geen vooruitgang gezien en nu achterlijke prijzen op GPU gebied. Want het gaat voor Intel en Nvidia toch als warme broodjes over de toonbank.
Nogal open deur. AMD kan al jaren niet tot beperkt concurreren met nvidia op gebied van snelheid/features, dus concurreren ze op prijs. Daarom was bijv. de 5700xt een heel interessante kaart en nu ook zijn de AMD equivalenten tot €200 goedkoper dan nvidia.
Dus inderdaad hopen dat de merkgebondenheid niet een te grote rol speelt, dan komt er nog wat beweging naar lagere prijzen dan het absurdistische van nu.
Het is wel een bedrijf, maar AMD heeft een meer 'open' filosofie (mantle/vulkan, freesync, fsr) Terwijl, Nvidia meteen voor de proprietary route gaat.
Maar met hun beperkt marktaandeel gaat dat ook niet werkelijk anders. Bedrijven die marktbeheersend zijn proberen dat vaak (zoals NV) met eigen standaarden te versterken.
Dat komt doordat wij als consumenten de producten van die partijen blijven afnemen, waardoor zij versterkt worden in hun manier van handelen. Tenzij, wij als consumenten de andere partij steunen, die de levensduur van onze GPU's verlengd met open-source software.
Op het moment dat Nvidia marktaandeel verliest, gaan zij luisteren naar de consument, en als die consument open standaarden noemt als reden. Dan, zal Nvidia hen tegemoet komen.
Kijk maar naar G-sync, pure geldklopperij liet Freesync zien. Maar, toch blijft iedereen zweren bij Nvidia.
Aangezien, zij in overpriced monitoren hebben geïnvesteerd.
Maar dan moeten gamers de concurrent wél omarmen. En niet blijven zweren bij die overpriced Nvidia kaarten. Want ook al zijn de kaarten van AMD prima, ze worden niet als warme broodjes verkocht.

[Reactie gewijzigd door EMR77 op 26 juli 2024 22:33]

Dat is het punt een beetje wat mij betreft: Ze - AMD - zijn "prima".
Als NVidia gebruiker zou ik met m'n 970 (ja,zó oud) best een overstap willen maken, AMD mist gewoon net even dat vertrouwen wat ik nodig heb als ik tussen de 800~1500 moet uitgeven en daar ook een paar jaar mee vooruit wil kunnen.
Waar baseer je dan je vertrouwen op?

Zelf begon ik ooit met een Nvidia MX440, best prima kaartje. Daarna een tijdje op Radeons gezeten en toen terug naar de GTX 760.

De support voor de 760 was om te janken, veel gezeik gehad met drivers en met pijn en moeite zelf het één en ander kunnen oplossen. De kaart draaide pas na een jaar of 2 redelijk stabiel vanuit driver updates. Verder nooit leuke voordeeltjes of 'extra performance' gekregen over de levensduur. Nog steeds 1 keer per 2-4 weken een crash die ik nooit heb kunnen herleiden of zelf wat aan heb kunnen doen.

Daarna ben ik naar de RX 580 gehad, wat driver issues en wat problemen met overhittende VRM's (maar is meer fabrikant dan AMD). De driver issues waren binnen een half jaar verholpen en de overhittende VRM's heb ik zelf kunnen verhelpen door de uitgebreide tuning mogelijkheden die AMD je uit de doos geeft (welke bij Nvidia gewoon basaal zijn of geheel ontbreken).

Die RX 580 was voor mid-high prijsje, in het begin ook echt mid-high. Maar ik ben nu ~5 jaar verder en die kaart haalt nog steeds de performance van een huidige mid-range kaart. Helemaal met FSR erbij verbaast het mij nog altijd hoe dat kaartje Spider-Man Remastered en Dying Light 2 op 1080p@60fps met prachtige graphics weet te draaien.

Als ik het vertrouwen moet baseren op het verleden. Dan steekt AMD met kop en schouders boven Nvidia uit. Vooral de ondersteuning vanuit AMD maakt het verschil. Ze geven hun oude hardware niet op.

Nvidia geeft 2k en 3k series al de vinger door DLSS3 alleen naar de 4k serie te brengen.
Alleen is het dus wel dat bv DLSS3 daadwerkelijk gebruik maakt van nieuwe functionaliteiten die alleen in de 4k reeks zitten, dus is het niet meer dan logisch dat DLSS3 niet op eerdere kaarten kan werken.
DLSS3 komt ooit ook naar de 2k en 3k series. Het is blijkbaar met wat getweak al mogelijk om DLSS 3.0 op de 2000 serie aan de praat te krijgen. Maar Nvidia zou Nvidia niet zijn als ze niet zo veel mogelijk zouden pushen naar nieuwe generatie kaartjes en zo min mogelijk moeite stoppen in alle 'oude' kaartjes.
Uiteraard kan NVidia een DLSS 2.1 maken die beter is dan wat er nu op de 30x0 is. Maar een core idea van DLSS 3 (Optical Flow) werkt bij gebrek aan hardware niet op de 30x0 of eerder. Dan kun je als hacker die logica er wel uit slopen, maar dan introduceer je dus veel meer visuele artifacts. Mag je't dan nog wel DLSS 3 noemen?

Kijk, als je frames niet correct hoeven te zijn, dan kun je een 1060 ook nog wel naar 500 FPS duwen.
Ach ja, voor DLSS 2.0 waren Tensor cores een requirement. AMD komt fluitend met FSR 2.0 aanzetten, dat kwalitatief/performance gelijkwaardig aan (of zelfs beter is dan) DLSS 2.0, wat wel op praktisch elke GPU draait.

Die hardware requirements van Nvidia zijn deel van de marketing.
Hier is een aardig artikel over AMD vs NVidia
https://www.tomshardware.com/features/amd-vs-nvidia-gpus
Maar ben persoonlijk meer voor een open community, en support daarom AMD (mantle/vulkan, freesync, fsr).......Nvidia DLSS 3.0 alleen op RTX40 kaarten.
tja, DirectX 12 werkt ook niet op een oude VGA kaart... Als DLSS3 functionaliteiten van een GPU gebruikt die niet op eerdere GPU's aanwezig is, dan is het logisch dat DLSS3 niet op een oudere GPU uit komt. FSR is leuk en aardig, maar legt het wel af tegen deze hardwareondersteunde varianten, en ondanks dat jij en ik misschien het verschil niet zien tijdens het spelen (of het verschil geen probleem vinden), voor een hoop gamers maakt dat dus wel uit.
FSR is crap oke?

https://www.youtube.com/watch?v=s25cnyTMHHM

Ray tracing is crap? Of lopen ze een generatie achter? zelf vind ik het juist indrukwekkend wat ze bereiken na slechts 2 generaties:

https://www.youtube.com/watch?v=oNAwCgradII

Vind het maar een hele conclusie die jij baseert op een oude AMD kaart. Heb zelf een jaar lang een 6800 xt gehad waar ik zeer tevreden over was. Voor 4K gaming heb ik nu weer een 3080 en dat vind ik ook prima.

Maar om nu neer te zetten dat AMD kaarten niet prima zijn is wel heel crue.
Helaas wel. Nvidia heeft gezien dat ze nog steeds verkopen voor die prijs, dus dat blijven ze doen. Zolang mensen blijven kopen en de concurrentie hetzelfde doet zal dat niet veranderen. Dat betekend voor een hoop gamers dat ze naar 2e hands kaarten gaan kijken ipv nieuwe, waaronder mij....

[Reactie gewijzigd door Tadango op 26 juli 2024 22:33]

Het is wel een beetje dubbel.
50 of 100€ minder betalen voor een 2e hands kaart die misschien (misschien ook niet) na enkele maanden goed is voor de vuilbak... ik twijfel nog en dus voorlopig koop ik niets. Er zouden veel meer mensen voorlopig niets moeten kopen, dan pas gaan de prijzen zakken.
Ik bedoel een 2e hands 3080 TI voor 800 of een 4080 voor 1500 is wel iets meer dan 50 - 100 euro. Ja er zie een groot verschil in qua performance maar meer mensen nemen nu genoeg met minder. Het is anders niet te betalen. En 2e hands kaarten zijn niet snel defect, dat is onzin. Als hij goed werkt bij de verkoop is er geen reden om aan te nemen dat dat snel zal veranderen.
Ja idd,de prijzen die verkopers durven te vragen voor hun 2ehands kaart (gebruikt en zonder garantie) is werkelijk stuitend. Wat dat betreft valt Nvidia weinig te verwijten, net als de verkopers van 2ehands kaarten proberen ze er het maximale uit te halen. En blijkbaar staat de markt dat toe. De markt heeft altijd gelijk. Als de prijzen hoog zijn betekent dat altijd dat de leveranciers ermee wegkomen. De prijs zakt pas als de leveranciers daartoe gedwongen zijn.

[Reactie gewijzigd door -Moondust- op 26 juli 2024 22:33]

Gaat inderdaad echt helemaal nergens over, prijzen zijn belachelijk!
3080 heb ik nog gekocht bij release voor 750 euro als ik mij het goed herinner, dus ze voeren even een verdubbeling van prijs in bij een nieuwe generatie.
€699 hier voor een 3080 Founders met Duitse Corona BTW :P
En wat dacht u van het stroomverbruik van dit soort monsters?
Je hebt wel geen verwarming meer nodig deze winter. Heb ook de indruk dat de 4090 serie een enorme slokkop is geworden. De fysieke limieten van de huidige pcie insteekkaart standaard lijkt met deze generatie kaarten ook al ruimschoots bereikt.
Als de prijzen zakken naar e1000 is dat 'lekker goedkoop' en de nieuwe normale prijs.
Zolang mensen het blijven kopen zullen de prijzen blijven waar ze zijn of zelfs verhogen
Hoewel ik het eens ben dat het erg duur is de afgelopen jaren vind ik je vergelijking niet helemaal eerlijk. 2 jaar geleden was de 2080 net opgevolgd door de 3080 met een veel lagere msrp wat de prijs van de vorige generatie ook drukte. De gekte ontstond daarna pas.
prestatie verhouding tov 3090. als ze deze kaart verkopen voor 800 euro verkopen ze de berg overschot 3090 niet meer.
Dit is ook de reden waarom ik zo blij ben dat Intel mee gaat doen in het GPU segment. Concurrentie is de belangrijkste reden van deze exorbitante prijzen. Bij gebrek daaraan zullen aanbieders zoals Nvidia en AMD prijzen zo kiezen dat iedereen zijn of haar maximale bedrag aan een videokaart uitgeeft. En helaas heeft de rtx 2080 ti en rtx 3000 series laten zien dat sommige mensen maar al te graag voor €1000 of meer een high end videokaart kopen. De duopolie van AMD-Nvidia is ook deels een gentlemens agreement waar beide partijen geen grote prijzenoorlog zullen beginnen om dit maximaal uitmelken van de consument te doen stoppen. Waarom zouden ze uberhaubt? Een derde speler zoals Intel is hierbij een zeer welkome speler.

Ik heb echter nog steeds goede hoop voor de consument deze generatie, want ik denk dat de huidige prijzen toch redelijk onhoudbaar zullen blijken. Cryptocrash + PoS Ether, verzadigde markt, recessie op de loer, er zullen toch aardig wat mensen zijn die wel 3x nadenken voor zo'n bedrag gaan neerleggen voor 4070/80/90. De tijd zal het leren.
Gewoon niet kopen. Enige manier waarmee je kunt stemmen; met je portomonnee.
Haha elk jaar zie je weer iemand de vraag stellen "GPU's kunnen toch niet lang zo hoog meer blijven".
Schijnbaar wel :p
De 2080 Ti kostte nieuw ook gewoon 1100 euro destijds hoor.
1259 Euro was de prijs van de RTX 2080 Ti Founders Edition eind 2018 om precies te zijn. ;)
€1500,- MSRP wordt dan ook niet daadwerkelijk €1500. MSRP heeft steeds meer 0 betekenis en ook steeds meer 0 bestaansrecht. Reken maar dat ze boven de 2000 euro kosten. De prijzen zijn dan ook totaal absurd, onlogisch en uit balans..
Dat is natuurlijk niet helemaal eerlijk. De 2080 was 2 jaar geleden al een stokoude kaart in hardware land. Toen ze uitkwamen zaten ze rond de 850 tot 950 euro. Nog steeds een groot verschil maar minder groot dan je aangeeft. De euro is een stuk zwakker tov de dollar en als je inflatie meerekent is het verschil nog kleiner.

Msrp was volgens mij 699 dollar bij launch van de 2080? Voor AIB kaarten was een prijs rond de 900 tot 1000 euro aan het begin wel normaal. Ik heb mijn gaming trio 2080 gekocht voor 845 euro op Cyber Monday. Prijzen daalde wel relatief snel.

[Reactie gewijzigd door OMD op 26 juli 2024 22:33]

Tot aan de dood zullen de videokaarten deze prijzen gewoon aanhouden, is afgelopen met 600euro of 650euro, kun je hoog of laag springen maar is gewoon zo. Je moet nu proberen 2de hands te gaan scoren volgende jaar voor normale prijs misschien.
Er komen heus nog wel kaarten van 600 euro. Je hebt dan alleen geen 4080. Waarmee de meeste mensen ook gewoon goed uit de voeten kunnen qua gamen. En anders gewoon lekker de 3000 serie blijven kopen. We zijn ook wel een beetje verwend dat we al het beste maar kunnen kopen. Elke kaart in de range kan gewoon super gamen.
Ik heb mijn Asus 2080 Turbo voor zo'n €800 gekocht toen ze uit kwamen. Ik verklaarde mijzelf destijds al half voor gek om zoveel geld uit te geven (was nog student ook...). Achteraf een goede beslissing geweest, aangezien ik daarvoor een 970 had en nu voorlopig nog wel even vooruit kan. Wellicht is de 50xx series is voor mij of anders de 60xx series. Daarnaast ben ik ook benieuwd waar AMD mee gaat komen.
Deze prijzen voor de GPU's kunnen toch niet lang zo hoog meer blijven?
Dat ligt simpelweg aan de markt, het kan inderdaad dat ze gaan zakken maar dat hoeft helemaal niet.

De aanname dat een bepaalde serie altijd rond dezelfde prijs moet liggen is een foute aanname natuurlijk, dat gaat er vanuit dat alle kosten gelijk blijven en vraag en aanbod niet veranderen (of 100% correlatie hebben). Het is immers niet zo dat een 80 series een inherente waarde heeft, de waarde waar het voor is verkocht wordt bepaald door of mensen het kopen.
Als mensen deze kaart kopen voor 1500 euro, dan is dat dus de prijs die de markt er voor over heeft en is er voor NVidia geen enkele reden om de prijs te verlagen.

Als deze kaarten heel slecht verkopen, dan zou het inderdaad kunnen dat de prijs omlaag gaat. Het is daarmee echter niet gezegd dat ze terug gaan naar de prijs van vroeger, die prijs zegt namelijk niks. Je zou zelfs wel kunnen stellen dat het vrijwel zeker is dat de prijs niet terug gaat naar de prijs van 2 jaar geleden. Ook voor NVidia gaan de kosten omhoog, en NVidia is er om winst te maken dus die kosten gaan terug naar de consument.
Twee jaar geleden? Dat was midden in de pandemie, toen je geen videokaart kon krijgen voor een normaal bedrag, misschien nog in april 2020. Maar toen was die kaart ook al 1.5 jaar oud, de introductie prijs van zo een RTX 2080 was ook gewoon €950 VIER jaar geleden.

De dollar is sinds die introductie 15% meer waard tov. de euro.
Inflatie is sinds die tijd 18%+.
Als je dat verrekend met vier jaar geleden zit je nu ook al op een kaart van ~€1300. En dan is het verschil opeens niet zo heel groot meer.

Daarnaast je blindstaren op cijfertjes is ook geen goed idee, want als je de GTX1080 naast de RTX2080 legde was toen ook al het prijsverschil enorm! En de performance verbetering toen niet denderend. We weten het nog niet van de 4080, maar die van de 4090 heeft een behoorlijke performance verbetering. Ga ik er eentje aanschaffen? Nee, niet eens zo zeer om de prijs (hoewel die niet misselijk is), ik heb het gewoon niet echt nodig, ik heb (kosten effectievere) alternatieven en het verbruikt gewoon teveel stroom (en produceert teveel warmte)...
2 jaar geleden was een 2080 al weer 2 jaar oud, hedendaags hetzelfde geval voor de 3080 die nu ~870 euro kost. Dat is nog steeds een increase maar niet van 650 naar 1500 zoals je bericht doet denken.
zolang we deze dure kaarten gewoon blijven kopen, blijven ze gewoon zo duur.
Ik ben een PC gamer in hart en nieren, maar het prijsverschil met gamen op een console wordt echt te gek zo. Natuurlijk draait heb beter op een pc met zo'n beest er in, maar als dat 4x of 5x de prijs van de nieuwste generatie consoles kost...

Hoeveel mensen zouden nu hun toestenbord en muis voor een controller inruilen?
Youtuber JayZTwoCents heeft een video gedaan over een verslag vanuit topman Nvidia aan de aandeelhouders waarin hij een vertaalslag deed op wat er gezegd is. Hieruit kwam naar voren dat Nvidia bewust grip houdt op de quantiteit van de oude en nieuwe generatie kaarten om zo de prijs vast te houden en zo de kromme vraag en aanbod in stand te houden. Een beetje wat Disney (en nu ook andere media producenten) doen met hun films. Als 2e stap zouden ze als dit goed vertaalt is dan de nieuwe kaarten er tussen en bovenop leggen in prijsklasse en zo deze prijzen fictief hoger houden.

Hier de video voor de geïnteresseerden.

[Reactie gewijzigd door jackyallstar op 26 juli 2024 22:33]

Met deze prijzen zoek ik wel een andere hobby. Het is niet eens een kwestie van het kunnen betalen maar puur niet willen betalen en zeker niet aan zo'n poen graaiend bedrijf als dit.
Ik stop ook maar met mijn auto hobby want ik kan geen Bugatti betalen.

Wat is er mis met een 6800XT of 6900XT die voor een prima prijs te krijgen zijn? Daar kan je toch prima je gaming hobby op doen?

Misschien is het allernieuwste mooie spul duur. Maar dat betekend niet dat de hele hobby het niet meer waard is. Of je hecht wel heel veel waarden aan puur het nieuwste hebben. En opzich is zelfs met deze prijzen gamen nog wel relatief goedkoop (als je een redelijk tijd met je PC doet), als je kijkt wat je voor autos, modeltreinjes en lego ect. neerlegt.

In deze tijden kan een xx60 kaart ook prima gamen zolang je gewoon je rest van je hardware hier op afstemt. Zoals geen 4k monitor kopen ect.

[Reactie gewijzigd door Modderhoop op 26 juli 2024 22:33]

Wat is er mis met een 6800XT of 6900XT die voor een prima prijs te krijgen zijn?
Of de 30xx varianten die ook voor vergelijkbare prijzen te krijgen zijn.
Precies dit, kan het mij makkelijk veroorloven maar weiger dit soort prijzen te betalen. Net zoals ik geen 1500 eur san een telefoon ga spenderen.
PC gaming is toch harstikke dood met deze prijzen?
De rest van het systeem komt er ook nog bij...
Op deze manier moeten game developers nog steeds er van uitgaan dat een "gemiddelde" gamer een 10xx kaart heeft en op dat performance level zijn games goed speelbaar en visueel gelikt maken simpelweg omdat niemand deze 30xx/40xx kaarten kan betalen.

We moeten terug naar een "normale" prijsstelling:
bvb
xx60 320 EUR
xx70 450 EUR
xx80 600 EUR
xx90 800 EUR
Waarbij je met de TI's en Super's nog wat kan differencieren.

Maar met Dagobert Jenssen aan het roer daar zal dat niet snel gebeuren.
een "gemiddelde" gamer
data van steam (september 2022) over de meest voorkomende video chips:
1060 - 6.94%
1650 - 6.32%
2060 - 5.19%
1050 Ti - 4.91%
3060M - 4.00%
3060 - 3.52%
daarna loopt het rap af. slechts 1.74% van de Steam gebruikers heeft een 3080 - het lijkt idd vrij kostbaar om te optimaliseren voor die kleine groep.
bron

[Reactie gewijzigd door increddibelly op 26 juli 2024 22:33]

Rond de 950euro voor een 4080 vind ik ook al prima. Heb zoiets voor mijn 1080 hybrid betaald en na tig jaar merk ik nu pas dat hij soms tekort komt. Vooral na overstap naar 1440p 144hz scherm.
Games voor deze specs. ontwikkelen wordt dan toch minder interessant?

De doelgroep kan dat niet meer betalen. Nog los van stroomverbruik.
Hie bedoel je? Een game schaalt toch gewoon? En over een jaar of 2 is wat highend was ineens midend en betaalbaarder.
Ik bedoel:

Als je nu een game ontwikkeld met als spec's: Minimaal 4080, dan weet je
dat je kopers dus een videokaart moeten kunnen betalen van 1500(!)...

Dat is een kleine markt.
Er worden al een tijd steeds minder games ontwikkeld met top-end hardware als minimum spec. De meeste nieuwe games hebben actuele low-midrange hardware als minimum spec en high-midrange hardware als recommended spec.
Eerder worden graphics settings voor extra hoge kwaliteit toegevoegd (waarvoor high-end hardware nodig is), maar zonder die ziet het er ook heel goed uit en draait fatsoenlijk op mid-range hardware.
Dat is denk ik het meest positieve van deze belachelijke prijzen. Als niemand het koopt, dan blijven de oude kaarten gewoon voldoende omdat voor game developers kwantiteit nog altijd meer oplevert.

Ik vraag me wel af wat het lange termijn effect hiervan is. Die prijzen jagen mensen weg van PC gamen zoals we het nu kennen, dus ofwel verschuiven die naar console of naar cloud gaming. Als je bedenkt hoeveel maanden je kan cloud gamen voor de prijs van zo’n kaart, dan is dat bijna een no-brainer… Of zo kijk ik er dan naar.

Jaren geleden zou ik waarschijnlijk moord en brand geschreeuwd hebben over mijn “onafhankelijkheid”, maar als mijn 2070S het nu begeeft, koop ik geen “gaming” kaart meer.
Vaak is het willen spelen op hoge resoluties. Ik draai nog een 1080 en vind het wel tijd worden als de 4080 wat zakt. Ik speel op 1440p en red het nog aardig. Ik vind het persoonlijk niet erg dat ik niet alles op ultra kan zetten. Maakt een 2de playtrough alleen maar leuken een paar jaar later. (Net als met Crysis toen) Dat beesten van kaarten bestaan maakt het alleen maar leuker voor ontwikkelaars.
Ik denk dat je je daar op verkijkt. Do you remember Crysis? Een 15 jaar oude game die de meme 'But can it run Crysis' produceerde, het bracht zelfs de duurste Tripple-SLI Geforce 8800 Ultra naar zijn knieen op hoge settings... Drie van die kaarten bij introductie, inflatie, koers correctie, dan kom je ver boven de prijs van een 4090 uit...

Maar dat is niet het punt, het punt is echter dat Crysis super populair was, wellicht dat de sales niet super waren, maar Crysis stond toen boven aan de piracy charts... En wilde je het op hoge settings draaien, dan moest je het duurste van het duurste en het nieuwste van het nieuwste draaien (en nog steeds duurde het jaren voordat het echt goed draaide op hoge resolutie en hoge settings). Sindsdien zijn de videokaarten alleen maar nog duurder geworden, ook al is SLI tegenwoordig geen ding meer, dat was het vroeger zeker wel!

Bron:
https://www.anandtech.com/show/2403/4
Maar op lagere setting liep Crysis ook prima op normale PCs, en het was een enorm goed spel. Dat de maximale setting nog niet echt mogelijk waren op PCs van die tijd is niet wat het succesvol gemaakt heeft.
Energiearmoede is natuurlijk niet grappig, maar hoe mensen hier de kosten van de stroom als argument aanvoeren wel. Als je in de markt bent voor zulke high-end kaarten en een PC met bijpassende specificaties hetbt, kun je ook best die paar tientjes extra stroom betalen.

Je koopt toch ook niet geen dikke BMW omdat die meer verbruikt dan een Fiat Panda?
Ik zou begrijpen dat gamers deze waanzinnig hoge prijzen betalen moesten er vandaag de dag echt toffe nieuwe games uitkomen die deze power vragen. Wanneer ik snel een paar overloop:

* Far Cry-series: uitgemolken, qua graphics zeker niet up-to-date
* Assassins's Creed: idem dito
* Battlefield: De laatste is een totaal bug fest, op de voorgaande was er ook genoeg kritiek
* COD: Campaign van enkele uren met daarna rinse-repeat multiplayer van de voorgaande 20 jaar
* Cyberpunk: Veel bugs, niet wat er destijds beloofd werd
* Saints Row: Last gen, bugfest
* Enorm veel delays

Dus tenzij je absoluut GT5 & RDR 2 van x jaar terug nu nog eens wil uitspelen op > 100 frames en 4K zie ik de zin er niet van in. De nieuwe kaarten leveren inderdaad meer frames en hoge resoluties maar voor wat eigenlijk? Kan iemand mij zeggen welke nieuwe games echt nieuwe kaarten (4070-niveau) nodig hebben?
Ik ben lekker oude games aan het shoppen die je voor een paar euro op de kop kunt tikken. Sim City 4, Skyrim, Command and Conquer 3, Worms ... Je zult versteld staan wat een simpele laptop met integrated Intel Iris XE GPU voor elkaar krijgt op 1080p en max. settings.

Geen updates van vele gigabytes, amper bugs, geen microtransacties, geen schreeuwende kinderen in gamelobby's, veel games voor letterlijk enkele euro's en geen peperdure videokaarten benodigd.

Gewoon ouderwetse fun :Y)
Als je een game op een hoge framerate EN hoge grafische settings wil spelen dan heb je naast een mooie CPU toch vooral ook een sterke GPU nodig. Ook games waarvan je denkt "die kan iedereen toch spelen?" die zullen op een de combinatie van grafische pracht en zeer hoge fps toch een mooie gpu nodig hebben.

Overwatc 2 op ultra settings @ 1440P @ 140 fps ja dat gaat niet lukken met een oude gpu.. Moet dit? nee, is het mooi/ leuk? ja.... Flight Simulator die kan ook wel snoepen van een sterke gpu. Maar ik zal doorgaan. Wil je de nieuwste Diablo op max spelen hetzelfde... Wat dacht je van City Skylines, ach ik kan elke grote game hier wel neerzetten :)

Uiteraard is 40-60 fps op low genoeg dan heb je dit niet nodig/ open deur i guess
Ik verwacht ook niet dat deze kaarten echt goed gaan verkopen.
De 30xx serie presteert enorm goed en voor die paar FPS meer denk ik niet dat mensen 1500 eurie gaan neerleggen.

nog steeds wat andere ook zeggen, zelfs een 2070/2080 komt nog goed mee, dus daar hoef je het ook niet echt voor te doen.

Stay in your financial lane !
Met een RTX 3070 voor 400euro heb je ook strrrrrrakke beeld hoor.
Zie alleen nergens een Asus Strix 3070 voor €400.
Ik zei ook geen Asus RTX maar “een” RTX :)

Kijk maar naar deze link, allemaal onder 400euro.

https://tweakers.net/aanb...UrExA3JLKgtRiJatopUSl2FoA

En deze is speciaal voor jou.

v&a aangeboden: ASUS TUF Gaming GeForce RTX 3070

[Reactie gewijzigd door cem. op 26 juli 2024 22:33]

Ja, hallo, dat is allemaal 2e hands, kom op zeg, 2e hands gaan vergelijken met nieuw.
Nee is goed, betaal jij maar de hoofdprijs voor de nieuwe :) (y)
Heb je wel 2 jaar garantie.
Wie zegt dat 2de hands geen GARANTIEBON heeft?
Dan nog, is het niet overdraagbaar bij de meeste bedrijven.
Daarvoor moet de prijs van de goedkoopste 3070 dan wel nog met 33% zakken, wat ik niet zo 123 zie gebeuren.
Jammer dat de goedkoopste RTX3070 voor rond de €600 beginnen. Als ik kijk naar mijn ASUS TUF Gaming RTX3070, wat één van de betere was qua koeling (lees: qua geluidsproductie), dan is die nu, in bijna 2 jaar tijd sinds ik hem had gekocht, €40 gedaald in prijs...
Paar FPS meer? het is toch wel aanzienlijk, in iedergeval als je op 4K speelt, of bv VR.
tja, ik vind 800 euro voor een GPU al krankzinnig, maar blijkbaar zijn er een hoop mensen die wel 2000+ over hebben voor een 4090, want ze gaan schijnbaar gewoon als hete broodjes over de toonbank. Dus ook de 4080 range zie ik wel gewoon goed verkopen hoor.

En wat noem jij 'komt nog goed mee', ga je bv VR doen dan is een 2070/2080 al ondertussen toch wel het minimale om die huidige/nieuwe headsets op volle glorie te kunnen aansturen, dus daar komen die al niet meer goed mee. En als je 4K wilt gamen met 60+fps en alle opties aan, dan komen de 2070/2080 toch ook niet echt meer mee. Vergis je niet in wat JIJ (en ik) vinden dat 'nog goed mee komt' niet hetzelfde is wat een doorsnee (echte) gamer vindt.
Daar zeg je wat... 4k en VR.
Hoeveel gamers spelen op 4k en VR en denk je dat Nvidia daar echt een winst op kan halen op die percentage ?
In geen 1500 jaar.
Pas op wat je zegt :)
Wat je 3 jaar geleden voor onmogelijk hield is vandaag normaal.
15 jaar met inflatie correctie? ;)
Wat een prijzen. Hoop echt dat de consumenten massaal de kaarten niet kopen. Deze prijsverhogingen zijn gewoon te extreem.
Helaas gaan ze gewoon kopen, daarom blijven de prijzen ook zoals ze zijn.
We gaan het wel zien de komende maanden. Als AMD ook zijn kaarten zo hoog prijst dan heb je als consument alleen de keuze om een lager model te kopen dan je anders van plan was, of toch meer geld neer te leggen. Als er massaal voor optie 1 wordt gekozen dan gaan AMD en Nvidia dat wel in hun portemonnee voelen. Maar deze bedrijven draaien al een tijdje mee en kennen hun pappenheimers natuurlijk wel. Ik verwacht zelf dat in aanloop van het uitverkocht raken van de 30XX-serie de prijzen zullen gaan dalen. Dat zal nog wel even duren.
AMD zal ongetwijfeld minder duur zijn.
Dat verwacht ik ook maar de vraag is hoeveel minder duur. Marginaal of substantieel? Ik vrees het eerste, want dan hoeft Nvidia haar prijzen niet te verlagen en kunnen beide leveranciers lekker binnenlopen.

Op dit item kan niet meer gereageerd worden.