Nvidia noteert opnieuw omzetverlies door afnemende vraag naar videokaarten

Nvidia heeft het afgelopen kwartaal opnieuw minder omzet gedraaid dan een jaar eerder. Dat komt onder meer door de dalende vraag naar gpu's. Het bedrijf geeft wel aan dat de vraag naar zijn nieuwe RTX 40-videokaarten op dit moment het aanbod overtreft. Het bedrijf draaide ook winst.

Afgelopen kwartaal draaide Nvidia een omzet van 5,93 miljard dollar. Dat is een daling van 17 procent ten opzichte van dezelfde periode in 2021. Volgens Nvidia is die omzetdaling onder meer te wijten aan een dalende vraag in de marktsegmenten voor gaming en professionals. Vergeleken met vorig jaar daalde de kwartaalomzet uit gaming bijvoorbeeld met 51 procent naar 1,57 miljard dollar. Daarmee noteert het bedrijf ook minder winst. Nvidia boekte in het derde kwartaal 680 miljoen dollar winst en dat is 71 procent minder dan in het derde kwartaal van vorig jaar.

Nvidia-cfo Colette Kress vertelt aan aandeelhouders dat de dalende vraag te wijten is aan overschotten in de sector, die op hun beurt zijn veroorzaakt door een dalende vraag naar consumentenhardware vanwege economische onzekerheden. Door de overstap van ethereum op proof-of-stake zou ook het aantal gpu's op de tweedehandsmarkt zijn toegenomen, zeker in het lagere marktsegment, claimt Nvidia.

Nvidia zei eerder al dat het de komende kwartalen minder gpu's gaat leveren, zodat de bestaande voorraden van videokaartmakers en distributeurs opgemaakt kan worden. Volgens de gpu-maker was de release van zijn Ada Lovelace-architectuur wel succesvol. Bij de eerste RTX 40-videokaarten was de vraag bij de release groter dan het aanbod.

Omzet uit datacenterproducten, de grootste inkomstenbron van Nvidia, steeg naar 3,83 miljard dollar: een procent meer dan een kwartaal eerder en 31 procent meer vergeleken met vorig jaar. Nvidia is afgelopen kwartaal onder meer begonnen met het leveren van zijn nieuwe H100-datacenter-gpu op basis van de Hopper-architectuur.

Nvidia vertelt wel aan aandeelhouders dat het bedrijf omzet heeft verloren door de exportbeperkingen van geavanceerde chips die de VS oplegt aan China. Het bedrijf meldt echter dat dat omzetverlies grotendeels is opgevangen door de verkoop van alternatieve producten in China, vermoedelijk doelend op gpu's als de A800. Voor de komende kwartalen waarschuwt het bedrijf wel voor een afkoelende vraag uit China. Het bedrijf verwacht in het laatste kwartaal van dit jaar ongeveer 6 miljard dollar omzet, terwijl dit vorig jaar op 7,64 miljard dollar lag.

Nvidia-kwartaalomzet Q3
Nvidia's omzet in het derde kwartaal, per marktsegment. Bron: Nvidia

Door Daan van Monsjou

Nieuwsredacteur

17-11-2022 • 11:39

231

Lees meer

Reacties (231)

231
229
115
8
0
102
Wijzig sortering
Er zijn een aantal aspecten die wel relevant zijn voor deze resultaten. Zo liep dit kwartaal van 1 augustus t/m 30 oktober. In die tijd wist men dat er een nieuwe reeks van Nvidia zou komen, dus er worden sowieso al minder kaarten verkocht. Daarnaast is er in diezelfde periode alleen een eerste levering 4090 kaarten beschikbaar geweest. De tweede leveringen zagen we pas in november verschijnen en ook die zijn (op enkele modellen die door niet nader te noemen winkels voor een ± 800 euro mark-up boven MSRP worden verkocht na) allemaal alweer uitverkocht.

Verder werd de 3090 gelanceerd vroeg in de corona crisis en de prijs was dan ook al vastgesteld voor de mining periode begon. Met een prijs van $1499 werd deze kaart geplaatst in de enthousiast reeks. Een kaart die alleen is weggelegd voor de grootste fans en/of mensen die normaal ook kaarten uit de Titan reeksen kopen. Laatst genoemde was overigens meer dan $2000 ten tijden van de RTX2000-series.

De 4090 werd gelanceerd met een prijs van $1599. Dat is na alle problematiek wat betreft inflatie helemaal geen gekke prijsverhoging voor het segment waar deze kaart zich in bevindt. Nvidia heeft immers een prijsverhoging doorgevoerd van 6.67% op een kaart die geproduceerd wordt op een verbetert 5nm process van TSMC en die wafers hebben absoluut wel een fors hogere prijs dan wat Nvidia moest betalen voor een 3090 chip. Zeker met dit gigantische formaat van een die-size en de salarisverhogingen die Nvidia heeft doorgevoerd ter compensatie van de inflatie (ja, Nvidia betaalt hun medewerkers goed en de meesten zijn heel tevreden met hun werkgever). In die zin is de 4090 helemaal niet zo vreemd geprijsd, althans niet in de VS.

Waar wij nu helaas veel pijn ervaren is dat de euro/dollar koers gewoonweg niet mee zit voor ons Europeanen en daardoor is de 4090 alsnog stevig gestegen wat betreft de prijs (1969 euro voor zij die opletten bij een drop bij NBB) of meer dan dat voor mensen die een maar al te graag 2499 euro neertellen om hun favoriete ASUS ROG STRIX logo in hun kast te zien, voor verder weinig prestatiewinst, maar wel iets meer koeling. Al met al zit je dan al snel op 500 euro of meer bovenop een 3090 ten tijden van de launch. Echter heeft Nvidia niet de Euro/Dollar koers in handen, dus dat de 4090 in Europa zoveel duurder is geworden, hebben we alleen maar te danken aan het beleid van de Europese banken.

Waar wel iets te verwijten valt is de belachelijke prijs/prestaties van de 4080. De lancering van de 4080 heeft pas gisteren plaatsgevonden en daardoor is alles omtrent deze kaart niet van toepassing op deze kwartaalresultaten, maar deze kaart verdient (helaas) de slechtste performance/$ award van Nvidia van de afgelopen jaren. Een kaart die ik eigenlijk niemand zou aanraden, maar dat is iets voor een ander artikel.

[Reactie gewijzigd door Paprika op 22 juli 2024 14:09]

Dat verhaal klinkt allemaal leuk en aannemelijk.... totdat je de prijs van AMD ziet en merkt dat het verhaal niet klopt. Die markt omstandigheden zijn voor AMD op identieke wijze veranderd als voor Nvidia. Maar hun prijsverhoging is niet zo belachelijk.
De die-size van de 7900XT(X) is voor 't 5nm gedeelte maar 308mm2 waar de 4090 het met 608mm2 op een verbetert (en waarschijnlijk nog duurder) 5nm proces moet doen. Dat scheelt juist aanzienlijk in de kosten.

AMD hun kaarten zijn juist veel goedkoper om te produceren met in theorie 179-190 dies uit een wafer waar Nvidia in het beste geval er 86-92 uit zou kunnen halen.

Er komen nog wat andere componenten bij op 't goedkopere 6nm process en in kleinere formaten waardoor onder de streep AMD flink goedkoper uit is én meer kaarten kan produceren in dezelfde tijd.

De dollar - euro koers gaat verder ook van toepassing zijn op AMD, dus een 6900XT gaat 'n goedkopere launch prijs hebben dan een 7900XTX voor ons Europeanen.

[Reactie gewijzigd door Paprika op 22 juli 2024 14:09]

Maar dan is de conclusie dus niet dat die prijsverhoging komt door Corona en inflatie en dollarkoersen etc etc maar doordat hun die-size veel te hoog is tov de concurentie.

Dan moet de conclusie zijn dat Nvidia zelf ergens een grote misser heeft begaan tov de concurentie en dat het niet aan externe marktomstandigheden ligt waar ze zelf niks aan kunnen doen.
Heb jij de euro prijs van een 7900XTX al gezien? Jij stelt dat die prijs niet hoger gaat zijn. Ik denk dat je je hier flink op gaat verkijken.

De 6900XT had een adviesprijs van 999 euro incl BTW tegen een msrp van 999 USD (toen de dollar stuk voordeliger was tov de euro) waar de 7900XTX het ook met 999 USD zal moeten doen, maar dat is vandaag de dag 1170-1200 euro hier met de btw erbij. Dat is toch gewoon een stijging in prijs?

Dat AMD betere keuzes heeft gemaakt qua architectuur scaling trek ik nergens in twijfel. Ik ben misschien wel de persoon die 't meest klaagt over de 4080 van iedereen op Tweakers :+.

[Reactie gewijzigd door Paprika op 22 juli 2024 14:09]

Je probeert me woorden in de mond te leggen die ik nooit gezegd heb.
Ik heb nooit gezegd of zelfs maar gesuggereerd dat de 7900XTX prijs dezelfde gaat zijn als de 6900XT
AMD heeft de dollar prijs al aangegeven en die kun je dus naast de dollar prijs van de 4080 en 4090 leggen. En dan concludeert iedereen op de wereld (behalve jij) dat Nvidia een veel te hoge prijs heeft tov AMD.

Tuurlijk heeft de dollar koers invloed op de AMD prijs. Terwijl heeft inflatie invloed op de AMD prijs.
Het punt is nou juist dat de Nvidia prijs niet verklaart kan worden uit die aspecten, omdat hun prijs stijging veel hoger is dan de AMD prijs stijging, terwijl inflatie en dollar koers op dezelfde mate doorwerken in de prijs van AMD en Nvidia producten.
Sorry hoor, maar dat is echt geen rocket science.
Waar klagen mensen over de 4090 die wel interesse hadden in een 3090? Mensen klagen omdat er geen vervanger is van de 3080. Verder lekker op de man dan mij wel iets verwijten wat onzin is, gezien de 4090 erg gewild is en zelfs de grootste reviewers juist over die kaart wel positief zijn. Anders kijk je even op 't forum of reddit hoe blij men is met de 4090. Zolang ze niet op voorraad zijn voor de msrp prij is de prijs prima.

Als de 4080 goedkoper was geweest, dan hadden we 't zelfde scenario als Ampère gehad en dan zouden enkele techneuten een 4090 kopen omdat het kan en het merendeel van de high-end shoppers een 4080. Helaas is er geen kaart in de range van 800-1200 die de naam 4080 waard is en dus wordt er geklaagd. Iets dat ik zelf al twee maanden doe, maar je leest het videokaarten gedeelte van 't forum misschien niet of je maakt ongeacht alsnog aannames over mij die nergens op slaan :+.

De 4090 is net als de 3090 een product dat niet bedoelt is voor de mensen die shoppen in het segment waar jij naar kijkt. Daar is die hele line ook nooit op gericht geweest. Dat is al sinds de eerste Titan kaart niet 't geval.

Dit is verder mijn laatste reactie hierop, want je maakt te veel aannames op andere kopers (op een uitverkocht product notabene) die niet relevant zijn voor dit artikel.

[Reactie gewijzigd door Paprika op 22 juli 2024 14:09]

Wederom ben jij degene die op de man speelt.
En je hebt totaal geen antwoord gegeven op wat ik schreef. Begin daar eens mee.
Vergeet ook niet dat prijzen in America altijd zonder extra belastingen worden gegeven. Hier zijn de prijzen altijd inclusief BTW, Dat maakt een groot verschil.

Nu zul je in America in sommige staten een lage of zelfs geen BTW-achtige belasting betalen, dus het zou mogelijkerwijze zo kunnen zijn dat je inderdaad de kaart voor MSRP kunt kopen, maar dat is zeker niet overal het geval.
De prijzen van AMD zijn maar iets lager en dat is de MSRP, ze liggen nog niet in de winkels en je kan diezelfde markup bij de AIB varianten verwachten.
Het beleid van de banken? Dat is toch wel straf, aangezien de banken niet de schuldige zijn voor de huidige prijsvoering. Dat ligt eerder aan Covid en Vladimir.
*reactie kwam onder de vekeerde persoon terecht

[Reactie gewijzigd door Astennu op 22 juli 2024 14:09]

Ik heb altijd waardering voor jouw reacties, maar je reageert op de verkeerde :p.
Sorry was net te laat met het weg halen. Telefoon had iets raars gedaan.

Bedankt voor het compliment 😊
Het verboden woord is: Crypto
Sinds de crash vorig jaar is de vraag naar videokaarten voor mining enorm gedaald en sinds afgelopen september is het belangrijkste GPU PoW-netwerk overgestapt naar PoS. Dat zijn 100.000en GPU's die werkloos zijn geworden en op de tweedehands markt terechtkomen.
De komende maanden moet die nieuwe 40 serie het dus opnemen tegen een vloedgolf van tweedehands 30 serie die op de markt wordt aangeboden.
Ik weet niet of je ook zo blij moet zijn met een afgedankte mining kaart die 24/7 op 100% heeft gedraaid.
Dat vroeg LTT zich ook af.
Die hebben dat getest en het bleek enorm mee te vallen.
Nvidia noteert opnieuw omzetverlies door terugnemende vraag naar videokaarten
Vind je het heel vreemd met die prijzen? Ik niet.
Tja Nvidia wilt nog hun ouwe 3000 series zonder verlies verkopen.
Daarom gaan die weinig in prijs omlaag. En de 4000 series ver boven hun waarde proberen te verkopen.
Ze moeten gewoon de 3000 serie dumpen met goedkopere prijs en nog spellen bij geven net als AMD. Nu kunnen ze dat nog zonder verlies te leiden op die kaarten.

Hun verlies zit in hun magazijn die vol geladen is met 3000 kaarten.
Als deze allemaal zijn verkocht dan is er geen verlies.
Maar ze gaan het niet verkopen als ze nog steeds zo duur zijn.
AMD tegenhangers zijn tot paar honderd euros goedkoper.
RTX3090ti voor 1471,54
RX6950XT voor 946,- vs RTX3090 voor 1166,-
6900XT - 739,- vs 3080ti - 1136,-
6800XT - 639,- vs 3080 - 806,-
6800 - 569,- vs 3070ti - 677,-
6750xt - 499 vs 3070 - 590,50
6700xt - 439,- vs 3060ti - 479,-
Dit zijn volgens mij de concurenten tegen elkaar van deze generatie.
Als je zo de prijzen kijkt, is Amd gewoon stukke goedkoper en je krijgt er nog 2 games bij.
Ik dacht dat er bij Nvidia nu aktie is met 1 game. Maar weet het niet zeker.
Amd kun je een stap hoger kopen en nog ben je goedkoper uit.
Nvidia moet hier de prijzen echt aanpassen.
De prijzen deze generatie wellicht extreem,
1080 $599
2080 $699
3080 $699
4080 $1199

Let ook dat het artikel het over omzet heeft. Met hogere marges kan nogsteeds hoge winst worden geboekt.

Echter denk ik dat de cijfers een scheef beeld geven, omdat NVIDIA waarschijnlijk al jaren rekent met het aantal chips welke ze aan board partners + FE verkopen. (OEM staat apart). Waar deze chips voor worden gebruikt hebben ze geen inzicht op. Zelfs board partners hebben geen invloed waar de producten eindigen.
Ik denk dat ze zich rijk hebben gerekend met de opbrengst van Crypto mining, en nu dat z'n einde vind wordt de markt overspoeld met goedkope kaarten. In combinatie met gamers welke eindelijk een 30 series kaart hebben gevonden en de extreem dure 40- series, is het niet geheel onlogisch dat de verkopen lager zijn dan vorig jaar.

Denk dat veel van ons een generatie overslaan of op z'n minst de prestaties van RDNA3 afwachten voordat we 1000+ euro gaan uitgeven.

[Reactie gewijzigd door kid1988 op 22 juli 2024 14:09]

Volledig eens met de reactie omtrent de prijsontwikkeling bij Nvidia. Wat mij echter verbaast in de berichtgeving van Nvidia is dat de vraag naar de 40XX serie het aanbod overstijgt. Met andere woorden: Er zijn nog steeds (te)veel consumenten die ook deze prijzen gewoon accepteren.

Dit vind ik opvallend, temeer omdat bij de 4090 serie het erop lijkt dat ook nog eens sprake is van een productiefout waardoor de aansluitingen smelten. Je zou denken dat de consument hierdoor huiveriger wordt maar op basis van deze berichtgeving lijkt het tegendeel waar te zijn. Wat prijs ook is, er zijn mensen die bereid zijn het te betalen (nu nog).

Nu zal Nvidia voor een deel de productie laag houden om zodoende zelf schaarste (en hype) te creëren, dus voor het echt kunnen meten van de reactie van de consument op de prijzen zullen wij moeten wachten tot AMD zijn line-up verkocht wordt. Ik ben zeer benieuwd naar de Q1 2023 cijfers van zowel AMD en Nvidia wat dat betreft.
Maarja, wat is het alternatief? Wat je ook doet, je ondersteunt de situatie. AMD heeft zijn prijzen ook aangepast en is bovendien de inferieure keuze (qua prestaties, drivers en features)

Heb zelf recent een nieuwe PC met 3080ti gekocht. 3080ti was om en nabij 1000 euro. Veel te veel, maarja, had geen gamepc die nog even mee kon.

Nvidia wil eerst geholpen worden met de stock van hun 3000 serie voordat ze de 4000 serie naar beneden gaan afprijzen .... tegen de hoofdprijs natuurlijk ;)

[Reactie gewijzigd door ctrl-tab op 22 juli 2024 14:09]

Niet bepaald mee eens dat AMD de inferieure keus is, tenminste, in veel gevallen niet.
-De AMD drivers vind ik de laatste jaren stabieler dan aan de Nvidia kant. De instabiele drivers van jaren geleden van AMD zijn gelukkig wel behoorlijk verleden tijd. Daarbij moet ik zeggen dat ik bij AMD het erg prettig vind dat je kunt overklokken/undervolten in de AMD software zelf.
-In termen van prestaties kan AMD nu niks bieden tegenover de RTX 4080/4090 maar we zullen zien waar ze op 13 (?) december mee uitkomen. AMD was met de 6000 serie gewaagd aan de Nvidia 3000. Uiteraard is Nvidia een stuk beter met RayTracing prestaties. Maar de prijzen van AMD vond ik toch een stuk aantrekkelijker (nu helemaal trouwens) dan de Nvidia tegenhanger.
-Features, doel je dan op RayTracing en DLSS? AMD heeft een behoorlijk succesvolle DLSS "tegenhanger", alleen mis ik nog wel wat implementatie ervan.

Naar mijn mening is het alternatief, niet kopen. Je stemt met je portemonnee en dat is hoe ze het zullen voelen (beide kampen). Enige oplossing is niet upgraden of een tweedehands kaart kopen totdat de prijzen beter zijn. Nadeel is dat je dan games mogelijk niet op de gewenste instellingen of fps kunt spelen.
tsja ... andere vraag is ...zul je het echt merken als je intensief aan het spelen bent dat de framerate , en ray tracing aan staat of zal je het missen als het niet in het spel zit.....

Absurde prijzen hebben mij doen beslissen het gewoon bij de ps5 te houden voorlopig ...
Ik mis persoonlijk niks aan RayTracing. Heb het een keer aan gehad bij Metro Exodus, vond het niet heel speciaal. Er zijn enkele games waarbij het wel een mooi effect opleverde, maar niet genoeg om het als een "must have" feature te zien.

Ik snap de keuze voor een PS5 wel, als je er een kunt kopen (voor een redelijke prijs) tenminste. Consoles hebben kwa hardware een betere bang for the buck. Nadeel is dat de games weer behoorlijk prijzig zijn op consoles. Ik zit zelf een beetje vast aan de pc i.v.m. een behoorlijke verzameling games en vrienden die pc gamers zijn.
Persoonlijk vind ik dat global illumination een gigantisch verschil maakt. Ten opzichte van light maps voelt een wereld veel meer natuurlijk aan. Als ray tracing zinvol wordt ingezet kan ik het enkel maar toejuichen.
Ja en nee als.je oplet en geduld hebt kan je leuke games voor leuke prijs kopen ....bv sniper gekocht voor 39 euro en al heel wat uurtjes er in hertogen dus geld er al uit gehaald
Nou, ik vind de drivers van amd de laatste tijd een stuk beter dan die van Nvidia. Amd is zeker geen inferieure keus, met raster rendering is de 3080 bv geen partij voor de 6800xt , die ook nog eens een stuk goedkoper is.
Geen partij met raster? De 3080 is op alle resoluties wat sneller (5%) dan de 6800XT: https://www.techpowerup.c...radeon-rx-6800-xt/35.html

Maar het grote verschil is DLSS. Er zijn veel meer titels die DLSS 2 ondersteunen dan titels met FSR 2. Op 144hz of 4k/60 is upscaling meer dan welkom.

Raytracing is ook de helft sneller op Nvidia, maar dat heeft niet zoveel impact als DLSS.

Het enige voordeel van AMD is 16GB vs 10GB VRAM. Dat kan in de toekomst parten spelen.
DLSS 2 is ook al sinds april 2020 uit terwijl FSR 2 pas sinds juni 2022 uit is. FSR (1). Het voordeel is dat consoles AMD hardware gebruiken, dus ik verwacht eigenlijk wel dat het aantal titels met FSR 2 zal stijgen.

[Reactie gewijzigd door lamaa1 op 22 juli 2024 14:09]

Oh, dat zal zeker stijgen. De laatste big budget titels van de afgelopen maanden hebben dan ook zowel DLSS 2 als FSR 2 gekregen. Ik verwacht dat ook dat vanaf nu games gewoon ook FSR 2 zullen hebben.

Het probleem is echter de titels van de afgelopen 2 jaar. Die zullen geen FSR 2 upgrade krijgen. En zijn ook nog te zwaar om 1440p/144 of 4k/60 te draaien zonder upscaling. Tenzij je een 7900XT of XTX koopt. Die lijkt snel genoeg om die games zonder upscaling te draaien.
Je zou verwachten dat developers juist wel FSR2 implementeren in bestaande games .Kan nog zorgen voor een kleine boost in verkopen. Al blijft het natuurlijk de vraag of ze het het waard denken te vinden. Er staat een video online dat een developer binnen een uur FSR2 implementeert. Maar online staat dat het gemiddeld tussen de 3 dagen en 3 weken duurt (kan nog best prijzig zijn dan).

Er is een Plugin van FSR2 die ik kan gebruiken in Unreal Engine 5. Ga het binnenkort voor de grap eens proberen te implementeren.
Je werkt in dit geval met een bron uit 18 november 2020.
De laatste 2 jaar is er ontzettend veel gewijzigd aan juist de drivers van AMD/Nvidia.
Hierdoor is volgens mij dit percentage van 5% dat je noemt al volledig achterhaald.

als ik dan naar deze bron kijk (maart 2022) zie je al dat AMD op een stuk meer benchmarks ineens boven de 3080 eindigt. En de laatste cijfers die ik voorbij zag komen in de filmpjes van Linus Tech Tips en Jayz2Cents lieten beide een 6800XT zien die ruim boven de 3080 staat. (Geen zin om linkjes te plaatsen)

DLSS is wat mij betreft nog steeds een wassen neus (net als FSR). Zolang het niet breed geaccepteerd is door 80% van de game makers ga je hier amper verder mee komen. Volgens mij laten juist alle huidige generaties zien dat je prima zonder DLSS/FSR op 1440p ook gewoon 144hz kan halen. Waarom zou ik dan nog software onzin over het beeld willen plaatsen?

Leuk voor 4K, wat ik niet ga zien op mijn 27 inch scherm

@lordawesome Het klopt hoor, de verschillen zijn natuurlijk niet gigantisch. Maar het is niet meer zo dat de 3080 nu beter is dan 6800XT (ook die 5% niet). Als ik dit zie is het een beetje wisselend per game, en per resolutie. Vandaar de opmerking. (op dit moment kijk ik maar niet naar het prijsverschil van de 3080/6800xt)

[Reactie gewijzigd door osseh op 22 juli 2024 14:09]

In de bron die je aanhaalt is de 3080 over 50 spellen 3% langzamer op 1080p, 1% sneller op 1440p en 7% sneller op 4k. Weinig verschil met 2 jaar terug vind ik.

Van de 12 individuele tests komen er 2 boven de 144fps op 1440p. Op 4k halen 8 vd 12 games 60fps. Dus upscaling heeft wel zin.

En het wordt zeker niet in elke game ondersteund, maar wel in bijna elk grafisch zware spel.

Ik heb geen ervaring met 4K op 27", maar op mijn 40" monitor ziet het er prettig uit.
Dat is de review van de release. Als je kijkt hoe ze nu presteren, dan is de 6800 XT op elke resolutie sneller dan de 3080, behalve op 4k. Op 4k presteren ze gelijk.

Daarnaast denk ik dat FSR meer gebruikt gaat worden dan DLSS, op consoles gebruiken steeds meer games het al. Vaak worden games eerst voor consoles geschreven en pas daarna voor PC.
AMD inferieure keuze? Stabielere en veel completere drivers. Prestaties vergelijkbaar voor minder geld. Zuiniger bij vergelijkbare prestaties. En heb zelf legio Nvidia kaarten gehad.. Doe mij maar een 6900XT ipv een RTX3090. Sterker nog, 3090 verkocht en geen behoefte terug naar kamp groen.
AMD heeft zijn prijzen ook aangepast en is bovendien de inferieure keuze (qua prestaties, drivers en features)
Valt wel mee toch? Het gros van de mensen geeft geen ruk on raytracing en zonder die workload heeft nVidia, buiten een absurd stroomverbruik, weinig te bieden t.o.v. AMD, die wat mij betreft een veel gezondere insteek hanteren. Echt bizar om te zien hoe AMD een vrijwel verdubbeling in compute units weet te realiseren met slechts 30 watt meer stroomverbruik dan z'n voorganger. En deze zoektocht naar efficiëntie biedt voor de toekomst alleen maar voordelen. Waar nVidia straks op zoek moet naar een nieuwe architectuur om om z'n stroomverbruik heen te werken, creëert AMD die ruimte op voorhand, waardoor ze kunnen doorontwikkelen in plaats van naar een zijspoor te moeten rangeren.
Je ziet nu anders wel gewoon 4080 kaarten in de winkel liggen die iedereen gewoon laat liggen. Ik denk niet dat de 4000 serie een hit wordt
En dat is toch frappant want de 4090 is gewoon echt een geweldig product en gewoon een monster van een kaart. Zou hem graag hebben maar dan moeten ze wel de prijs bijna halveren.
Het probleem met deze kaarten is simpelweg het stroomverbruik, en dat is niet iets waar iedereen op zit te wachten in de huidige energie crisis.
Dit dus. Heb nu een 3090ti. Maar als ik af en toe kijk hoeveel watt m'n hele setup trekt.. Dat is geen lolletje meer. Alsof er een magnetron op 1000watt continu aanstaat.
Hier dus ook, een 3090Ti. Maar ik wacht nog steeds op de leverancier van zonnepanelen op mijn garage en ik krijg ook zonnepanelen op het dak van m'n huis, dus 16 panelen totaal en dan ga ik me niet meer druk maken over het stroomverbruik. :-)
Jij gamed alleen nog maar als de zon schijnt?
Zonnepanelen leveren echt niet 'alleen maar als de zon schijnt'... |:(
(De zon schijnt altijd overigens, maar ik begrijp wat je bedoeld.)

Als iemand dit roept weet je 1 ding zeker; diegene heeft duidelijk geen zonnepanelen! :P
Ik heb zonnepanelen, maar gamen doe ik met name als de zon niet schijnt (in de avond of als het rotweer is).
Je hebt wel zonnepanelen maar nog nooit van salderen gehoord? Je eerste opmerking ("Jij gamed alleen nog maar als de zon schijnt?") blijft een rare...

En tegen de tijd dat 'salderen flink is afgebouwd' (mocht dat je logica zijn) zijn we al een aantal videokaart-generaties verder, dus ook dat is nog lang niet relevant.
https://tweakers.net/nieu...-grotere-eerste-stap.html
Dus wat is nou eigenlijk echt je punt (bij voorkeur in iets meer dan 1 zinnetje)?
S6 met je salderen
zijn hoop mensen die dat niet kunnen

[Reactie gewijzigd door noway op 22 juli 2024 14:09]

Lekker agressieve/zure toon, maar daar kan ik overheen stappen.

1 - Het is niet mijn schuld dat 'niet iedereen alles kan betalen' (ook niet via stemgedrag o.i.d.), ik heb ook heel lang bijna niks meer dan het hoognodige kunnen betalen maar sinds een aantal jaren is dat (gelukkig) anders.
2 - Mijn 'setup' vreet bij lange na niet zoveel (+/- 400W piek incl. alles, gemiddeld uiteraard heel veel minder), dat anderen andere keuzes maken is hun zaak, daar mag jij anders over denken maar spreek die ander (@Snowwie) dan aan, niet mij...
3 - Of ik het 'normaal' vind, nee niet echt, maar het kan dus zijn er ook mensen die het doen, dat is dan aan diegene en niet aan mij.
4 - Iedereen 'woont thuis'... ;) Als je 'woon je nog bij je ouders' bedoelde; nee, al heeeeel erg lang niet meer.
Nee, maar ik kan met mijn reguliere digitale meter nog steeds salderen. Wat ik lever en verbruik gaat dan 1 op 1. Bij een slimme meter heb je twee meters, en dan betaal je de volle pond voor netwerk kosten, energiebelasting + een lading btw.

In mijn geval, als mijn teller nu op 50.000 staat en ik verbruik tot en met augustus 2023, 3.000Kwh, maar tegelijkertijd leveren die panelen 3.500Kwh in totaal op, dan geef ik uiteindelijk een lagere stand door aan de energiemaatschappij. En die kunnen dan geen netwerkkosten in rekening brengen, immers ik heb geen slimme meter, en zolang het wettelijk en legaal mogelijk is de slimme meter te weigeren zal ik dit doen.
De 4090 is in veel games dus zuiniger als een 3090TI. Overigens kan je ook gewoon de 3090Ti clock met 200 a 300 mhz naar beneden schroeven of de poweer target verlagen en dan zie je de power draw kelderen.

Ze zijn gewoon tegenwoordig bagger getuned maar daar kan je gelukkig zelf wat aan doen.
Dus een "fantastisch" product moet eerst handmatig getuned worden om er fatsoenlijk mee te werken?

Dat is toch de definitie van een bagger product?
Dit is alsof ik mijn oven eerst moet gaan ijken om te bepalen of de temperatuur wel overeenkomt

Je koopt hier voor 1500 euro een product, welke vervolgens het stroomgebruik heeft van een gemiddelde magnetron en dan ook nog kansen biedt op een smeltende kabel.

De prestaties zijn natuurlijk ongelooflijk, maar in vergelijking met de toegenomen stroom is het procentueel helemaal niet zo indrukwekkend meer.
Tja heel Ryzen 7000, heel 10th gen Intel en daarna, heel RX6000 en waarschijnlijk ook 7000, heel 30xx allemaal draaien ze niet op hun efficiënte punt.
Het is vreemd maar het is de wereld waarin we leven. Ze zijn alle drie zo druk bezig met benchmarkjes superioriteit dat ze vergeten dat ze bij de tabel waar ze onderaan zouden moeten willen staan allemaal veel en veel te hoog staan en dat om elkaar met een paar procent af te troeven.

Ik ben het volkomen met je eens dat het bizar is maar het is niet anders en het gaat niet anders worden ook. Vooral voor minder technische consumenten die geen flauw benul hebben van de mogelijkheid en de benodigdheid dit te doen voor efficiëntie is dit nadelig. Die eindigen met een hogere rekening zonder echt goede reden.

En je laatste zin ben ik het gewoon niet mee eens, als je dus die power cap toe voegt heb je gewoon letterlijk een prestatie gain van meer als 70% voor 0 watt meer. Dat is uitermate indrukwekkend voor een gen over gen. Dat ze allemaal ervoor kiezen om het te doen lijken alsof de efficiëntie van de chip ruk is voor die 1% tja dat is een zeer ongelukkige/domme keuze.
"als je die power cap toe voegt"
Dit is waarom het wringt. in ik denk 90% van de gevallen zal een gebruiker niks aanpassen aan de instellingen van een GPU/CPU/watever. Dus ik vergelijk in dit geval met zoals de fabrikant het product uit brengt.

En als ik daar naar kijk, is de toename in FPS nog steeds groot. Maar rekening houden met het toegenomen stroom gebruik vind ik het zelf gewoon niet zo indrukwekkend meer.

Als ik een auto koop dan beoordeel ik toch ook het rij gedrag gewoon zoals die uit de garage komt? Het zou wel raar wezen als ik eerst de auto moet gaan chip tunen voordat deze echt goed draait.
En natuurlijk zijn er verbeteringen te krijgen, maar de gigantische verschillen zoals zichtbaar bij de 4090 haalt bij mij het "topproduct" kenmerk er af.
Ik snap je punt maar zelfs dan hebben we het vs de 3090TI met ook een 450 van 450 watt over een gain van 73% performance per wat.

Tegenover de 3090 hebben we we het over 28% meer verbruik voor 80% meer prestaties.

En daar komt nog bij dat in veel games de 4090 niet eens in de buurt komt van mijn 450 watt max TBP. het verbruik verschilt van game tot game afhankelijk van hoe de gpu gebruikt word:

https://youtu.be/60yFji_GKak?t=939

Het is dus idd een rare keuze van nvidia maar ze zijn daarin niet alleen. Kijk maar naar ryzen 7000 en de peak power draw die gewoon intel evenaart. En dat alleen om een paar procent winst te halen.

Voor de gewone consument is dit waardeloos en een onbegrijpelijke keuze maar deze bedrijven zijn gewoon te druk bezig met de beste zijn waardoor ze zichzelf meer schade aanrichten dan ze beseffen. laat die overclock ruimte liever voor de overclockers.
Nou nee intel en AMD en nV leveren top end sku die niet in de performance/vermogen curve zitten maar flink stuk overheen dat zijn de Halo sku.
Bij CPU komen er nog extra zooi sku bij bij verschillende tier lagere tdp. Zo ook bij AMD. Op einde als de volledige lijnen uit zijn heb top model cpu bij AMD in 170 105 65W uitvoering als bedrijf een PIII 1133 uitbrengt of FX5800 nv30 over de top fab oc moet je dan kopen.
Vraag aanbod de vraag is hier voor consument die of geen ruk om milieu geeft of zelf voorziend is in energie daar zijn deze sku voor.
Als bang for buck en vermogen wilt gaan er zijn ook zuinigere uitvoeringen.
4080 zit op die 300w grens de 4070 heb je zuinige kaart met ongeveer 3090 performance dus je kan met next gen ook zuiniger gaan in enegie crisis.

Ook met cpu of zet halosku iet meer terug naar sweet spot net wat meer dan 105 maar flink stuk onder 170 wat met undervolt je 80 tot 90% performance pakt en met lichte undervolt mogelijk ongeveer zelfde presteerd. De niet tweaker heeft dan de 105 model.
Ik heb lopen googlen over 'hoe' je dit doet, echter alleen maar resultaten dat je het feitelijk kunt doen, maar niemand zegt echt hoe je dit moet doen. Die 200 a 300Mhz minder geeft van wat ik er van gelezen heb misschien 20fps minder op Ultra settings bij de meeste game. Nou boe van 110fps naar 90fps, voor 150 watt stroomverbruik minder, doe ik het gaat voor. Zeker als de pc meer staat te idlen is 450 watt verbruik idioot veel. Hoe verander je dit, in de bios? Via MSI Afterburner? Zoals gezegd, via Google vertellen ze je wel 'wat' je kunt doen, maar niet 'hoe' je het moet doen.
Dit kan je bij amd gewoon via de driver zelf doen. Tandwietje rechts boven en dan tabje tuning.
Daar moet je vinkjes aanvinken aan de linkerkant om de clock settings en vcore voltage te unlocken. Power cap zit rechts onderin. Bij Nvidia weet ik het niet via drivers/GeForce experience maar dan kan afterburner idd ook. En zo groot als 20 fps van 110 naar 90 is het verschil niet eens. Ik zat met Battlefield 2042 en farcry 6 op maar een verschil van minder als 8 fps op 160-180 fps.

Hey is gewoon hetzelfde als overclocken alleen dan schuif je de slider omlaag ipv omhoog. Dus voor als je een Nvidia kaart heb kan je daar even op zoeken en dan gewoon omlaag schuiven. Let op clocks omlaag zal nooit instabiliteit opleveren. Voltage omlaag kan wel instabiliteit opleveren. Als je dit gaat doen dus met kleine stapjes van 10mv tot een game crashed en dan met 15 mv omhoog en dat is zo laag als het gaat.

[Reactie gewijzigd door computerjunky op 22 juli 2024 14:09]

Ik game tegenwoordig veel op emulatoren en speel oude games.
Er zijn genoeg klassiekers die perfect op low-end pc's perfect draaien zonder grafische kaart.
Retro-games met wat quality of life mods zorgen ervoor dat je niet teveel moderne game-mechanics (betere controls en saven waar je wil) mist.
met letterlijk 1 slide en 1 click is het stroomverbruik beter per fps als welke kaart dan ook op de markt en beter als de 30 series en 6000 series van AMD met een flinke boost in prestatie.
Zet de power target naar 65^en je verliest een paar procent prestaties voor een fps gain van 70 a 80% wat gewoon ontzettend goed is.
De keuze voor de 450 watt target is dan ook ongelukkig maar dat maakt het absoluut geen slechte kaart. beetje net zoals de 6900Xt die met 190 watt bijna geen prestaties inlevert. en de 13900k die op 145 watt nog steeds ontzettend snel is. underclocken en power cappen is op high end helaas gewoon de norm geworden.
Dat stroomverbruik kan je prima terugbrengen naar max 250 watt en dan heb je een super efficiente kaart qua performance.
Kun je me ook vertellen 'hoe'? :-)
heb mijn (game)pc ook al jaaren niet meer vernieuwd. Koop wel een console :X voorheen heb ik vaak een midrange gpu gekocht ~300-400euro. Kon ik prima mee vooruit, goed niet alle settings kunnen op max. maar kan er prima mee vooruit. Echter nu koop je voor 300-400 geen midrange kaart meer. De prijzen die er nu, en afgelopen jaren (crypto) gevraagd worden gaan er bij mij niet in. Dan koop ik liever een console; geen gedoe met hardware upgrades, en blijft er geld over om iets anders dan rijst te eten.
Ik bevind mij gelukkig in de positie dat ik niet echt op een houtje zou moeten bijten (of rijst te knauwen) als ik een 4090 zou kopen maar ik trek hier gewoon de grens. Ik heb in de AMD drop destijds een 6900XT gekocht puur en alleen omdat de 6800XT er al weken niet in zat en mijn GPU stuk ging. Maar die €1000 is toch wel de bloody limit. Ik weiger pertinent om nog meer te gaan uitgeven en dan met die power draw ook.
Bovendien heb ik er een hekel aan als bedrijven zo openlijk arrogant zijn en gewoon uitdragen dat ze bewust een strategie aanhouden om de prijzen zo hoog mogelijk te houden.
Voor 440euro heb je nu een 6700 XT, dan is toch wel midrange en valt net (niet) binnen jouw budget? Enkele maanden geleden was het niet zo, maar de 6700 XT vind ik zelf vrij behoorlijk geprijsd tegenwoordig...

https://tweakers.net/pric...x-6700-xt-12gb-gddr6.html
Ben het volledig met je eens, maar helaas zie je dat op veel fronten hogere prijzen gewoon geaccepteerd worden. Kijk bv maar naar de Iphone 14. Vrijwel geen vernieuwing toch weer een hogere prijs... Auto's is tegewoordig helemaal een drame. Daar garanderen ze niet eens de prijs waarvoor je hem besteld. Kan rustig nog wat bij komen
Precies. Hoezo recessie? Je leest vaak dat we richting 'great recession' gaan maar ondertussen worden er massaal doodleuk RTX4090, iPhone 14, duurste tv en monitor gewoon gekocht.
Omdat velen nog onder vast energie contract zitten.
Omdat deel niet getroffen worden door de energie crisis voor die geen gas zonnepanelen afbetaalde koopwoning hebben.
Waar deel nogal hard getroffen worden door de energie crisis.
De vraag is aan het begin altijd groter dan het aanbod. De echte test is of het Nvidia gaat lukken om deze prijzen de komende anderhalf jaar vol te houden.
AlLs de vraag het aanbod overstijgt kan het aanbod ook gewoon laag zijn. Misschien heeft NVIDIA wel minder producten beschikbaar voor release dan voorgaande keren?

En, zoals @Ludewig ook zegt, vlak na release is de vraag altijd hoog. Als over een paar maanden de 4090's nog steeds niet aangesleept kunnen worden, dan heeft NVIDIA het echt goed gedaan.
Gamers Nexus heeft die smeltende aansluitingen geanalyseerd, en daaruit blijkt dat de voornamelijkste problemen niet zozeer komen door constructiefouten maar eerder door "extreme user error": de connector wordt niet diep genoeg ingestoken, en in combinatie met overijverig cable management wordt deze dusdanig scheef getrokken dat de pinnen slecht contact krijgen en teveel stroom door dezelfde pinnen sturen. Er zijn ook wel een paar connectoren met foreign debris in de plastic, maar dat zou slechts in beperkte mate problemen geven bij gebruikers die evengoed al user error doen.
.......voornamelijkste problemen niet zozeer komen door constructiefouten maar eerder door "extreme user error": de connector wordt niet diep genoeg ingestoken, en in combinatie met overijverig cable management wordt deze dusdanig scheef getrokken dat de pinnen slecht contact krijgen.....
Je zou dit een user error kunnen noemen, maar je zou dit natuurlijk ook een design fout kunnen noemen.
Het moet gewoon niet mogelijk zijn dat dit gebeurt zeker gezien de prijsklasse waarover we praten.
Je bedoelt deze video neem ik aan: https://www.youtube.com/watch?v=ig2px7ofKhQ

Heb ze het woord "extreme" niet horen gebruiken bij de user error. Ze laten juist zien, hoe een klein gebruikersfoutje kan leiden tot de failure mode die zij ontdekt hebben (door cable walk), en ze maken diverse opmerkingen hoe dit voorkomen had kunnen worden in het ontwerp. Maar inderdaad, de kabel er helemaal in rammen, lost in hun testen alles op.
"extreme" hebben ze inderdaad niet gebruikt, maar ik meen wel te herinneren dat ze expliciet gezegd hebben dat de user error wel erg opvallend was.
Dat de vraag nog hoger is dan het aanbod, daar baseren ze zich puur op de 4090 en dat is toch een beetje een geval apart. Dat is de categorie voor de koper die gewoon het allerbeste wil hebben en waarbij de prijs minder belangrijk is. Ik verwacht dat de 4080 en lager een stuk minder goed zal lopen, helemaal omdat met de relatieve prijs en performance van de 4080 tegen de 4090 ik denk dat veel mensen dan ook liever gelijk door gaan voor de duurdere kaart omdat je er evenredig performance voor krijgt. Die 4080 prijs moet gewoon echt omlaag... de 4090 kan waarschijnlijk nog wel op dat prijspunt blijven, tenzij AMD echt gaat verrassen.
Vandaar ook dat ik zeg dat een echt vergelijk pas zal volgen als ook AMD gebenchmarked én in de verkoop is.

En inderdaad, het persbericht vraag overstijgt aanbod kan twee dingen betekenen:
- Ze kijken naar vraag 4080 + 4090 en gooien dit samen, waarbij (al dan niet bewust gecreëerde tekort) 4090 verbloemt dat 4080 minder loopt;
- De retailers hebben heel de supply chain afgenomen anticiperend op een vraag die er niet is. Nvidia's voorraad is dan wel op, maar de eindgebruiker neemt het niet af;

Ik denk dat pas iets zinnigs over reactie consument kunnen zeggen als AMD ook op de markt is en de 30XX serie uitfaseert.
Nu zal Nvidia voor een deel de productie laag houden om zodoende zelf schaarste (en hype) te creëren, dus voor het echt kunnen meten van de reactie van de consument op de prijzen zullen wij moeten wachten tot AMD zijn line-up verkocht wordt.
En het grappige is, de RTX 4090 is gewoon volop verkrijgbaar dus ik denk dat consumenten echt wel bewust zijn wat NVIDIA aan het uitspoken is. Daarbij, 2x een 4080 uit willen brengen, de connector en vervolgens de prijs. Ik voel me nogal (plat gezegd) genaaid. Terwijl ik altijd voor NVIDIA ging.
Ik ken al 3 mensen die een 4090 gekocht hebben. Er zijn nog genoeg mensen die het er voor over hebben hoor. Slimme tactiek van nvidia, minder produceren, hogere prijzen, meer winstmarge per kaart.
Das mooi...ik ken niemand die zo'n peperdure kaart gekocht heeft.
Denk ook dat mensen beter gaan nadenken en uitzoeken over de product.

Jij typt slimme zet? hmm ben ik blij dat ik slimmer ben als Nvidia.
Denk ook dat meerdere mensen denken.......laat me niet nog is naaien met die hoge prijs.

Ik denk ook dat zij {Nvidia} hun eigen ruiten ingooien.
We zullen zien....hoop dat de andere concurrenten gaan winnen.
Om nog maar even aan te tonen hoe scheef de ontwikkelen bij Nvidia groeien.

Heb jouw data doorgetrokken naar de afgelopen 15 jaar en afgezet tegen AMD:

MSRP Development Mid/High-End

Deze weergave is gecorrigeerd voor inflatie en EUR/USD koers.

[Reactie gewijzigd door Chrono Trigger op 22 juli 2024 14:09]

Ik speel op PC maar zie mezelf niet echt als een PC gamer.


Een 3xxx GPU zal gewoon de hele PS5 generatie meegaan. Iedere 5 jaar een videokaart is genoeg.
Daarnaast zijn moderne video kaarten zo goed dat je best aardig wat generaties over kan slaan,

Ik zit zelf nogsteeds met een 1060 en die heeft nog steeds geen enkele issue in games en met de prijzen van nu ga ik dan ook niet upgraden omdat er geen noodzaak voor is.

Alleen als je 4K gaming wilt met Ray tracing is die noodzaak er maar dat is een niche markt die niet de omzet maakt.

Daarnaast is er steeds meer concurentie van IGP, een beetje IGP van AMD en Intel doen het meerendeel van de OEM markt zorgen dat er geen aparte vid kaart nodig is, zelfd de casual gamer komt heel ver , Heb voor mijn dochter ook gewoon een Intel met Iris IGP voor te gamen genomen.
Voor die prijzen zou ik er niet eens over twijfelen, maarja, msrp tegenover wat ze er hier in de winkel voor vragen is een beetje erg scheef.

Mijn 1080ti heeft destijds rond de 1000+ euro gekost (~jaar na release). Heb met de release een S22 ultra van nog een paar euro extra gekocht, maar de prijzen van tegenwoordig zijn echt niet meer te verantwoorden.

De prijzen van de 3080ti leken tot een maand of 2 terug ook de goede kant op te gaan, maar de prijzen gaan alweer omhoog lijkt het (waar je ze toen onder de 1100 euro voor het uitkiezen had, en al vanaf 950 euro).

Wellicht is het een opbouw naar de feestdagen om dan vervolgens weer 'flinke kortingen' te geven, maar ik mag hopen dat het op BF/CM een beetje goed toeven is met de prijsjes, want anders zit ik nog een tijdje langer met mijn 1080ti denk ik zo...

Een generatie overslaan is leuk, maar op dit moment gaan er vele generaties voorbij. Van de 1000 naar de 2000 serie was de moeite niet waard buiten RTX, en met de 3000 serie was de prijzen-/miningoorlog begonnen. De 4000 serie borduurt daar nog op voort, met lage producties en hoge prijzen door gebrek aan concurrentie. AMD duurt nog minstens een maand, en als die claimen beter te presteren gooien die (winkels) vast ook nog wel wat op de MSRP.
Rechtstreeks kopen is eigenlijk niet eens een optie, daar is de voorraad nog beperkter dan de winkels. Zeker als je niet een of andere BOT hebt die de order voor je vastlegd.
Het graaien van nVidia wordt afgestraft, de laatste kaart die ik heb gekocht was een 1660ti en die alles prima. :)
Het graaien van nVidia wordt afgestraft
Ja, maar ik denk niet hard genoeg. Een miljoenenboete ligt Nvidia niet wakker van zegmaar.
Weet je wel waar ze van wakker liggen, leeglopend klantenbestand bij aanhoudend strategie.
Laten we dan een keer hopen dat ze dat merken en dat ze het ego ongeveer 100% naar beneden trekken. Zo is het voor partners ook weer fijn om mee te werken.

Maar ik denk niet dat die dag komt, helaas.
Inderdaad, en vandaar dat ze zich geen zorgen maken bij NVIdia. Het omzetverlies is in de oude 30x0 serie (waar ze de volumes opzettelijk laag houden), en dat zijn tijdelijke voorraad-effecten.

De strategie blijft dus ongewijzigd: de 4090 verkoopt prima tegen de huidige prijs, de 4080 (16GB) wordt gewoon gelanceerd tegen de originele geplande prijs. En de 4070, zodra die gelanceerd wordt, zal ook gewoon duurder zijn dan de 2070. NVidia gaat geen gat creëren in hun prijzen; er komt een complete line-up van $400 tot $2000. En op dezelfde manier zal AMD een lineup hebben van $350 tot $1200, zonder grote gaten.
Komt het niet voor een groot gedeelte door de mining markt welke niet zo rendabel meer is met videokaarten?
Mining of niet, de kaarten zijn gewoon achterlijk duur. Nvidia maakt daar smerig gebruik van en gooit de prijzen omhoog van de kaarten.

Ze maken goed spul, maar Nvidia is écht een kutbedrijf. Smerige tactieken, schijt hebben aan de klanten, schijt hebben aan partners, strakke regelgeving etc etc.

Nvidia krijgt dan ook gewoon geen geld van mij. Ik koop al m'n kaarten 2e hands. Sowieso game ik niet veel, dus ik koop eens in de zoveel jaar eens een midrange kaart.

[Reactie gewijzigd door SilentDecode op 22 juli 2024 14:09]

Ik denk eerlijk gezegd ook dat heel veel gamers nvidia uitkotsen tegenwoordig na de laatste gore prijzen van 3 a 4 duizend euro voor een videokaart. Ik denk dat iedereen het zat is. Ik in ieder geval wel.
Mij maakt de hoogste prijs weinig uit het gaat mij er vooral om wat er binnen mijn budget te vinden is en wat daar dan voor performance tegenover staat.

Ik kan me echt niet druk maken over de prijs van een 4090 als ik naar een 4080 zit te kijken bijv.
Nou kwa performance kwa MSRP heeft 4090 betere bang for the buck dan een 4080.
Dan kan nog gekker worden als de straat prijs stuk hoger is bij de 4080 dan 4090 die wat dicter bij MSRP komen .

Mij maakt het wel uit deze prijs stelling is ver boven US infatie nog boven hogere productie kosten. Die trend zal nV dan ook doorvoeren in alle tiers zodra de vorige gen stock op is.
Of je kan het zo bekijken voor gamen van vroeger is de stap van modex 320x240 naar vga naar supervga 800x600 naar HD een stap die veel uitmaakt in de meer realistic rendered games maar 1440p naar 4 K heeft stuk minder meer waarde en 8K helemaal.
Dus die halo sku is overkill dat maakt midrange voor 1440p of zelfs FHD gamen zat.

Als er genoeg zielen zijn die voor deze opgeblazen prijzen het aanbod toch weg kopen geeft nV indruk dat deze prijs sprong een goede commercial keuze is.

Blijk baar zijn er genoeg zielen met geld te veel vooral buiten EU die braaf blijven kopen.
Ik denk dat de impact van de hoge prijzen nog moet blijken. Early adopters zijn er altijd en die kijken gewoon minder naar de prijs. Maar de mensen die rustig even een paar maanden wachten zijn genuanceerder en ik betwijfel of die in de 40 series stappen met deze prijzen en goede alternatieven. Ook is dat schaarste probleem nu veel minder dan 2 jaar geleden en niet iedereen zit meer thuis opgesloten.

[Reactie gewijzigd door DavidZnay op 22 juli 2024 14:09]

De XX80 en XX90 series levert pers op en de XX60+XX70 en soort van XX50 levert klanten en dus omzet op.
Die hogere segment kaarten werden niet hoofdzakelijk gebruikt voor gaming maar voor crypto’s.


Nadat verschillende landen het hadden verboden, beursen die in elkaar klappen (weer met FTX),
blijkt de groep gamers die bereid is dergelijke bedragen voor zulke kaarten neer te leggen wel heel klein is en doet wat ze altijd doen, in het middensegment kijken naar prijs/kwaliteit.

En dat zie je nu weer gebeuren,
de vorige versie is beter verkrijgbaar en een stuk goedkoper.

Daarnaast werkt het truukje met DLSS best wel goed op de 30xx waardoor je minder mist dan je zou denken.
Vind je het heel vreemd met die prijzen? Ik niet.
Het bedrijf geeft wel aan dat de vraag naar zijn nieuwe RTX 40-videokaarten op dit moment het aanbod overtreft.
Ik wel.
+3

Waar ik woon is de goedkoopste 4080 2500 euro. Een 4090? 5000 euro. Zelfs voor een 2 jaar oude 3080 betaal je nog dik 1000 euro.

Nog niet zo heel lang geleden kocht je voor 500 euro een hele leuk kaart.
Je koopt voor 500 euro nog steeds een leuke kaart.
En inderdaad, elke generatie weer zie je een daling van de $/FLOPS prijs-snelheid verhouding.

Het punt is dat games steeds meer FLOPS/frame nodig hebben (bijvoorbeeld door naar 4K te gaan), en zo groot zijn NVidia's $/FLOPS verbeteringen niet tussen generaties.
haha het is echt de dikke middelvinger van het hele klantenbestand richting Nvidia. Ik geniet hiervan, kopje koffie en een boterham. In your arrogante face Nvidia, bespreek het maar lekker met je aandeelhouders. Mafkezen
dit dus, ik gun mijn zoon echt een leuke pc, met nadruk op leuk, deze prijzen zijn zo exorbitant dat het niet meer uitmaakt of ze beschikbaar zijn of niet, tenminste niet voor normale mensen. Dus die 1660 super blijft zitten waar hij zit en wordt hooguit vervangen door een betaalbaar tweedehandsje, nieuw kopen is meer en meer een complete geld verbranding heb ik de indruk, die 40 serie word pas over een half decennium interessant op deze manier.
Nouja, blijkbaar zijn die nieuwe prijzen geen probleem als de vraag het aanbod overtreft.
Vind je het gek met die belachelijke prijzen van tegenwoordig? En ja, inflatie, euro in waarde gedaald etc... maar die verhouding loopt compleet scheef.
Klopt. Goed om te lezen dat het deksel eindelijk bij hun neus is aangekomen. Het was doorzichtig dat ze ervan profiteerden, mooi dat de consument ook met zijn portefeuille gestemd heeft dat dit niet meer goed te praten valt.
Ben ten minste blij dat AMD zijn kaarten goedkoop verkopen. Maar 1000 euro is toch nog een pittig bedrag. :/
Die worden waarschijnlijk net zo goed €1200+. AMD is niet immuun voor de zwakke euro en in tegenstelling wat de fanboys suggereren gaan ze echt geen verlies pakken omdat ze de klanten zo lief vinden.
Er is geen enkele fanboy die suggereert dat ze verlies pakken.
Wat iedereen suggereert is dat AMD met minder extra winstmarge tevreden is dan Nvidia.
Daar zit wel een groot probleem : AMD heeft veel meer extra winstmarge nodig dan NVidia, omdat AMD de R&D investering moet terugverdienen op een veel lagere omzet.
Ze hebben de afgelopen generaties steeds met die kleinere winstmarge gewerkt. En daarmee hebben ze het gat met Nvidia weten te dichten.

Er zit op dit dus moment helemaal geen groot probleem. Dat grote probleem hadden ze in het verleden en hebben ze overwonnen.
Blij dat ik destijds voor €730 een 3080 MSI Suprim-x op de kop kon tikken. De 4xxx serie laat ik lekker links liggen, koop wel weer een videokaart over 4+ jaar
En dan krik je de prijzen van de nieuwe GPUs op tot boven de 1500...

Verwachten ze dat wij dom zijn?

8)7
Ja, ze hopen dat mensen gevoelig zijn voor trends en het nieuwste willen hebben elk jaar.
Dikke anti-consumerism op z'n best :+
Nee, ze verwachten dat we de oude modellen kopen, zodat de voorraden weer normale vormen aannemen. Waarom dacht je dat ze de 4080 niet meteen gelanceerd hebben? De 3090's moesten eerst weg. De 4090 kon meteen op de markt komen omdat die geen bedreiging was voor oudere GPU's.

En dat die "4080 12 GB" teruggetrokken is? Geen supergroot probleem, NVidia verliest daar geen marktsegement, alweer omdat ze alternatieven hebben in de 30x0 serie.
1000+ euro MSRP voor de nieuwe 4080 en hele feest rondom die 4080 die eingelijk een 4070 is, maar met de prijs van een 4080 maar nu daadwerkelijk een 4070 is geworden en vinden ze dat dan raar ? 8)7

[Reactie gewijzigd door Mad_Master op 22 juli 2024 14:09]

Je bedoeld een MSRP van ~€1500 voor de RTX 4080... Maar die is dan ook nog niet uit voor die Q3 resultaten. De RTX 4090 heeft een MSRP ~€2000 en die zijn allemaal verkocht in Oktober, dus geen issue voor die Q3 resultaten.

Nee, Nvdia heeft ervoor gekozen om veel minder GPUs te leveren van de vorige generatie omdat de huidige voorraden men al niet aan de straatstenen kwijt kon. Zie de sterke daling in prijs van begin dit jaar tot augustus dit jaar, waarna de prijs stabiliseerde en in een aantal gevallen weer lichtelijk omhoog ging...

Waarom doet Nvidia dit? Omdat je normaal* gesproken een product als een videokaart maar 1x aan een potentiële koper kan verkopen, je wil dan eigenlijk dat een potentiële koper een zo hoog mogelijke prijs neerlegt voor ieder product dat je hem/haar verkoopt. Dat doe je door (langzaam) de prijzen op te drijven en dan maar hopen dat je niet al te veel klanten verliest. We zien momenteel nog steeds dat Nvidia daarmee wegkomt. Tijdens de pandemie kon Nvidia vragen wat ze wilde en nu met de RTX 40xx serie gebeurd eigenlijk hetzelfde. We gaan eigenlijk pas zien wat de lange termijn effecten van de hoge prijzen zullen zijn wanneer de rest van de RTX 40xx lijn uitkomt en tot hoelang daarna de vraag boven het aanbod uitstijgt en hoeveel meer aanbod er zal zijn tov. vraag. Als dat pas weer tegen het einde van de huidige generatie gebeurd, dan verwacht ik niet dat Nvidia zal veranderen...

*In het crypto tijdperk was dat natuurlijk anders...
NVidia is natuurlijk een significante klant verloren, EVGA. En zoveel klanten heeft NVidia niet in de GPU markt.
Ja, maar dat gat vullen de concurrenten van EVGA natuurlijk op. Want de eindklanten van EVGA en diens concurrenten willen natuurlijk een Nvidia kaart hebben en als ze die niet meer kunnen krijgen van EVGA dan moeten ze wel naar bv. een MSI of Gigabyte... Dus een weggevallen 'tussenstop' die er zijn eigen labeltje op zet (gechargeerd), maakt dus niets uit voor de NVIDIA verkopen.

Wat belangrijk is zijn de 'consumenten' verkopen en die zijn duidelijk achteruit gegaan. Die potentiële consumenten zijn of al voorzien, wachten op de nieuwe generatie (in het betaalbare segment), hebben het geld er (niet meer) voor, halen uit de 2e hands markt, hebben de tijd er niet meer voor of hebben nu weer de gelegenheid om andere dingen te doen die ze tijdens de pandemie niet konden doen.

De vraag is hoeveel van de NVIDIA hoge sales daad werkelijk van consumenten kwam en hoeveel van de cryptoboeren die consumenten kaarten gebruikten voor hun cryptoboerderijen...
Ze hebben gewoon smerig spelletje gespeeld.
Elke keer met K smoes b.v de corona.....yea right
Of te weinig grondstoffen .....yea right
En nu hebben ze teveel oude 3 series op de plank liggen? en jij gelooft die bullshit verhaal?
Zo smerig is dat spelletje niet geweest.

De pandemie zorgde wereldwijd voor productie en transport disruptie (dat is een feit), dus dat is niet zo een issue. Omdat iedereen thuis zat (in de westerse wereld) had men veel loze tijd, dus veel vraag naar zaken die computer spelletjes doen spelen. De productie quota stond allang vast en die ging NVIDIA/AMD echt niet verhogen door een tijdelijke influx van vraag, dat hebben ze voorheen ook nooit gedaan. Dus naast die 'pandemie vraag' ook nog eens heel veel vraag vanuit de cryptoboeren.

Die vraag vanuit de cryptoboeren begon al een jaar geleden echter op te drogen toen de cryptomarkt (weer eens) begon in te storten. De restricties begonnen ook langzaam aan te verslappen en veel gamers hadden zo iets, ik wacht nu al een paar jaar op een nieuwe kaart, ik kan dat laatste jaartje ook wel wachten op de RTX 40xx serie. Dus gehele vraag begon in te klappen, terwijl aanbod vanuit productie gelijk bleef, maar het aanbod op de 2e hands markt alleen maar groter werd.

Je ziet heel goed eind november de prijs stabiliseren van de duurste kaarten (3090) om vervolgens een halve maand later te gaan dalen. We zitten nu op 36% van de prijs van eind november. Je ziet nu de prijs stijgen van een aantal populaire modellen omdat daar de voorraad op van begint te raken of al op is.

Die productie bleef gewoon nog door draaien sinds eind november vorig jaar (lopende contracten met producenten waar NVIDIA niet onderuit kwam), dus daar zijn flinke reserves opgebouwd terwijl de de vraag verdampte.

NVIDIA speelt heel goed in op die veranderende markt en maakt zeer goed gebruik van de stijgende prijzen door de vraag tijdens de pandemie en de cryptogekte, dat hebben ze bij de vorige crypto gekte namelijk ook gedaan (1080 => 2080) met de prijzen. Als NVIDIA hogere prijzen kan vragen is dat alleen maar goed voor NVIDIA. Door de extreem hoge prijzen van de 40xx serie en de release uit te smeren over een veel langere periode zullen een hoop potentiële kopers terugvallen op de oudere generatie die goed genoeg is, nog steeds vrij prijzig is, maar significant goedkoper dan wat er momenteel beschikbaar is van de 40xx generatie.

Ik verwacht dat NVIDIA de komende paar jaar heel veel pijn gaat lijden in het consumenten GPU verkoop segment. Maar ze zijn best snugger geweest daar, want ze kunnen dat gedeeltelijk opvangen door hun cloudgaming streamingdienst aan die mensen te verkopen die nu geen nieuwe videokaart kopen...

Bron:
https://ethereumprice.org/
uitvoering: MSI GeForce RTX 3090 Suprim X 24G
MSRP voor de 4080 (founder edition, die is meestal nog goedkoper dan andere kaarten) is zelfs €1.469
.
Terugnemende vraag? Denk dat de gigantische prijzen de oorzaak zijn.
Ja, de vraag neemt echt niet af....... Ben benieuwd of de prijzen gaan zakken. Wellicht als AMD met een goed alternatief komt dat ze wel moeten.
terugnemende vraag door hoge prijzen
Wanneer je een prijsverhoging van 71% op je 4080 kaart t.o.v. de vorige generatie (3080) doorvoert moet je niet gek opkijken als mensen je producten links laten liggen.

Ergens denk ik dat ze klem zitten en niet anders konden omdat er nog zulke grote voorraden onverkochte Ampère kaarten liggen bij retailers. Als ze de 4000 series redelijk geprijsd hadden waren al die kaarten in 1 klap veel minder waard.

Hoe het ook zij, er ligt hier een fantastische mogelijkheid voor AMD om wat moois tegenover Nvidia's ridicule prijzen te zetten.

Van wat ik heb gehoord zijn de AMD kaarten ook veel goedkoper om te produceren, mede omdat zij wel innovatie toepassen en dit keer voor een chiplet design zijn gegaan. Ook het proces waarop de kaarten worden gebakken is een stuk goedkoper dan het 4nm proces waar Nvidia gebruik van maakt.
Die gehele overgebleven voorraad ampère valt in het niets bij de absurde winsten die ze de afgelopen 2 jaar gedraaid hebben met die scalper prijzen op de "nieuwe "LHR" modellen en TI modellen. Ze hebben die hele reeks meer winst gedraaid als ooit tevoren in de gaming divisie. Zelfs al verkopen ze die kaarten met verlies hebben ze nog meer winst als ooit.
Totaal geen medelijden mee.
Die winsten zijn vooral door Nvidia gemaakt en niet door de retailers zelf, die kregen gewoon de hogere prijzen doorgerekend van Nvidia. Zie het hele EVGA debacle.
Tja daar zijn geen enkle harde feiten over te vinden. Vertrouw EVGA dus ook niet op hun blauwe ogen. Als ik even naar de afgelopen 5 jaar finanacien van bijvoorbeeld MSI kijk dan hebben ze in 2020 en 2021 echt behoorlijke winsten geboekt ten opzichte van voorgaande jaren.

Feit is dat deze bedrijven daar nooit openheid over zullen geven. En zo lang ze nog steeds 5+ modellen uitbrengen wat meer kosten met zich mee brengt als 1 model zal het allemaal wel mee vallen.
Waarom zou EVGA stoppen met Nvidia videokaarten maken als het allemaal zo ongelooflijk winstgevend voor ze was de afgelopen paar jaren?
alsje even naar de feiten van het EVGA verhaal doet kan je zien dat ze ondanks dat de kaarten maar een derde van de winst per product in procenten opleverde het wel goed was voor het overgrote deel van hun netto winst en die omzet ook nog eens betaalde voor de transport en andere kosten van andere divisies. Onder de streep kan EVGA het dus wel eens heel moeilijk gaan krijgen.

Het was voor hun dan ook meer een principe kwestie dan een goed doorberekende financiële keuze. Ze hebben gewoon het overgrote deel van hun omzet en daarmee netto winsten en kostendekking overboord gegooid. Dat kan je doen uit principes maar dat betekend niet dat de rest niet gewoon fors geld verdienen.
Je noemt feiten, maar ik zie geen bronnen van die feiten. Daarnaast heb ik op het kanaal van Moores Law is dead andere dingen gehoord. 1 van de hoofdredenen waarom EVGA brak met Nvidia was dat ze uitgeknepen werden, dat het steeds moeilijker voor ze werd om kwalitatief goede kaarten te maken en daar een behoorlijke marge op te pakken, zelfs tijdens de cryptoboom prijzen.

Als je kijkt naar de winsten van Nvidia dan hadden ze dergelijke gigantische winsten ook nooit behaald als ze netjes de boel voor MRSP hadden doorverkocht aan manufacturers. Wat mijn vermoeden dat de boel doorberekend werd verder onderbouwd.

Maar goed, de waarheid zal wel ergens in het midden liggen. Feit blijft dat ze met deze prijzen zichzelf uit de markt prijzen. En mijn vermoeden is dat ze dat stiekem ook willen, de 4090 willen ze wel verkopen en daar is dan ook voldoende voorraad van. Maar de voorraad van de 4080 schijnt heel slecht te zijn, omdat ze verkopen van 3090tis en 3090´s niet te veel willen kannibaliseren.
Raar he dat er meer vraag is dan aanbod als nVidia geen nieuwe leveringen doet omdat ze 3000 serie kaarten eerst willen verkopen.

Maar opzich ben ik ook wel verbaast over hoeveel mensen bereid zijn dit soort bedragen neer te leggen voor alleen een gpu. Dit is niet nieuw tijdens corona zijn er ook enorm veel kaarten voor 1000+ en zelfs 2000+ verkocht maar ik vind dat persoonlijk te duur. Ik heb alles van af de Voodoo banshee mee gemaakt de tijden dat je het beste van het beste (Bv een 9700 Pro) voor +-450 euro kon kopen zijn helaas allang voorbij :'( maar het neemt steeds extremere vormen aan bij alle componenten. Ook moederborden Bv het goedkoopste AM5 bord is 200 euro en dan heb je niets van luxe aan boord.

Het is op deze manier eens reeds minder leuke hobby omdst de prijzen enorm gestegen zijn door het steeds weer bij maken van hogere markt segmenten qua prijs.
De huidige kaarten zijn ook niet veel meer waard dan +-450 euro hoor. Ze willen gewoon flink cashen das nagenoeg alles.
Qua productie kosten niet. Maar je hebt ook nog een stuk R&D wat terug betaald moet worden. Nu zit er op die 4090/4080 wel echt een idiote marge. Zou me niets verbazen als die inderdaad boven de 50-60% zit.
Die R&D moest bij de voorgaande kaarten net zo hard terug betaald worden.
Klopt maar amd heeft Bv bij Hawaii en Vega minder geïnvesteerd dan in RDNA3 ze hadden toen minder te besteden.
Waarom zou je vergelijken met AMD?
Ik doelde op de R&D die Nvidia bij de voorgaande generaties gespandeerd heeft.
Het is een voorbeeld ook nVidia investeerde nu meer. Die tensor cores zijn niet bepaald ontwikkeld voor gamers. Maar we betalen er wel voor. Ze proberen die nuttig in te zetten bij games maar so far lukt dat nog niet super goed. (dlss 1 gebruikte ze maar dst gaf te veel issues met latency dus 2.0 gebruikte ze niet meer).
Hey Astennu.
Even geheugen opfrissen.
De Radeon 9700 pro was toen 250 guldens, das 120 euros.
En de non pro was te krijgen voor 200 guldens.
Dit weet ik heel goed omdat ik toen een Radeon 9700 non pro had gekocht voor dat geld.
Jaartje later kwamen de 9800.
En een maat van mij had toen de 9800 aiw gekocht voor 250 guldens, deze koste toen normaal zo'n 500 guldens. Op advies van mij. Ik wist ook dat deze opengezet kan worden naar een 9800 pro, en dat had ie ook gedaan met succes.

AM5 borden van 200 is nog niet eens met pci-e 5.
1 versie hoger heeft dat pas. En die kost 269 euros.
Ik had pas nog geckeckt omdat ik zit te kijken voor een nieuwe pc volgend jaar.
Wie weet ga ik weer naar Intel als Amd zo duur is geworden.
Vooral hun mobo's van AM5 zijn niet normaal.
Ik kijk volgend jaar wel weer.
Dan zijn de prijzen mischien aangepast.
Weet je dat zeker?
De msrp van de 9700 Pro was namelijk 399 dollar. De kaart kwam in 2002 uit. De euro is in 1999 ingevoerd dus toen de 9700 Pro uit kwam was de euro er al.

Gezien de dollar prijs is die 430 euro die ik in mijn hoofd heb zo gek nog niet aangezien we hier ook btw moeten betalen.

Misschien heb ik ergens nog een factuur in een oude klapper maar denk niet dat ik die 123 kan vinden 😂

En over AM5 vs Intel is Intel zo veel goedkoper dan? Oprechte vraag ik zit heb nog niet naar ADL RTL bord prijzen gekeken.

[Reactie gewijzigd door Astennu op 22 juli 2024 14:09]

Ik weet zeker over 9700.
Ik kocht het wel een jaartje later toen de 9800 al uit was.
Wie weet heb je wel gelijk over de msrp van toen.
Omdat ik een jaartje later had gekocht was ie mischien wel in prijs verlaagd.
Ik dacht dat ik het toen in 1998 of 1999 had gekocht.

AM5 en Intel mobo's moet ik nog kijken hoeveel Intel versies kosten. Want die heb ik nog niet gecheckt.
Amd am5 versie vind ik te duur.
Maar als Intel net zoveel kosten, dan moet ik kiezen.
Zoals ik al zei, ik koop volgend jaar pas nieuwe pc, dus ik check dan wel weer welke sneller en voordeliger is.
Ik heb het over de prijs @ launch ik heb hem toen meteen gekocht. De prijzen daalde toen ook wel wat meer dan nu. Toen was het heel normaal dat er ieder jaar iets nieuws uit kwam. Toen had je ook nog iedere generatie een refresh.

In die gen hadden we de 9700 Pro, 9800 Pro, 9800 Pro 256 en daar na de 9800 XT.
De eerste was Aug 2002 de laatste oktober 2003 der allemaal in slechts een jaar tijd.
Ik heb het even opgezocht, je heb gelijk, ik heb zaagsel tussen me oren. haha
Release date september 2002.
Prijs 399 usd.
Dan had ik het een jaartje later voor 200 euro's.

Klopt dat toen elk jaar nieuwe hardware komen.
Nu is dat om de 2 jaar voor gpu.
En nog eens om en om een generatie niet te verkrijgen omdat mining gekte elk 4 jaar is.
Dus ik neem iets sterker dan dat ik nodig heb, want 8000 serie is straks weer niet te krijgen.
Als ik zo bereken komt eind 2024 weer een mining gekte. En heel 2025 is het weer raak. Tis nu al 2x voorgekomen, 2017 en 2021. 2013 was er ook, maar daar hadden we nog niet veel last van. Dus zo gezien weten we wanneer we wel en moeilijk aan een gpu kunnen komen.
Ik denk dat ik een 7800 ga kopen straks.
Ja ben benieuwd hoe het met mining zit over een paar jaar. ETH minen is geen ding meer en dat was het sinds 2013 wel voornamelijk. Tijd zal het leren. Maar ondanks dat zijn de prijzen sowieso gigantisch gestegen wat ik erg jammer vind. Vind videokaarten van 1000+ eigenlijk te duur.
Voor gamers is een gpu van 1000 zowiezo te duur. Zoals ik al zei, een gpu mag niet duurder zijn dan een console. 400-500 is eigenlijk goeie prijs voor een mid range gpu. Duurder dan dat is voor mensen die op pc beter uit wil zien dan console. Voor sommige mensen kan ik dat begrijpen. Voor mij is als het ongeveer hetzelfde uitziet als console vind ik genoeg.

Ik heb twouwens even Intel setup gecheckt. Is ongeveer even duur als Amd setup. Amd mobo moeten wel wat goedkoper worden. Ik wil wel PCIe 5 hebben. Geen PCIe 4 hebben mis ik ook al wat performance. Omdat Amd toen nog geen B550 borden had, had ik een B450 gekocht. En rx6000 draaien op PCIe 4. En aangezien Amd AM5 zeker 3 generaties mee kan, wil ik wel gelijk toekomst bestendig zijn. Na r7000 kopp ik r9000 series. Ik sla altijd 1 gen over op cpu. Ga niet elk jaar upgraden, ben gek. Haha

Ik vind jouwe commentaar altijd erg welkom. Jij weet echt veel over pc hardware.
Dat vind ik inderdaad ook. Door de. Mining boom waren de 6600/6700 en de 3060/3070 eigenlijk wat te duur maar die zitten nu onder de console prijzen en zitten qua prestaties ook op het niveau van de consoles. In het geval van de 6700 en 3070 wat hoger. Qua visuals zullen die redelijk gelijk zijn. Pc's hebben iets meer overhead en minder optimalisatie door hardware verschillen.

Ik had idd ook even zitten kijken en de goedkoopste s1700 borden hebben geen pcie 5 en ook geen DDR5 dat scheelt natuurlijk ook veel in de kosten. Maar dan nog zijn de amd borden in verhouding duur je zou toch eigenlijk ook borden rond de 150-160 verwachten. Nog veel geld maar dat zou haalbaar moeten zijn. Hopelijk zijn ze begin volgend jaar wat goedkoper zodra ze de Zen4X3D CPU's uitbrengen want die kunnen de gaming kroon terug gaan pakken van Intel.

Ja inderdaad dan zou je voor B650E moeten gaan daar zijn borden die PCI-E 5 16x hebben en dan 2x 5.0 nvme dan kan je wel vooruit.
Ik wacht zelf denk ik tot B750E met Zen5X3D al. Zal dat denk ik een refresh zijn. Mocht het verschil qua ram oc enz dan klein zijn kan ik altijd nog voor B650E gaan.

Al begint het wel te kriebelen om met het nieuwe platform te gaan spelen. Het verschil is nu te klein met de 5800X3D die ik nu heb.

Ik ga dan denk ik liever met de 7900XTX spelen om weer een Navi 3x ervaringen topic met clock scaling tests te kunnen maken.
Weet nog niet of ik hem daar na ga houden vanwege de hoge prijs. Maar wil wel graag testen wat de verscholen met Navi 2x zijn. De verschillen qua overclocking waren tussen Navi 1x en 2x ook heel interessant doordat 2x alles met targets doet en geen exacte waardes zoals Navi 1x en Vega dat wel deden.

Thanks for the compliment :) . Het is al 20 jaar mijn hobby. En vind nieuwe hardware architecturen en platformen nog steed interessant dus volg de ontwikkeling nog steeds dagelijks.
Mooi, hoop dat ze 70% verlies gaan draaien als AMD de performance kan waarmaken en dan betaalbare midrange kaarten gaat aanbieden. Direct aan miners kaarten verkopen in 2020 en 2021, nu hopen dat Intel ook de volgende generatie op orde gaat krijgen. Nvidia is nu precies zoals 3DFX hun ondergang heeft ingeleid destijds door te hoge prijzen en de 3rd party fabrikanten zich tegen zich te keren.
Nvidia is nu precies zoals 3DFX hun ondergang heeft ingeleid destijds door te hoge prijzen en de 3rd party fabrikanten zich tegen zich te keren.
Niet helemaal vergelijkbaar. Een reden voor de neergang van 3dfx was een afhankelijkheid van verouderde architectuur. Met andere woorden: te weinig technische vernieuwing ten opzichte van de concurrentie. 3dfx is een klassiek voorbeeld van de remmende voorsprong. Nvidia heeft dat niet, want die zijn marktpartij nummer één.

Verder klopt het wel dat ze er een potje van maken bij sommige fabrikanten (EVGA), maar het merendeel levert gewoon.

[Reactie gewijzigd door The Zep Man op 22 juli 2024 14:09]

Wat wel een beetje vergelijkbaar is met nvidia . De 4090 heeft zo een enorme power vraag (en bijhorende problemen van smeltende kabels) omdat nvidia het laatstste uit hun architectuur past terwijl AMD met hun ontwerp (afkomstig van ryzen cpu's) meer toekomstig gericht zijn.
Niet helemaal waar, 3DFX had hele grote tech achter de hand maar waren “greedy” en dachten dat ze het wel konden uitmelken, Nvidia heeft deze tech gekocht, hierdoor is ook de Geforce 256 mee ontwikkeld.

Op dit item kan niet meer gereageerd worden.