Omzet en winst van Nvidia dalen door tegenvallende gpu-verkopen

Nvidia heeft in het laatste kwartaal van 2018 veel minder gpu's verkocht dat in datzelfde kwartaal een jaar eerder. De omzet daalde met 24 procent. Dat komt omdat mensen minder gpu's kopen voor het delven van cryptocurrency en omdat de RTX-videokaarten niet aanslaan.

Nvidia bevestigt bij de bekendmaking van zijn kwartaalcijfers nog eens dat de verkoop van high-end RTX-videokaarten niet is wat het bedrijf ervan had verwacht. Dat blijkt uit een transcriptie van het gesprek met investeerders na de presentatie. Concrete cijfers over aantallen videokaarten geeft Nvidia niet, maar het bedrijf zegt dat onder andere de RTX 2080 en 2070 het niet zo goed hebben gedaan als gehoopt.

De Gaming-divisie behaalde een omzet van 954 miljoen dollar, een daling van 45 procent ten opzichte van een jaar eerder en een daling van 46 procent ten opzichte van het vorige kwartaal. Ook daalde de omzet bij de OEM & IP-divisie, waar de verkopen van socs voor consoles onder vallen. Het ging wel goed bij de divisies Datacenter, Automotive en Professional Visualisation, die allemaal meer omzet behaalden dan een jaar geleden. De Gaming-divisie is echter verreweg het grootst en de sterke daling daar heeft veel invloed op de cijfers.

Eind januari stelde Nvidia zijn verwachtingen al naar beneden bij. Als verklaring gaf Nvidia toen al onder meer de tegenvallende verkopen van videokaarten met de nieuwe Turing-architectuur. Ceo Jensen Huang zei toen dat consumenten wellicht wachten tot de RTX-kaarten goedkoper zijn, of dat ze wachten op meer ondersteuning voor raytracing in games.

De omzet in de laatste drie maanden van 2018 bedroeg 2,21 miljard dollar, 24 procent minder dan in hetzelfde kwartaal een jaar eerder. De nettowinst bedroeg 567 miljoen dollar, een daling van 49 procent. De cijfers over heel 2018 waren wel hoger dan die van een jaar eerder. De jaaromzet kwam uit op 11,72 miljard dollar, een stijging van 21 procent. Dat komt omdat er aan het begin van het jaar nog veel videokaarten werden verkocht, mede dankzij de hype rondom cryptocurrency.

Nvidia-cijfers per divisie

Door Julian Huijbregts

Nieuwsredacteur

15-02-2019 • 10:42

148

Reacties (148)

148
146
94
11
2
32
Wijzig sortering
Is ook niet gek. Ik heb 2x een RTX kaart gekocht en 2x waren ze beide DOA (zie forum). Uiteindelijk toch maar de 1080Ti gekocht omdat ik er echt geen vertrouwen meer in had. En als je hun Geforce forum mag geloven zijn het idd hele slechte kaarten qua structuur.

En RTX is toch wel waar ze op gegokt hebben en waardoor ze ook hebben verloren. En dan komt het minen er nog bij, maar dat imo maar bijzaak.
De omzet van Nvidia van in Q4 gaat om verkoop aan partners. Daar komen tegenvallende RTX verkopen nog niet in terug omdat de verkoop daarvan domweg te laat begon.

In Q1 zal je het sentiment over RTX terugzien.
De omzet van Nvidia van in Q4 gaat om verkoop aan partners. Daar komen tegenvallende RTX verkopen nog niet in terug omdat de verkoop daarvan domweg te laat begon.

In Q1 zal je het sentiment over RTX terugzien.
Dit is tot heden de meest nuttige post in deze thread. Ik zie vooral heel veel emotie op basis van de prijsstelling van de nieuwste RTX reeks. Ongetwijfeld heel vervelend maar het heeft hier niets mee te maken. Dit gaat over de cijfers van de vorige 3 maanden en die RTX lineup speelt dus nauwelijks een rol.

Deze daling zal vooral te verklaren door van het wegvallen van crypto. Daarbij is het nog even de vraag in welke mate Nvidia dat onderschat heeft. In ieder geval hebben ze last van volume vanuit AMD dat tot heden niet naar gamers ging:
the GamesBeat interview, Huang was asked how cryptocurrency, which accounted for only 10% of its quarterly revenue, expanded to one entire quarter’s worth of inventory. He stated this was because the channel also included AMD’s inventory.
He explained that since NVIDIA’s GTX 10801060 is the top-selling GPU and AMD’s RX 580 is number 24, the ratio of GTX 1080s to RX 580s in the channel inventory is 90:10. If AMD suddenly injects RX 580 GPUs into the channel and changes the inventory ratio to 50:50, it would create excess inventory, which is difficult to sell. The sudden rise in GPU inventory because of declines in crypto-related GPU demand suggests that this instance is a one-off and not affecting its long-term growth opportunities.
Ondertussen zie je inderdaad RX 580 kaarten steeds goedkoper voorbij komen. Dus wil Nvidia zijn volume in stand houden dan hebben ze een 'Polaris killer' nodig. Ongetwijfeld de 1660 Ti die eraan zit te komen.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 00:50]

Meest nuttig? :?

NVIDIA today reported revenue for the fourth quarter ended Jan. 27, 2019.
Volgens mij zijn er wel degelijk RTX kaarten verkocht in januari, en zijn de cijfers wel degelijk te wijten aan de slechte verkoop van deze kaarten.

Of, om Nvidia zelf even te quoten:
"Second, deteriorating macro economic conditions, particularly in China, impacted consumer demand for our GPUs; and third, sales of certain high end GPUs using our new Turing architecture, including the GeForce RTX 2080 and 2070 were lower than we expected for the launch of a new architecture. These products deliver a revolutionary leap in performance and innovation with real time ray-tracing and AI, but some customers may have delayed their purchase while waiting for lower price points or further demonstrations of the RTX technology and actual gains. The significant volatility in our gaming business over the last few quarters has been challenging to model."
Meest nuttig? :?

NVIDIA today reported revenue for the fourth quarter ended Jan. 27, 2019.
Volgens mij zijn er wel degelijk RTX kaarten verkocht in januari, en zijn de cijfers wel degelijk te wijten aan de slechte verkoop van deze kaarten.

Of, om Nvidia zelf even te quoten:
"Second, deteriorating macro economic conditions, particularly in China, impacted consumer demand for our GPUs; and third, sales of certain high end GPUs using our new Turing architecture, including the GeForce RTX 2080 and 2070 were lower than we expected for the launch of a new architecture. These products deliver a revolutionary leap in performance and innovation with real time ray-tracing and AI, but some customers may have delayed their purchase while waiting for lower price points or further demonstrations of the RTX technology and actual gains. The significant volatility in our gaming business over the last few quarters has been challenging to model."
Je verwart blijkbaar mijn uitspraak (nauwelijks) met geen rol. Het punt is niet dat er geen kaarten zijn verkocht. Sterker nog dat de RTX 2060 pas vanaf 23 januari in Nederland te koop was betekent niet dat ze pas vanaf dat moment door Nvidia worden meegeteld. Nvidia verkoopt immers nauwelijks zelf kaarten, ze verkopen primair chips aan AIB's. Die hebben de chips al eerder aan partijen als Asus, MSI, enz verkocht. Dus het telt zelfs iets eerder mee.

In dit geval zijn in december de RTX 2070 en RTX 2080 kaarten in ieder geval mondjes maat bij gamers gezien; https://store.steampowered.com/hwsurvey/videocard/

Echter het punt is dat een kwartaal 3 maanden duurt en in de regel een launch tegenwoordig met hele gebrekkig voorraad wordt gelanceerd. Ik kan mij eigenlijk uberhaupt geen enkele gpu launch herinneren waarbij in de eerste 2-3 maanden direct een signficant positief effect had op de omzet en winst cijfers. Meestal valt daar pas in de cijfers 6 maanden na launch wat over te zeggen.

Een onderschatte mining impact blijft, ondanks wat nvidia in het persbericht heeft gezet, toch de meest logische verklaring voor de daling. Daar loopt momenteel overigens ook een rechtzaak over tegen Nvidia omdat die beweren dat de mining impact minimaal is. Wat dat betreft zou ik dan ook niet verwachten dat Nvidia het snel op mining zal gaan gooien...

https://www.fudzilla.com/...ed-over-data-mining-crash

[Reactie gewijzigd door sdk1985 op 23 juli 2024 00:50]

Vreemd dat nvidia dan zelf zegt dat de verkopen van rtx kaarten tegenvallen. Dit zouden ze namelijk nooit zeggen als dit wat jij hierboven noemt het geval zou zijn. Je zou wel heel dom zijn te roepen dat je producten niet willen verkopen als dit niet waar zou zijn. De performance van nieuwe generaties valt al jaren aan een stuk tegen met de meerprijs die iedere generatie weer wordt gevraagd. Wat ook meespeelt is dat een Xbox al voor 160 euro te koop is, waarbij je bijna iedere game kunt spelen die je ook op een pc hebt. Dan is een videokaart kopen van 1200 euro opeens helemaal niet meer zo'n logische keuze.
Vreemd dat nvidia dan zelf zegt dat de verkopen van rtx kaarten tegenvallen. Dit zouden ze namelijk nooit zeggen als dit wat jij hierboven noemt het geval zou zijn. Je zou wel heel dom zijn te roepen dat je producten niet willen verkopen als dit niet waar zou zijn. De performance van nieuwe generaties valt al jaren aan een stuk tegen met de meerprijs die iedere generatie weer wordt gevraagd. Wat ook meespeelt is dat een Xbox al voor 160 euro te koop is, waarbij je bijna iedere game kunt spelen die je ook op een pc hebt. Dan is een videokaart kopen van 1200 euro opeens helemaal niet meer zo'n logische keuze.
Ik weet niet zo goed hoe ik hier op moet reageren.

In de eerste plaats beweer ik nergens dat RTX wel goed verkoopt. Dus waarom je doet alsof dat mijn punt was snap ik niet.

Verder staan er nogal wat beweringen in waarvan ik ga fronzen. Sinds wanneer kun je namelijk bijna iedere game die je op een pc kunt spelen op de xbox spelen? Ik denk dat 70% van mijn library niet op de xbox beschikbaar is.

Dat de aanschaf van een videokaart van 1200 euro niet heel logisch is kan ik verder ook prima begrijpen. Maar waarom zou dit de omzetdaling veroorzaken? Die goedkopere kaarten zijn er toch ook gewoon? De GTX 1060 is onderhand goedkoper dan ooit en tevens populairder dan ooit (bijna 15% van alle steam users heeft zo'n ding). In die redenatie lijkt mij het wachten op een nieuwe 1060 dan nog een logischere verklaring dan het bestaan van een 1200 kaart. Hele duure kaarten kennen we immers al veel langer (titan).
De RTX2070 en RTX2080 zijn allebei voor het begin van Q4 gelanceerd. Dat wil dus zeggen dat nVidia al voor het begin van Q4 kaarten aan AIB's is gaan leveren. Dat betekend dus ook dat er voor de gehele tijdsduur van Q4 RTX kaarten geleverd konden worden.

Er is dus weldegelijk iets te zeggen over het sentiment ten aanzien van de (duurdere) RTX kaarten. Dat het wellicht een relatief klein deel zal zijn van de totale omzet, doet daar niets aan af. Het is zelfs niet geheel ondenkbaar dat het relatief klein aandeel van de totale omzet een teken aan de wand is.

Bedenk dat als de AIB partners zien dat hun RTX kaarten niet goed verkopen, ze ook geen nieuwe chips van nVidia af gaan nemen zolang ze een te grote voorraad op de plank hebben liggen. Dat heeft dan weldegelijk direct impact op nVidia's Q4 cijfers.
Ik kan persoonlijk alleen maar speculeren over het moment waarop AIB partners hun bestellingen bij NVidia moeten doen. Dat moment bepaalt de omzet voor een kwartaal.
Ik verwacht een lead-tijd van maanden en een Pascal aankoopverplichting om Turing GPU's te mogen kopen

Als de verkoop van Turing écht traag ging dan zag je de symptomen van oversupply met concurrentie op prijs en grote beschikbaarheid. Dat zie ik nu bij een 2080TI niet.

Daarnaast speelt dit effect mee: Uitspraken over sentiment en verwachtte omzet doet men op basis van de laatste informatie. Uitspraken over omzet doet men op basis van... omzet.

De rechtzaak over omzet van miningkaarten draait hier ook om. Als de omzet tegenviel tov verwachtingen dan kan dit gebeuren. Als Nvidia informatie niet verteld heeft waarvan men wel wist dan is dat een liability.
Anoniem: 298276 @Yzord19 februari 2019 00:16
Blijkbaar niet erg op de hoogte. Meer dan de helft van de GPU's dat Nvidia de laatste 3 jaar verkocht heeft zijn gerelateerd aan crypto currency, het is vrij logisch dat hun omzet evenredig daalt met de dalende vraag voor GPU's voor crypto currency farming.

RTX is nog altijd vrij nieuw, de meeste gaming developers en publishers zijn op heden bezig om RTX in bestaande (actieve) franchises te brengen en ook hun nieuwe franchises (Blizzard, EA, Activision, etc). Geef het een jaar of twee en dan gaat vrijwel elke gaming titel het in hun features hebben.

Geforce forum moet je altijd met een korreltje zout nemen, zoals eender welk forum. Ikzelf zit in een gaming circle met bijna 200 leden waar we enkel RTX GPU's hebben, en tot heden heb ik nog niemand horen klagen en we hebben zelfs allemaal eentje van de 1e of 2e batch. 90% van al die meldingen waren tijdens bij de launch, en zijn op heden ook zo goed als niet meer aanwezig.
Dit is de prognose voor 2019. We zitten nu in Q1-2019, dus de omzet van dit kwartaal is nog niet gerealiseerd. Hetzelfde geldt voor Q2 t/'m Q4-2019.
Het fiscale kwartaal is niet gelijk aan het kalender kwartaal. De cijfers die nVidia gisteren naar buiten bracht, zijn van kwartaal 4 van fiscaal jaar 2019. Tweakers heeft dat correct weergegeven. Waarom nVidia zijn fiscale kwartalen zo hanteert, is een vraag die je zou kunnen stellen. Fiscaal jaar 2019 eindigde op 27 januari van dit jaar.

We zitten nu dus in Q1 van fiscaal jaar 2020, wat nVidia betreft.

[Reactie gewijzigd door dahakon op 23 juli 2024 00:50]

En het tweede kalender kwartaal :P
Ondanks dat lijkt het me dat momenteel het omslag punt is bereikt op voor welke prijs videokaarten worden verkocht en wat mensen er voor uit willen geven. De prijzen stijgen iedere generatie weer opnieuw als een idioot terwijl de performance erg achter blijft. Daarnaast is de functie ray tracing een leuke toevoeging maar voegt voor snelle online gaming weinig toe.

Misschien dat er met deze trend een prijs daling gaat ontstaan zodat videokaarten in het hoge segment weer betaalbaar worden.
Iedereen die hier klaagt over de prijzen, blijkbaar kan AMD het ook niet goedkoper doen en heeft minder features dan die van NVIDIA. Niet om hier een fanboy te spelen, maar het zijn vrij geavanceerde kaarten.
AMD draagt dan ook nog altijd de gevolgen van hun verkeerde gok van HBM te gebruiken voor gaming kaarten. Ze hadden gehoopt dat dit sterk in prijs ging dalen, en dan GDDR6 een stuk minder goed ging zijn dan het bleek te zijn.

De Polaris kaarten (RX 480, 580, etc) zijn wel gewoon competitief met de GTX 1060 en lager en kan je voor heel leuke prijzen vinden. Dat was natuurlijk niet zo toen de Bitcoin hype bezig was, maar nu zijn de prijzen best goed. Het is wachten op Navi om de volgende kaarten die niet "spoiled" door HBM zijn te zien.

Hoe dan ook, dat neemt niet weg dat Nvidia gewoon ongelooflijk gulzig is geworden. De launch prijzen van de RTX 2000 reeks waren even hoog als de prijzen van de 1000 reeks op dat moment voor dezelfde performance. RTX is leuk, maar de performance hit is het gewoon echt niet waard voor de meeste mensen en er zijn sowieso bijna geen spellen die het ondersteunen. Ja die komen nog, maar dan ga ik nu geen RTX kaart kopen hé.

Vanuit mijn perspectief is het feit dat Nvidia nu Freesync ondersteunt en veel groter verkoopsargument dan hun RTX voor mijn volgende kaart. Een collega heeft de RTX 2080 Ti gekocht, maar die heeft geen Battlefield V. RTX kan hem niets schelen, hij wou gewoon meer performance om te gamen op 4K. Het zijn anekdotes, maar het is toch echt geen goed teken als zelfs (sommige van) de mensen die je allerduurste kaart kopen, je fancy nieuwe en unieke features gewoon niet gebruiken...
Vanuit mijn perspectief is het feit dat Nvidia nu Freesync ondersteunt en veel groter verkoopsargument dan hun RTX voor mijn volgende kaart. Een collega heeft de RTX 2080 Ti gekocht, maar die heeft geen Battlefield V. RTX kan hem niets schelen, hij wou gewoon meer performance om te gamen op 4K. Het zijn anekdotes, maar het is toch echt geen goed teken als zelfs (sommige van) de mensen die je allerduurste kaart kopen, je fancy nieuwe en unieke features gewoon niet gebruiken...
Dat is eigenlijk altijd zo. Wie gebruikt er nu echt de launch features van de 1xxx reeks? Denk aan Ansel en de mogelijkheid om een 2e/3e monitor onder een hoek te plaatsen om zo een diepte effect te creëren. Wat resteert is de performance. Die is van de RTX reeks helemaal zo gek nog niet, alleen de prijs is dat helaas wel.
De Polaris kaarten (RX 480, 580, etc) zijn wel gewoon competitief met de GTX 1060 en lager en kan je voor heel leuke prijzen vinden. Dat was natuurlijk niet zo toen de Bitcoin hype bezig was, maar nu zijn de prijzen best goed. Het is wachten op Navi om de volgende kaarten die niet "spoiled" door HBM zijn te zien.
Je ziet op de steam survey de RX 580 eindelijk een opmars maken, maar met 0.85% is de 21e plek nog een wereld van verschil met de 14.87% van de GTX 1060. De verwachte zondvloed van RX 480 kaarten is nooit gekomen, die zijn alweer aan het dalen en hebben gepiekt op 0.64%. Combineer dat met de beschikbaarheid en je kunt vrij eenvoudig concluderen dat AMD gewoon veel te weinig van die Polaris kaarten heeft laten produceren. 'Kwade tongen' beweren bovendien dat zo'n Polaris kaart eigenlijk net zo duur om te maken was als een GTX 1080. Dat zou dan weer een goede verklaring zijn waarom AMD er de afgelopen 2 jaar niet meer heeft geproduceerd; er zit te weinig winst op.

[Reactie gewijzigd door sdk1985 op 23 juli 2024 00:50]

Ik vind het ook een beetje kip ei verhaal. Als AMD of NVIDIA niet met deze technieken komen komt het ook nooit in games. Tuurlijk is de 2080 TI een dure kaart maar er is altijd een premium geweest op de top end kaarten. En deze kaarten zijn ook gewoon sneller dan ooit.

De performance hit is wel groot, toevallig laatst een video van GamersNexus gekeken over de nieuwe metro game. Daar is goed te zien dat gebouwen zelfs ver uit het zicht een ray tracing behandeling krijgen.

En volgens mij had de RTX 2060 een redelijke prijs/performance, maar als je vanuit een 1000 serie komt is het upgraden meestal niet waard.

[Reactie gewijzigd door vanthome op 23 juli 2024 00:50]

Tuurlijk is de 2080 TI een dure kaart maar er is altijd een premium geweest op de top end kaarten. En deze kaarten zijn ook gewoon sneller dan ooit.
Het probleem is juist dat Nvidia de prijs/perf verhouding hetzelfde wilt blijven houden. Ergo Nvidia wilt dat voor elke € de eindgebruiker er lineair op vooruit gaat, en niet exponentieel of kwadratisch. De afgelopen 3 generaties ziet de klant dat low-end hardware low-mid prijzen heeft gekregen, low-mid hardware midrange prijzen, midrange hardware premium prijzen, en premium hardware halo prijzen (i.e. Titan prijzen).

Als je een lang geheugen hebt dan weet je dat dit een abnormale trend is in de IC wereld. Maar Nvidia bevindt zich ook in een abnormale positie, waarbij het deze markt vrijwel domineert. Intel bevond zich ook in een abnormale positie wat betreft de x86 CPU markt. Intel toonde vergelijkbaar monopolistisch gedrag, al koos Intel voor de tegengestelde optie (prijzen hetzelfde laten houden, maar performance per generatie niet noemenswaardig te laten stijgen), totdat AMD met Zen op de markt kwam.

Wat deze markt nu vooral nodig heeft is dat men ophoudt met het maken van excuses voor Nvidias prijs/perf beleid.
dit is volgens mij de grootste reden: er zijn nu veel mensen met (goeie) GTX 10x0 kaarten thuis. En dus geen reden tot upgrade.

Op CPU/... gebied is er ook weinig redenen tot upgrade.

In de geschiedenis is het al vaak zo geweest: na een super reeks, valt de volgende meestal tegen i.v.m. verkoopcijfers.

Ikzelf ben nog geen jaar van HD7870 naar GTX1080 gegaan...
Iedereen die hier klaagt over de prijzen, blijkbaar kan AMD het ook niet goedkoper doen en heeft minder features dan die van NVIDIA.
We moeten nog afwachten om te zien wat de RX3000 serie gaat doen. Als het enigszins in de buurt komt van de gelekte prijs en performance dan zal het geduchte concurrentie zijn voor NVIDIA. Dat die geen realtime raytracing kan doen is voor het grootste deel vd markt de komende jaren nauwelijks relevant.
Ik wacht eerst wel de officiële benchmarks af van die kaarten. En het blijft toch een kip en ei verhaal. Later is ray tracing misschien wel heel normaal, maar er zal toch echt iemand mee moeten beginnen.
De AMD Radeon VII kaarten zijn zo duur vanwege de keus voor HBM2 geheugen wat schreeuwend duur is. Voor de rest volgt AMD natuurlijk Nvidia want ja die gekke consumenten betalen het dus waarom niet die hoge prijzen.
Normaal is AMD altijd diegene die goedkoper aanbied dan de andere partij, zoals met hun Ryzen CPU. Toch maken ze hier een even dure GPU. Nu schijnt het inderdaad dat het hmb2 geheugen duur was maar dat is ook hun eigen keus geweest.
Ze konden niets anders want waren mogelijks wat problemen met Navi.
Kan je beter iets hebben dan niets.

Die kaarten zijn ook wel goed voor semi-pro content creators.

[Reactie gewijzigd door fentoment op 23 juli 2024 00:50]

Over de problemen weet ik zo snel niks. Maar met het beperkt aantal gpu's dat ze hebben gemaakt biedt het ook niet veel meer waarde.
Klopt, alleen het HBM2 geheugen zelf kost ongeveer $320.
Daarna heb je nog R&D + overige kosten, dan kunnen ze volgens mij de VII kaart niet voor veel minder aanbieden.
De enige reden dat de Radeon VII zo duur is, is omdat het een compute chip is die nu als gaming product in de markt wordt gezet, en dat zo goed als aan verlies, en dat om 2 redenen:

1. Navi heeft problemen en komt later dan AMD wilde. AMD vond dat ze IETS moesten brengen aan nieuws over GPUs op CES.
2. Dit noodplan is haalbaar omdat nVidia de markt heeft gezegd 'een high-end GPU kost tegenwoordig 1000$!'. Als dat niet was gebeurd, en high-end GPUs gewoon 500-600$ kostten zoals in de pascal-generatie (wat ook al een stuk duurder was dan in de Maxwell generatie), dan had AMD het niet kunnen maken om 700$ te vragen voor de VII. Die prijs is echter al verlieslatend, nog lager was gewoon onmogelijk geweest want dat zou AMD te veel kosten, enkel en alleen om het wachten op Navi wat te 'verzachten'.

Het klopt dus in zeker zin dat AMD het niet echt beter kan doen dan nVidia, maar het ligt genuanceerder dan jij het voorspiegelt: het is niet zo dat GPUs nu eenmaal zo veel moeten kosten.

nVidia heeft abnormaal enorm vette winstmarges omdat er geen concurentie is, en AMD is dure workstation/server hardware die normaal 2000$+ kost aan het verkopen onder de kostprijs omdat ze denken IETS te moeten verkopen aan gamers, wegens problemen met hun echte gamingproducten.

De marktstuituatie is dus verre van normaal. We moeten met zn allen hopen dat Navi een beetje degelijk is (al reken ik er niet op, al ben ik AMD fan). Zo neit mag je je voorbereiden op nog een vijftal jaar stagnatie en hogere prijzen voor GPUs, net zoals we op de CPU markt zagen toen Intel geen concurrentie had.
Ik denk ook dat de prijsstijging te maken heeft met de telkens groter wordende dies. Als je kijkt naar Gp102 en Tu102 is er best een groot verschil,471mm2 tegen 754mm2. Dat betekent gewoon dat er minder chips per waver gemaakt kunnen worden, en dan worden de gpus ook duurder.

Het is niet dat ik de prijzen ook niet hoog vind hoor, maar ik denk wel dat er meer achter zit dan even meer marges pakken.
Anoniem: 298276 @kiang19 februari 2019 00:32
Het is een tendens overal in de technologie sector, de bedrijven dat met zichzelf competitie hebben liggen niet zo wakker van de prijs want ze weet dat de meeste fans deze prijs toch zullen betalen, maar nu hebben bedrijven zoals Apple en Nvidia wel gemerkt dat er een limiet is voor de maximale bedragen dat een klant wilt betalen.

Monopolie of niet, het is een natuurlijke gang van zaken bij prijzen van producten, ze testen het limiet, zakken terug als het tegenvalt, en dan gaan ze uiteindelijk terug over het vorige limiet om het volgende limiet te bereiken.
Tsja, niet zo vreemd met die extreem hoge prijzen.
Dat idd, de prijs was kunstmatig hoog door de cryptogekte maar nudat dat is afgezwakt zijn vooral de consumenten het kooppubliek en die gaan geen 1000,- euro betalen voor een videokaart die weinig extra’s biedt t.o.v. een veel goedkopere kaart minus raytracing. Mensen met geld die ook nog hobbyist zijn zullen het er voor over hebben. Iemand met een 1080ti zal zich wel tig keer bedenken eer dat ze dergelijke bedragen neerleggen.

Komt nog bij dat console gaming ten opzichte van vroeger veel volwassener is qua online, voor de helft van zo’n kaart heb je een ps4 pro met ps+ en een game.. waar je ook online mee los kan..
Ik wilde heel graag een 1080ti maar die was slecht verkrijgbaar en duurder dan een 2070. Dus heb nu een 2070.
Idd. Ik was gehyped voor de 2080Ti maar al dat geblaat over ray tracing én de idiote hoge prijzen hebben ervoor gezorgd dat ik daar absoluut niet meer geïnteresseerd ben. Is toch te idioot zulke hoge prijzen??? Zelfs de 2080Ti kost(te) €1400 bij sommige webwinkels! Ipv een RTX kaart, heb ik maar de 1080Ti nieuw onder de €700 gekocht.
Het duurste model van Asus ligt zelfs rond de 1800 geloof ik. En de duurste 2080 (non ti) die ik zelf heb gezien was volgens mij van inno3D en die was 1700 euro.
Anoniem: 298276 @neoxie19 februari 2019 00:35
Ik heb mijn 2080ti gekocht voor €1400 de eerste dag, en op verscheidene websites werd die prijs gehanteerd, dus denk dat jullie op dure websites aan het kijken waren.
Tsja, niet zo vreemd met die extreem hoge prijzen.
Precies, en de reden dat de Geforce GTX 1080 70 a 90% sneller is dan de Geforce GTX 980, en dat de RTX 2080 maar 20 a 40% sneller is dan de Geforce GTX 1080, en dat mensen eindelijk gaan zeggen, dan maar over een paar jaar een nieuwe Grafische kaart kopen.
Men heeft het gehad met de absurdistische prijzen van de RTX2080 en 2070. De markt slikt dit niet meer als zoete koek en wacht rustig af tot betere tijden. De vorige generatie voldoet nog prima en de nieuwe zijn de enorme meerpijs simpelweg niet waard.
Met deze prijzen wordt het heel moeilijk een Game PC voor je kind te verantwoorden.
Get ready for the rise of the console!
Je moet het gewoon met wat minder doen.
We hebben gelukkig ook nog kaarten als de AMD RX580, die bieden ook prima performance die je laatst voor nog geen €170 kon krijgen, maar nu nog steeds onder de €200 is.

Doe daar nog een Ryzen 2600 processor bij, leuke ssd, van wellicht wel 1TB ( zijn inmiddels ook best goedkoop ), kast, voeding e.d. bij en je hebt voor rond de €600 / 700 een heel sterk systeem.

[Reactie gewijzigd door JohanNL op 23 juli 2024 00:50]

Vergeet de ultrawide 144hz monitor, Met leds bezaaide Razer gaming muis/tobo incl. 100 programmeerbare knoppen en de gaming stoel niet.
Bij consoles vallen al die dingen weg. Weinig mensen die geen TV hebben staan, controller heeft alle knoppen die je nodig hebt en voor de TV staat gewoon de bank. Al met al scheelt dat toch wel ;)
Ben je toch niet bij master race?
Daar draaid het toch om ?
Pc's zullen altijd meer frames pompen dan een console.
Dat is toch een oneerlijke vergelijking.
Ten eerste kun je ook een pc aansluiten op een TV, dus wil je je PC echt als een console vervanger gebruiken zet je hem ook op dezelfde plek.
Maar er zijn natuurlijk ook veel mensen die speciaal een andere televisie/monitor gebruiken voor hun console, in een gezin omgeving waarbij de centrale televisie moet gedeeld worden onder meerdere mensen kan ik mij daar zeker iets bij voorstellen.
En ja, gaming muis/toetsenbord, en dan ook nog wel van Razer, dat zijn allemaal eigen keuzes.
Je kunt voor drie tientjes al een heel redelijk toetsenbord en muis krijgen.
Weliswaar zonder ledjes, programmeerbare knoppen, mechanische knoppen, lazer precisie e.d. maar het is gewoon prima te doen en dat past dan ook nog prima binnen mijn €600 / 700 berekening.
Bij de consoles zit er dan al wel een controller bij en heb je dus die kosten er in eerste instantie ook niet bij, kun je daar ook zeker wel veel geld aan randapparatuur uitgeven.

Daarnaast zal er bij een echte game pc of game console gebruikelijk het meeste geld naar games gaan.
Dezelfde titels op de PC zijn meestal goedkoper dan op de console en je hebt aardig wat gratis games, dus daar bespaar je dan weer flink op.
Je hebt dan op de console nog wel eens zo'n abonnement constructie waarmee je games goedkoper kunt krijgen, maar dat is meestal ook beperkt en dus ook zeker niet ideaal.
En als je het niet zo erg vind kun je ook nog veel games piraten op een PC, bij de console kan dat meestal ook maar daarmee maak je hem dan meestal ook gedeeltelijk onbruikbaar, al dan niet te praten over het instellen en onderhouden van zo'n console hack, dat is voor veel mensen teveel gevraagd.

Het mooie is ook dat een PC in de basis open is, je kiest zelf wat voor OS je er op zet en wat voor programma's je installeert.
Dit bied veel voordelen, maar ik kan mij ook voorstellen dat er veel mensen zijn die hier geen interesse in hebben, een console blijft nog steeds de makkelijkste oplossing.
je gebruikt je computer ook voor andere doelen... wat met een console veeeeeel moeilijker is.

bankieren?
het nieuws lezen?
beetje schoolwerk?
wat anders van administratie?

Een smartphone is ook maar gedeeltelijk een alternatief hiervoor.
Het enige is dat ik dan mijn FPS alleen nog maar op halve snelheid kan spelen, en dat ik na een half uurtje pijnlijke handen en last van mijn rug heb. Geef mij maar een bureau met toetsenbord en muis. En eerlijk gezegd kan ik prima games spelen zonder al die meuk.

Ja, gamers kopen die "rommel" graag. Maar dit is een beetje hetzelfde als beweren dat je met de trein kan gaan of met een sportieve auto kan rijden. Een gewone auto lukt ook.
Want in een game pc voor je kind kan geen andere (lees goedkopere) kaart, die waarschijnlijk het merendeel van de huidige gamemeuk kan trekken?
Stiekem wil MrMonkE er gewoon zelf op spelen he ;)
Lol, consoles is de definitie van low-end gaming. Nee man, even jezelf inlezen ;-)

http://www.reddit.com/r/pcmasterrace

[Reactie gewijzigd door Marctraider op 23 juli 2024 00:50]

De markt zit ook niet te wachten op die raytracing meuk. Er is bijna niks dat er gebruik van maakt. Waarom zou je er dan wel voor betalen?
Dat is een kip-ei verhaal, de markt maakt er niets voor omdat er geen ondersteunende hardware voor is. En de hardware is er niet omdat er praktisch niets op draait.

Nvidia heeft nu een stuk hardware uitgebracht waar mee gespeeld kan worden, hiermee kan de software ontwikkeld worden die er gebruik van maakt, maar dat kost tijd.

Persoonlijk zou ik het gebruiken voor mijn Renders(als de software dat zou ondersteunen....) die dan zeer waarschijnlijk een heel stuk sneller gaan. Voor games, eh. Het zal op den duur vast wel toevoegen, maar ik stoor me eerder aan slecht geanimeerde gezichten ed dan aan licht wat niet precies klopt oid.
Unreal Engine 4 heeft zojuist ondersteuning voor RTX gekregen:

https://wccftech.com/unreal-engine-ray-tracing-nvidia-rtx/

En wat betreft het argument dat de markt er niet op zit te wachten en er niks is dat er gebruik van maakt: Dat was met shaders en T&L ook zo. De markt heeft gewoon domweg tijd nodig om het te ondersteunen.

In 2000-2002 kon men prima leven met dat idee. In 2019 waarin alles maar zo spoedig mogelijk op de markt moet komen om de behoefte van ongeduld te verzadigen kan dat gewoon niet meer. En dat is zonde, want dat raakt juist zijstapjes zoals RTX.
Dat is het probleem: RTX is geen 'zijstapje', het is een fundamenteel andere manier van renderen en moet nu naast rasterized techniek worden ingezet. En dan moet het er ook nog eens beter uitzien want anders is het niet eens de moeite. Verder moet je op dit moment DX12 hebben dat ook qua adoptie nog niet bijster veel voet aan de grond krijgt, er is een flinke performance hit, geen noemenswaardige content en de content waar het wel in zit gebruikt DXR slechts voor enkele of één effect (in Metro alleen global illumination).

En dan komt er nog bij dat het grafisch niet consistent is met rasterized. Als je de Metro screens ziet, dan zijn scenes met DXR vaak veel te donker om nog speelbaar genoemd te kunnen worden. Andere scenes zijn dan weer ontzettend licht en fel. Prettig om naar te kijken allerminst, en naast rasterized vraag je je soms af waar we nu helemaal mee bezig zijn...

Dit is allemaal niet vergelijkbaar met T&L of shaders. We kwamen toen van een startpunt dat overduidelijk inferieur was. Tegenwoordig staat ray tracing tegenover een vergevorderde en super efficiënte rasterization. Daarbij is er ook weinig draagvlak in de markt, alleen Nvidia maakt GPUs die er iets mee kunnen. AMD heeft al geroepen dat dit pas brede adoptie kan krijgen wanneer de midrange (en dus consoles) het ook lekker kunnen draaien en daarin hebben ze gelijk. De eisen liggen simpelweg hoger, we zijn verwend.

[Reactie gewijzigd door Vayra op 23 juli 2024 00:50]

Vanuit rendering perspectief is het nu een zijstap.

Je moet mijn reactie dan ook niet zien als kritiek op RTX, maar support.

Exodus gebruikt RTX voor meer dan alleen GI. Het probleem is echter dat we zo gewend zijn aan gerasterizeerd belichten dat we raytraced belichting ''onnatuurlijk'' vinden overkomen.

Ik noem Shaders en T&L omdat ook in die tijd gamers er eerst ondersteuning voor moesten hebben, niets meer, niets minder.

Overigens ondersteunt AMD ook ''gewoon'' real time raytracing middels Radeon Rays/ProRender via OpenCL. Echter wordt hier dan de GCN cores voor aangesproken, wat dus vooral vergelijkbaar zou zijn met DXR via de Fallback Layer of CUDA/GCN RT simulatie via Vulkan.
Ik zie het meer als de zoveelste eenzijdige innovatie , waarbij de innovator er in prille begin niet veel aan heeft. Soms met pech slaat het pas aan in periode waar de concurrentie ook al bij is.
Matrox Bumpmapping
AMD64
Mantle-> DX12 & Vulkan
Of innovatie flopt Larabee of als standaard ondersteund wordt breekt het door doordat de games het dan massaal oppakken.

Probleem is dus dat de meeste Gamestudio voor 1 Render path gaan die alle gangbare GPU ondersteunen. En exotische features altijd een optie zal zijn om te ondersteunen.
Ik heb in januari een RTX 2070 gekocht en ik zie juist geen enkele reden om te upgraden van een oudere videokaart naar een GTX 10xx serie als de RTX 20xx serie nieuw op de markt is.

De GTX 10xx serie presteert prima, maar die producten zijn ook alweer bijna 3 jaar op de markt en ik weet zeker dat Nvidia zich meer gaat richten met updates en optimalisatie op de RTX 20xx series.

In januari had ik nog een GTX 960, waarom zou ik deze dan upgraden naar een GTX 1080 als ze al 2e hands OP V&A 400-500 euro zijn en niet beschikbaar zijn bij pricewatch?

Een RTX 2070 presteert beter dan de GTX 1080 (wat ik van benchmarks opmaak uit verschillende websites), is 2,5 jaar nieuwer dan zijn voorganger en kost nieuw €540 atm, terwijl een 2e hands GTX 1080 voor €400-550 word verkocht op V&A.

Sterker nog, als ik de benchmarks moet geloven (incl games), dan presteert zelfs de RTX 2060 bijna gelijk met de GTX 1080. De RTX 2060 is €375. De GTX 1070 ti kan een stuk duurder zijn dan de RTX 2060 en presteert minder als ik de benchmarks moet geloven.
Mwah gtx 1080 verkoop je 2de hands niet zo snel voor 400 euro men wilt echt max 300/350 betalen.
Dan kun je alsnog een nieuwe RTX 2060 kopen die ook rond de GTX 1080 presteert ;)
Haha, ik probeer m'n GTX 1080 juist te verkopen ;p
Een RTX 2070 presteert beter dan de GTX 1080 (wat ik van benchmarks opmaak uit verschillende websites), is 2,5 jaar nieuwer dan zijn voorganger en kost nieuw €540 atm, terwijl een 2e hands GTX 1080 voor €400-550 word verkocht op V&A.

Sterker nog, als ik de benchmarks moet geloven (incl games), dan presteert zelfs de RTX 2060 bijna gelijk met de GTX 1080. De RTX 2060 is €375. De GTX 1070 ti kan een stuk duurder zijn dan de RTX 2060 en presteert minder als ik de benchmarks moet geloven.
Ja, maar ik vermoed dat er nog een hoop potentie zit in de RTX 2060 en 2070 kaartjes als we kijken naar het aantal aanwezige transistors:
  • GTX1070/1070Ti/1080: 7,2 miljard
  • RTX 2060/2070: 10,8 miljard
Nou mag ik dat zo niet helemaal tegen elkaar wegzetten natuurlijk omdat er ook gekeken moet worden naar kloksnelheden, shader processors, texture mapping units, render output units, tensor cores en nog meer factoren. Maar afgezien daarvan denk ik dat NVidia uit de RTX 2060/2070 nog meer kan halen op termijn met driver optimalisaties.

In ieder geval is sinds deze week de performance van ray tracing in Battlefield 5 verbeterd door de Battlefield 5 patch en de nieuwste NVidia 418.91 drivers: ik heb hem hier aardig smooth draaien op 1440p ultra met Ray Tracing op medium met een RTX 2070.

[Reactie gewijzigd door Jorn1986 op 23 juli 2024 00:50]

De price setting van RTX is op zich een test van nVidia om te zien wat de carry capacity van de markt is. Als hun hogere prijzen direct leiden tot lagere verkoop, weten ze nu wat de limiet en de balans van price/demand is, en gaan ze dit gebruiken in hun toekomstige pricesettings.

Let wel, dit wil niet noodzakelijk zeggen dat prijzen significant zullen zakken.Als ze met +10% prijs -5% verkoop hebben, is dit nog altijd een positieve business case.

Ook kunnen ze gewoon het been stijf houden tot eind dit jaar. Zo creëer je "markt honger", en na enkele maanden heb je toch mensen die overstag gaan.
Inderdaad. Achteraf is het heel makkelijk om zeggen 'goh hoe zou dat nou komen', maar in de smartphonemarkt hebben we gezien dat consumenten best ver willen gaan in het betalen voor elektronica.
Ik heb dat altijd een raar argument gevonden. Een GPU is geen smartphone waarmee je lekker kunt patsen. Alleen insiders kunnen een GTX1080Ti van een AMD RX480 onderscheiden. Bovendien zit je GPU thuis in je kast (al dan niet zichtbaar), terwijl je dure iPhone/Galaxy overal uit je zak te toveren is om ter plekke indruk (ahum) te kunnen maken...
Ik denk dat er toch echt wel (meestal gamers) zijn die graag een beetje patsen met hun GPU :) . Maar als ik naar mezelf kijk dan gaat het niet zo zeer om te kunnen patsen met de nieuwste telefoon/GPU etc. maar heeft het meer te maken met gadget-geilheid (als dat een woord is). Ik ben gewoon gefascineerd door al het nieuwe dat er is op tech gebied. En als ik het geld heb en het moment is daar dat ik een nieuwe GPU moet hebben dan koop ik toch graag the latest and greatest :P . (binnen mijn budget passend)

[Reactie gewijzigd door BrainBugs op 23 juli 2024 00:50]

Precies dit, ik kon mezelf nog net overtuigen dat ik die 2080ti niet nodig had. maar een 2080 moest toch echt wel. Ik kan hem verantwoorden door het gebruik van een 34" 1440p scherm op 120hz. Maar of ik het echt nodig had.. uhh nee.


Gadget-geilheid... hoe leg je dat uit aan de vrouw.
Patsen met een Gpu? Tegen wie dan? Kan me niet voorstellen dat bijvoorbeeld de dames onder de indruk van mijn Gpu raken.... :P :P
De hoge segment GPU consument is daarbij ook nog eens goed geïnformeerd en laat zich niet leiden door reclamecampagnes. Want zoals je het al zegt, uiteindelijk gaat het om de cijfertjes, die kun je niet opleuken met populistische content.
En die cijfertjes vertellen ons dat die performance van de eerdere generaties kaarten al (9xx en 10xx) al zodanig is dat voor standaard resoluties (1080p-1200p) een upgrade niet echt iets toevoegd, tenzij de stap naar 1440p, 4K of een multi monitor setup gemaakt wordt. Dat wil niet zeggen dat de RTX kaarten geen performancewinst betekenen. Zeker ten opzichte van de 1070 en lager is er een flinke stap vooruit gezet (~50%, Hardocp). De vraag blijft alleen of je als aspirant koper die performancewinst wil gaan uitnutten met een andere beeldschermopstelling. Mijn vermoeden is dat voor veel mensen een van de drie opstellingen die ik hierboven noemde niet per se nodig is, hoe mooi ze ook zijn.

Het is niet voor niets dat aan de RTX kaarten Raytrace functionaliteit is toegevoegd. Deze feature is een USP voor de RTX kaarten, in de hoop de verkopen wat te kunnen aanjagen. Maar de raytracefunctionaliteit is nog een nieuwe feature, dat maakt het nog geen standaard die breed toegepast wordt in veel computergames. Ik verwacht dat maar een hele kleine groep kopers deze functionaliteit als argument hebben om nu een nieuwe kaart te kopen.

Al met al denk ik dat deze resultaten los van de inzakkende cryptominingmarkt wel waren te verwachten.

[Reactie gewijzigd door teacup op 23 juli 2024 00:50]

Ik heb letterlijk nog nooit iemand zien patsen met een iphone, meestal zit er een hoesje rond waardoor je niet ziet wat het is.

On topic: Nvidia heeft hetzelfde probleem als Apple, te hoge prijzen voor de nieuwste devices terwijl de oude nog perfect mee kunnen. Ik heb bij launch de gtx1070 gekocht en moet nog altijd het eerste spel tegenkomen dat niet op 1080p ultra draait met 60fps gelocked.
dit is omdat smartphone is "part of our daily lives and use" en GPU niet echt.
net als Internet... mens kan niet meer zonder en smartphone is een verbinding naar internet buiten je dak
Daar zie we ook dat de duurste Apple telefoon ook niet zo goed verkoopt, er is blijkbaar toch een grens bij de 1000 die mensen te veel vinden.
Een prijsverhoging is vrij logisch voor een bedrijf als Nvidia, alleen had nvidia er dan wel voor moeten zorgen dat de the rtx 20** echt een grote vooruitgang waren, maar dat waren ze eigenlijk totaal niet.
Het probleem voor Nvidia is dat ze concurreren met Nvidia. :)

Nvidia heeft zeer veel verkocht voor de crypto’s. Nu deze bubbel is geklapt worden veel van deze kaarten in de tweedehandsmarkt verkocht, tegen soms liquidatieprijzen.
Smartphone die iedereen kan gebruiken met een niche zoals RTX die vlieger gaat niet op bij mij!
Net zoals diverse smartphone fabrikanten doen ....
De tweedehands markt is ook gaan bloeien de laatste tijd. Nog meer reden om nieuwe videokaarten te passeren.
Carry capacity?
Dit is price elasticity of demand..
Dit is zeer zeker een punt. Dit alles is nu nog eens aangesterkt door AMD die er niet in slaagt om een prijzenoorlog te starten tegenover NVidia. Misschien dat een toekomstige derde speler zoals intel over een paar jaar eens een stok in het hoenderhok kan smijten.
Is wel een perverse techniek... maar ja, zo werkt de markt nu eenmaal, zeker...?
Als ze met +10% prijs -5% verkoop hebben, is dit nog altijd een positieve business case.
"Als".
Volgens NVIDIA valt het resultaat voorlopig tegen.
De price setting van RTX is op zich een test van nVidia om te zien wat de carry capacity van de markt is.
Het zal toch ook zijn om de hoge investering in R&D tbv RTX en deep-learning terug te verdienen. NVIDIA zal het wel overleven maar tegenvallende verkopen doet hun financiële cyfers geen goed.
Ik denk dat de aandeelhouders van Nvidia er anders over denken. de beurswaarde is met 100 miljard gezakt.
https://www.ft.com/conten...05-11e9-8744-e7016697f225
Waarom een red minnetje, bovenstaand is een feit.

http://prntscr.com/mlla47

edit;
had het engels/amerikaans billion=miljard gebruikt.

[Reactie gewijzigd door Grovdna op 23 juli 2024 00:50]

*miljard

billion = miljard
De kaarten zijn ook achterlijk duur en er is op dit moment 1 game die ray tracing ondersteunt en deze game is heel middelmatig tot slecht.
Als je kijkt naar wat de GTX 1070 (bijv. MSI Gaming) kostte bij release, dan was dit nauwelijks tot niets minder dan wat de RTX 2070 nu kost (vgl. met MSI Armor, praktisch dezelfde koeler).

Wat echter wel zo is, is dat de performance sprong te klein is om een upgrade te rechtvaardigen als je al een 10-serie kaart hebt.

MSI 1070 Gaming: pricewatch: MSI GeForce GTX 1070 GAMING X 8G
MSI 2070 Armor: pricewatch: MSI GeForce RTX 2070 Armor 8G
Vergelijk het dan met bijvoorbeeld de GTX 970.

https://tweakers.net/pric...ce-gtx-970-gaming-4g.html

Daarbij was de prijs rond de €350,- De prijs van de 1070 is ook niet realistisch omdat men in die tijd veel tekorten had door de crypto gekte. Het was erg moeilijk om aan kaarten te komen. Vandaar dat die prijzen helemaal niet realistisch zijn.

Ook is er een verschuiving geweest van kaarten. Men begon altijd met een xx70, xx80 en kwam naderhand met een goedkoper xx60 en een betere xx80-Ti variant. Tegenwoordig wordt de xx80-Ti rond dezelfde tijd uitgebracht. Wat voor mij toch meer het idee geeft dat men de kaarten verschoven heeft om zo nog meer geldt voor hetzelfde type kaarten te vragen.
In euro's vergelijken is niet zo zinnig aangezien Nvidia de prijzen in dollars stelt en de euro koers nogal veranderlijk is. In 2014 zaten we nog op 1,33 terwijl dat in 2015 1,11 werd en dat 2018 1,18 is geworden: https://www.statista.com/...al-average-exchange-rate/

De GTX 970 had een MSRP van $329, wat goedkoper was dan bijvoorbeeld de $399 van de GTX 770 en de GTX 670. De GTX 1070 kwam met $379-$449 (founders) en de RTX 2070 maakt daar $499 van. Dus ja de RTX 2070 is wel flink duurder.
Momenteel ondersteunen battlefield V, Tomb Raider en Metro exodus al raytracing en nog een paar andere games waaronder FF XV ondersteunt DLSSR. Wat mij betreft is vooral die laatste echt een meerwaarde.
Dat komt omdat mensen minder gpu's kopen voor het delven van cryptocurrency en omdat de RTX-videokaarten niet aanslaan.
Nee dat komt omdat ze gewoon belachelijk duur zijn voor wat je krijgt. Een 1080Ti is praktisch even snel en soms sneller dan een 2080, maar de 2080 was ruim 200 euro duurder en de 1080Ti werd uit de schappen gehaald. Veel mensen kochten liever voor 600 euro een 1080Ti dan een 2080 voor 800 euro. Logisch want die prijzen slaan nergens op, laat staan 1400 euro voor een 2080Ti. En dan raar kijken als ze niet verkopen. Prijsstijgingen van elektronicaproducten van de afgelopen jaren lijken echt losgeslagen.
True maar het is wel van alledag dit soort prijzen, 30 jaar geleden betaalde je ook duizenden guldens voor een hdd met 20mb. Uiteindelijk zal de marktwerking de prijzen weer drukken.
Dat is geen vergelijking. Kijk naar de gemiddelde prijs van high end telefoons, die is van ~600 euro naar ~1000 euro gestegen in de afgelopen 7 jaar. Moederborden zijn in het high end gaming segment bijna verdubbeld in prijs. Zo ook processoren. Toen de GTX680 uit kwam was deze ~500 a 550 euro, dit was de snelste videokaart op de markt. Nu mag je voor een 2080Ti 1200 euro of meer ophoesten. Dat zie ik niet als normale prijsstijgingen. Dat is een trend waarvan ik hoop dat hij snel ophoud want ik doe er niet aan mee.
Alsnog is het dus van alledag, wil je het “absolute neusje van de rode gemasseerde Alaskazalm”? Dan kost het je veel geld, die 20mb schijf was een paar jaar later ook nog maar een fractie van de introductieprijs hè.

Die high-end telefoon die je nu 1200,- kost, is over 2 jaar ook nog maar pak em beet 1/3 a 1/2 van die prijs.

Hoe snel dat neusje van de zalm in prijs daalt hangt af van hoe het bij introductie aanslaat en andere factoren zoals hoe snel goede alternatieven beschikbaar komen of er al zijn.
Volgens mij begrijp je Skyline niet goed. Hij zegt - en terecht denk ik - dat 10 jaar geleden het neusje van de zalm 550 euro kostte. Inmiddels kost het neusje van de zalm meer dan het dubbele.
Wel eens van inflatie gehoord?
Oke, dus jij bent in de laatste 10 jaar door inflatie-correctie twee keer zoveel gaan verdienen. Even niet stoer doen nu,
Dat zijn geen prijzen van inflatie. Dat zijn prijzen van "onze alaskazalm komt uit een stal van snelle vissen. Geen enkele andere stal heeft zo een snelle vissen. Bovendien zijn we er in geslaagd om onze zalm te laten zwemmen in tropisch water. Nu biedt dat nog geen voordeel, maar met de opwarming van de aarde..."
Wat Trick7 zegt is exact waar ik op doel. En als je zelf wel eens van inflatie had gehoord dan had je geweten dat dit hooguit 1 tot 3 procent per jaar is. Een meer dan verdubbeling in verkoopprijs voor "het neusje van de zalm" kan dus met geen mogelijkheid te wijten zijn aan enkel inflatie.
Wel eens van rekenen gehoord?
Cumulatieve inflatie over de afgelopen 10 jaar is ~17%.
Prijzen van high-end GPUs zijn in die tijd met 100% gestegen.
"maar het bedrijf zegt dat onder andere de RTX 2080 en 2070 het niet zo goed hebben gedaan als gehoopt."

Tja, wat verwacht je voor de prijs dat die dingen kosten.
Ze hebben nu last van het iPhone syndroom, velen willen deze prijzen niet meer betalen voor een beetje prestatiewinst welke je eigenlijk niet merkt of features die je niet gebruikt.
Nou even volhouden en de volgende generatie krijgt weer een "normaal" prijskaartje.
niet veel mensen hebben veel zin om 3 jaar op de volgende generatie te wachten

Op dit item kan niet meer gereageerd worden.