Marktonderzoek: overschatting vraag gpu's zorgt voor overschotten bij makers

De fabrikanten van losse videokaarten zitten volgens analisten met overschotten aan kaarten. "De vraag naar add-in boards was vroeg in 2018 lager dan het aanbod, waardoor makers nu met een teveel aan inventaris zitten", schrijft marktonderzoeksbureau Jon Peddie Research.

Jon Peddie Research stelt dat dit de verkoopcijfers van het vierde kwartaal van 2018 hebben beïnvloed en dat die invloed ook te zien zal zijn in het eerste en tweede kwartaal van 2019. Ten opzichte van het vierde kwartaal van 2017 namen gpu-leveringen af met 2,65 procent. AMD leverde 6,8 procent leveringen in, Nvidia 7,6 procent en Intel 0,7 procent. Op het gebied van marktaandeel levert in dat vierde kwartaal AMD 0,6 procent in, Nvidia 0,82 procent en Intel haalt juist 1,4 procent marktaandeel binnen.

Normaal gesproken blijven leveringen in het vierde kwartaal gelijk of nemen ze toe. Een daling van 2,65 procent is dus ver onder het tienjarige gemiddelde voor vierde kwartalen, dat op een toename van 11,59 procent staat.

Daarnaast is de totale hoeveelheid gpu-leveringen in het hele jaar 2018 met 3,3 procent afgenomen ten opzichte van 2017. Als alleen gekeken wordt naar desktop-gpu's, dan is een daling van 20 procent te zien. Notebook-gpu-leveringen namen van 2017 op 2018 juist toe met 8 procent. Opvallend is dat hoewel gpu-leveringen daalden, pc-verkopen met 1,61 procent toenamen.

Ook uit de kwartaalcijfers van Nvidia bleek dat leveringen afnemen, hoogstwaarschijnlijk vanwege de terugvallende populariteit van cryptomining met videokaarten.

Door Mark Hendrikman

Redacteur

02-03-2019 • 15:05

177 Linkedin

Reacties (181)

181
179
110
3
0
25
Wijzig sortering
Goh, dit hadden ze al van mijlen ver kunnen zien aankomen.
Normaliter kreeg je bij elke nieuwe generatie meer prestaties voor een vergelijkbaar bedrag.
De laatste tijd gaan de prestaties nog steeds omhoog, maar zo ook de prijs.
Pak dan ook nog de cryptogekte van vorig jaar er bij en het is niet vreemd dat mensen nog langer met hun huidige GPU doen/geen nieuwe GPU aanschaffen.
Goh, dit hadden ze al van mijlen ver kunnen zien aankomen.
Normaliter kreeg je bij elke nieuwe generatie meer prestaties voor een vergelijkbaar bedrag.
De laatste tijd gaan de prestaties nog steeds omhoog, maar zo ook de prijs.
Pak dan ook nog de cryptogekte van vorig jaar er bij en het is niet vreemd dat mensen nog langer met hun huidige GPU doen/geen nieuwe GPU aanschaffen.
Ik denk dat je last hebt van het fenomeen waarbij je het idee hebt dat vroeger alles beter was. Kijk eens naar bijvoorbeeld de stap van de GTX 260 naar de GTX 460. Dat scheelde 22% op de TPU index. De 560 Ti gaf 12%. De 660 gaf 21%. De 760 gaf 20%, enz.

Je krijgt alleen grote stappen wanneer je één of meerdere generaties overslaat óf van 'bracket' wisselt en dus een duurdere kaart aanschaft. Bijvoorbeeld van een GTX 560 Ti ($250) naar een GTX 660 Ti ($300) of zelfs direct naar een GTX 970 ($330).

https://www.techpowerup.c...orce_GTX_460_1_GB/31.html
https://www.techpowerup.c...orce_GTX_560_2_GB/27.html
https://www.techpowerup.c...c/GeForce_GTX_660/27.html
https://www.techpowerup.c...A/GeForce_GTX_760/27.html

(edit: Ik ga verder niet ontkennen dat Nvidia met RTX alles lijkt te hebben opgeschoven. De MSRP adviesprijs is flink omhoog gegaan, dat valt niet te ontkennen. Ik heb het hierboven specifiek over 'vroeger'. )

Tweede misverstand dat speelt is dat er wordt vergeten dat Nvidia enorm in omzet is gegroeid. Die enorme daling betekent tot heden dus nog altijd netto een enorme groei ten oprichtte van 2015 en eerder. Om dit te duiden; het beste kwartaal in 2015 bedroeg 1.3 miljard, het afgelopen slechte kwartaal bedroeg 2.2 miljard.

De vraag is natuurlijk wel of die daling doorzet en tot welk niveau. Maar daar valt nu alleen nog maar over te speculeren. Nvidia heeft het over tegenvallende RTX verkopen, als dat vanuit de consument komt dan is dat op te lossen (met de prijs en uitbreiden line-up), maar als de vraag van crypto kwam dan kan dat best betekenen dat ze verder terug vallen. Maar hoe dat gaat lopen durf ik niet te voorspellen, we weten het gewoon niet. Nvidia heeft altijd beweerd dat de impact van mining zeer beperkt was, maar daar loopt nu een rechtszaak over...

https://www.macrotrends.n...harts/NVDA/nvidia/revenue

[Reactie gewijzigd door sdk1985 op 2 maart 2019 16:43]

Ik denk dat je last hebt van het fenomeen waarbij je het idee hebt dat vroeger alles beter was. Kijk eens naar bijvoorbeeld de stap van de GTX 260 naar de GTX 460. Dat scheelde 22% op de TPU index. De 560 Ti gaf 12%. De 660 gaf 21%. De 760 gaf 20%, enz.

Je krijgt alleen grote stappen wanneer je één of meerdere generaties overslaat óf van 'bracket' wisselt en dus een duurdere kaart aanschaft. Bijvoorbeeld van een GTX 560 Ti ($250) naar een GTX 660 Ti ($300) of zelfs direct naar een GTX 970 ($330).
Relatieve performance (stappen) is niet waar ik het volledig over heb.
Ik heb het over een nieuwe generatie die voor een vergelijkbaar bedrag betere prestaties neerzet.
Als ik even op reviews van de buren afga, met jouw voorbeeld van nVidia x60 kaarten (waarom pak je opeens de Ti's er bij?):
GTX 260 ~€365
GTX 460 ~€200 en 32% sneller
GTX 560 ~€180 en 17% sneller
GTX 660 ~€230 en 60% sneller
GTX 760 ~€240 en 30% sneller
GTX 960 ~€220 en 11% sneller
Tot hier elke generatie (excl. 260) gemiddeld genomen €214 zonder veel afwijkingen en een aanzienlijke prestatiewinst.
GTX 1060 (1280cores/6GB) ~€280 en 89% (!) sneller
Opeens een flinke stijging qua prestaties! Maar ook qua prijs... en dan heb ik het nog niet over de crypto's, want succes destijds om voor die prijs een 1060 te scoren.
RTX 2060 ~€370 en 62% sneller dan 1060
Idem dito.

Ter volledigheid nog de 1660 Ti
GTX 1660 Ti ~€300 en 44% sneller dan 1060
Maar liever pak ik de GTX 1660 non-Ti die volgens de geruchten binnenkort voor ~€250 komt: nieuws: Gerucht: Nvidia GTX 1660 komt uit op 15 maart en GTX 1650 volgt op 30...

Nee, vroeger was niet alles beter.
Ja, er is nog steeds een leuke prestatiewinst per generatie.
Maar de prijs stijgt sneller mee, zoals je zelf ook al aangaf, en vanwaar ook mijn zin
De laatste tijd gaan de prestaties nog steeds omhoog, maar zo ook de prijs.
Vergelijk die gemiddelde €203 van de 460-660-760 eens met de €290 van de 960-1060-2060.

Het probleem is dat consumenten toch in dezelfde prijsklasse blijven. Zij worden nu gedwongen om een serie lager te gaan shoppen, want een stijging van bijna 50% is niet niets, in dit voorbeeld dus in de x50's in plaats van de x60's. Dan was een upgrade van (bijvoorbeeld) een 560 naar een 660 of een 660 naar een 760 véél aantrekkelijker dan nu een upgrade van een 1060 naar een 2060 of waarschijnlijk naar de aanstaande 1660 non-Ti of 1650...

En ik verwacht dat hetzelfde patroon zichtbaar is voor de x70 serie en in mindere mate ook de x80 serie, maar ik heb wel genoeg cijfertjes gezien nu. :9
(...)niet vreemd dat mensen nog langer met hun huidige GPU doen/geen nieuwe GPU aanschaffen.
Ik herinner me nog de high end radeon kaart die 200 euro was destijds. Radeon 9800 ofzo.

In verhouding tot inkomen is de prijs voor top end kaarten 4x zo hard gestegen als inkomens.
En dat is helaas een trend die zich in alle producten voorxoet omdat de politiek weer rap bezig is met een enorme inkomenskloof te creëren.
Straks gaan de bedrijven die klap voelen want mensen hebben er simpelweg geen geld meer voor.
En ipv prijs verlagen om klanten te winnen is de trend tegenwoordig het tegenovergestelde. We vergogen de prijs met 40% want we verkopen 40% minder en zou houden we dezelfde inkomsten. Ze snappen niet dat als je de prijs met 20% verlaagt je ook meer klanten krijgt.
Dus wat prijzen betreft was het vroeger zeker beter.
Ik ben het totaal met je oneens. je kan het ook omdraaien, spullen waren gewoon te goedkoop. Als je even nadenkt over in wat voor soort omstandigheden deze producten gemaakt worden en wat de mensen die er aan werken verdienen (in China of andere lageloon landen) is het gewoon asociaal om te zeggen dat dit de schuld is van de politiek (en niet intelligent).

We zijn gewend geraakt aan dat we alles maar kunnen kopen voor een prikkie, daar moeten we van af, want ergens op deze aardbol betaald men de prijs (lees ergens hebben mensen een klote leven zodat jij voor een prikkie de nieuwste GPU of iPhone hebt).

Totaal offtopic mijn post, maar ik erger me mateloos aan het het idee dat je alles maar moet kunnen kopen.

Men denkt alleen maar in eigen belang en spullen moeten goedkoop zijn. Dat houdt echt een keer op en gelukkig. Meer balans in de wereld. Stop met het egoisme, denk eens na over in wat voor wereld je leeft en hoe de producten die jij koopt tot stand komen.

Edit: tuurlijk hele andere discussie, maar het moet gezegd worden.

[Reactie gewijzigd door FreqAmsterdam op 2 maart 2019 20:45]

want ergens op deze aardbol betaald men de prijs (lees ergens hebben mensen een klote leven zodat jij voor een prikkie de nieuwste GPU of iPhone hebt).
Volgens mij hebben die mensen geen klote leven omdat ik iets voor een prikkie wil hebben, maar omdat de aandeelhouders torenhoge winsten willen halen. Of waar anders denk je dat de miljarden naar toe gaan?
@Praetextatus je hebt helemaal gelijk dat grote corporates eens zouden moeten beginnen met normaal belasting betalen. De meeste multinationals betalen op dit moment namelijk nul belasting.

Dat is denk ik niet zozeer het punt wat @FreqAmsterdam wil maken maar meer het feit dat wij in beginsel alles kunnen kopen wat ons hartje begeert.

Dit wil ik illustreren met een voorbeeld. De meeste mensen hebben wel een elektrische waterkoker op het aanrechtblad staan. Stel de waterkoker gaat vandaag stuk en je hebt een nieuwe nodig.

Voor de gemiddelde Europeaan geen heel groot probleem. Zo'n ding heb je voor tussen de 10 en 100 euro, afhankelijk van hoe luxe je hem wilt hebben. Zit je in Nederland in de bijstand dan is zelfs die 10 euro een probleem.

Voor veel mensen in Azië is het pas echt een project om een nieuwe waterkoker aan te schaffen. Dat gaat doorgaans als volgt, de hele familie, ooms, tantes, soms ook buren worden gevraagd of ze iets kunnen bijdragen. Met hangen en wurgen hebben ze op een gegeven moment het benodigde bedrag bij elkaar, equivalent van 10 of 15 euro. Dit staat soms gelijk aan twee daglonen.

En dan hebben we het hier dus over een 'freaking' waterkoker. Hetzelfde geldt voor een ventilator of bijvoorbeeld mobiele telefoon. Let wel, geen smartphone met 16 uur batterijtijd maar een oude stupidphone die je eens in de 7 dagen moet opladen. "Elk nadeel heb s'n voordeel".

De videokaartdiscussie is dan ineens een heel "relatief" probleem :)
Ik denk dat jullie allemaal wel gelijk hebben. Je wil beseffen: In rijke landen is luxe goedkoop maar eerste levensbehoeften (onderdak, eten. vervoer) heel duur, in arme landen is het net andersom. Een waterkoker is daar een luxe, want er zijn toch veel goedkopere manieren om water te koken?

Overigens kost een waterkoker daar stukken minder dan hier. Want op elektrische apparaten zitten hier honderden soms wel duizenden procenten winst. Ze laten iets voor een paar euro maken in China en verkopen het hier doodleuk voor twintig, dertig. Dat heb je ook kunnen zien in de crisis. Een friteuse die eerste over de honderd kostte was ineens een paar tientjes. Waarom? Omdat er nog steeds bakken winst op gemaakt wordt. Ze kunnen in China hightec maken voor een prijs waarvoor wij later nog niets eens het meegeleverde batterijtje kunnen vervangen.

Als wij hightec spullen hier zouden maken, dan waren ze inderdaad een stuk duurder maar dan hadden wij ook het inkomen om het te betalen! Per saldo zouden we een stuk beter af zijn omdat de toegevoegde waarde van die hoogtechnologische producten dan in ons inkomen zou vertalen en niet in de zakken van grootkapitalisten zou verdwijnen. Dat leidt ook nog eens tot schevere verhoudingen en drijft ook weer de prijzen op. Zij kopen alle productiemiddelen, waardoor die heel duur worden en willen op de mooiste plekjes wonen. enz. Waardoor prijzen voor die dingen voor de gewone man steeds duurder worden.

Ten onrechte wordt gedachte dat rijkdom voor een spill-over effect zorgt, maar in werkelijkheid drijven rijken de prijzen vooral op en verarmen daardoor de rest. Een aantal decennia geleden hadden we meer besteedbaar inkomen. Vroeger kostte een PC fl 2000,- (te vergelijken met €2000 nu), toch had bijna iedereen zo een ding. Een laptop kostte het dubbele. Als student kocht ik de nieuwe 4x speed cdrom voor fl 800,-. Een beetje geluidskaart (soundblaster) was ook fl 150,- enz. Toch hoorde ik niemand over die prijzen klagen, men had het geld, ja ook de studenten. Wij zijn enorm verarmd door de multinationals die met hun "efficiency" feitelijk ons inkomen inpikken. Wat zij winst noemen is in feite hoog opgeschroefde kapitaalkosten ten koste van werknemerinkomen.

Inderdaad is het zo dat de doorsnee gamers maar een beperkt budget hebben voor een gamekaart. Stijgen de prijzen teveel dan gaan mensen hun aankoop uitstellen. Ook hier hebben we te maken met scheve verdeling. Ze moeten namelijk concurreren met bitconfarmers met diepere zakken die veel meer willen betalen voor een kaart en een midrange kaartje zo buiten bereik brengen van de gewone gamer.

Je kan dan wel een klasse lager gaan zitten, maar gamedevelopers richten hun nieuwste games niet op de laagste kaarten. Traditioneel richten zich juist op de hoogste kaarten, maar die draaien nog wel fatsoenlijk op een midrange. Waarom ik nooit een low-end kaartje heb gekocht? Omdat ik best wel lang met een computer doe en low-end kaartjes vrij snel niet meer meekomen bij gebrek aan geheugen, terwijl een midrange je computer wel een goede economische levensduur geeft.

Ik denk dat dit is wat je ziet in de markt, gamers wachten gewoon met vervanging omdat ze prijzen te duur vinden. Als de bitcoin markt terugloopt hebben de fabrikanten een probleem, want niet alleen verkopen ze een stuk minder, maar eigenlijk moeten ze ook de prijzen flink laten zakken om de gamers weer aan het kopen te krijgen. Dat is lastig als je je investeringen en kostenstructuur hebt afgestemd op veel hogere prijzen en verkopen.

Prijsverlaging levert daarbij ook niet zo veel op. Om de prijs mety 20% te verlagen moet je namelijk veel meer dan 20% extra omzetten. reken maar uit: Stel dat €40 marge hebt op een product van €100. dat €30 vaste kosten zijn en €30 variabele kosten. Bij een normale verkoop van 100 voor €100 heb je €4000 winst. Bij een verkoop voor €80 verkoop je er 120. Je winst is dan op het eerste gezicht 120×20=2400. Nu is het wel zo dat de vaste kosten hetzelfde blijven en laten we stellen dat die bij 100 stuks terugverdiend worden en 100×30= 3000 bedragen. Dan wordt de winst 120x80 - 3000 - 120x30 = 9600 - 6600 = €3000. Ofwel je winst is nog steeds een stuk lager. Er is geen reden om de prijs te laten zakken.

Ga je uit van een lagere winst door hogere vaste kosten van €5000 dat daalt de winst harder van €2000 naar €1000. Ga je uit van hogere variable kosten van €50 dan daalt de winst nog harder van €2000 naar €600 als de prijs 20% daalt en de afzet 20% stijgt. Ofwel je schiet geen fluit op met prijsverlaging.

Hoe kan het zijn dat Nvidia in de situatie is komen te verkeren dat ze hun prijs niet kunnen laten zakken? Dat komt omdat ze in feite al enige tijd een monopolist zijn die gewoon de prijs zetten. In tegenstelling tot wat de fans denken is AMD geen echte concurrent maar een bijwagen. Die profiteren juist van de hoge prijs van Nvidia door daar wat onder te gaan zitten, maar niet te veel om een prijzenoorlog te voorkomen. Ze liften gewoon mee.

Die hogere prijs leidde er weer toe dat Nvidia enorm veel heeft kunnen investeren in nieuwe technologie die alsmaar duurder wordt. Want dat vergeten mensen, het wordt steeds duurder om weer 20% meer snelheid te halen. De wet van Moore is al jaren geleden opgehouden te bestaan, want die ging uit van lagere kosten per eenheid. Dat is al lang niet meer zo.

In een situatie van prijsconcurrentie waren de prijzen lager gebleven maar ook de investeringen. Kaarten zouden betaalbaar blijven, maar ook langzamer zijn, en gameontwikkelaars zouden daar hun nieuwe games op afstemmen. Al die power leidt ook tot een zekere luiheid bij de programmeurs. De tijd dat ze in assembler moesten programmeren om een vliegtuigsimulatie te maken is voorbij. Hogere programmeertalen maken het een stuk gemakkelijker maar benodigen ook meer resources.

Aan de ene kant heeft de bitcoinindustrie de prijzen flink opgedreven, maar ze hebben daarmee ook een groot deel van de reseach betaald. Als de bitcoinindustrie blijvend terugvalt dan kan best blijken dat het voor Nvidia en AMD heel moeilijk wordt om nog een next-gen kaart te maken voor de gamemarkt alleen. Die levert gewoon te weinig op om de gigantische investeringen nog te rechtvaardigen. Het kan zijn dat de hele zaak dan stil valt. Daarom is de gameindustrie nu afhankeijk geworden van andere toepassingen van zware grafische processors dan games. Games zijn niet meer de driver.

RTX kan wel eens het laatste grote geschenk geweest zijn aan de high-end gameindustrie. Research in grafische kaarten zal zich steeds minder richten op games en prachtige effecten, maar AI toepassingen. In de mobiele sector worden de grafische chips wel krachtiger en zuiniger. Dat loopt nog achter.

We willen realiseren dat de wet van Moore al lang dood is. Die gaat niet enkel om de tecnische mogelijkheid om meer schakelingen op een chip te zetten, maar om tegelijkertijd kostenvoordelen uit de die-shrink te halen. Dat is al tijden niet meer het geval. Chips worden gewoon duurder en duurder! Grafische chips ook. In bedrijfstoepassingen wordt dit door de extra rekenkracht terugverdiend. Bij gamingkaarten zal gewoon meer moeten worden betaald voor extra rekenkracht. Dat is een onvermijdelijk gevolg van het eindigen van de wet van Moore.

Het enige wat dat zou kunnen opheffen is een nog snellere groei van de afzet van high-end chips. Maar dat valt in praktijk tegen omdat voor de meeste toepassingen vorige generatie chips ook prima voldoen en goedkoper te produceren zijn. De toepassingen van high-end chips zijn beperkt.

Verder wil je nog iets realiseren. Stel nu dat nVidia de prijzen verlaagt en de afzet met 200% toeneemt. Dan is dat nog niet slim, want dan verzadigen ze de markt, iedereen die gewacht heeft slaat nu toe. Maar de volgende generatie kaarten, die ze al deels ontwikkeld hebben raken ze weer niet aan de straatstenen kwijt.

Wat is voor nVidia nu het meest rationeel? De ontwikkeling in gamekaarten stil leggen en de eerdere investeringen terug verdienen door zo lang mogelijk de huidige generaties kaarten uit te brengen en kleine varianten daarop. Vroeg of laat komt er toch vervangingsaankoop. Dat is ook niet zo erg want dat geeft gameontwikkelaars de tijd om dingen als RTX te implementeren.

Voor de consument ook geen ramp want dan stijgen de prijzen niet meer. De kracht van nieuwe games zal dan voornamelijk van de gameontwikkelaars komen. Die kunnen echt veel betere games maken met gelijke hardware. Juist die constante hardware verbeteringen maken software ontwikkelaars erg lui en laat ze smijten met resources. (Windows 3.1 = 8 MB, windows 95 = 55 MB, windows 98 = 626 MB enz.).

Er valt enorm veel te winnen door efficientere game engines te maken en efficienter te programmeren. En als je ziet wat voor bedragen in de game ontwikkeling omgaan, dan zit daar gigantische dure overhead (managers) op. Daarom zitten de grote jongens ook voortdurend veel efficientere kleine developerstudios op te kopen. Als hun managers die verziekt hebben, sluiten ze ze weer en kopen andere. Helemaal geen ramp als gamedevelopers weer tot meer efficiency gedwongen worden.

We hebben echt geen nieuwe dure hardware nodig om veel betere games te krijgen. Het is eerder in het voordeel van de consument als er weer eens wat zuiniger met de resourses wordt ongesprongen. Kan die langer met zijn Hardware doen en is goedkoper uit. Geen reden tot pessimisme.

[Reactie gewijzigd door Elefant op 3 maart 2019 15:13]

En misschien is dan de tijd gekomen dat de PC stopt met het zijn van een alternatief voor de game console. Ik lees hierboven een (boven jouw reactie) namelijk best wel wat geschiedenis vervalsing. Vroeger koste een highend game kaart 200 euro ? Wat een onzin. Een beetje videokaart voor gaming heeft altijd 'de wereld' gekost. Beginnende bij de prijs voor een een complete basis PC. Dat was al zo toen de Matrox Millenium nog high end game kaart was, en die prijs is gewoon mee gegroeid.

Nu stel je een game pc samen, doet de videokaart het laatst en je prijs verdubbelt zo'n beetje als je een high end game kaart neemt. Maar dat is een beetje het punt. Mensen kiezen niet wat ze nodig hebben, maar wat ze willen. Luxe. Want ze willen het allerbeste wat ze op dat moment kunnen krijgen om te voorkomen dat ze volgend jaar wéér moeten investeren. Terecht, denk ik.

En daarom heb je - denk ik - een heel goed punt. Als de hardware industrie geen koerswijziging maakt, dan zal de software industrie het moeten doen. Mensen gaan niet meer investeren in PC hardware als die 'te duur' blijft of achter blijft qua prestaties. Maar er valt op software gebied nog wel het een en ander aan efficiency in te halen. Tegen de tijd dat die koe is uitgemolken, ziet de markt er weer helemaal anders uit.
En misschien is dan de tijd gekomen dat de PC stopt met het zijn van een alternatief voor de game console.
Dat zou de consequentie kunnen zijn. Want ga maar na. De aantrekkingskracht van de GamePC zit toch vooral in de hogere prestaties tov de consoles. Maar als de ontwikkeling stil valt en het verschil tussen beiden minder wordt. Dan gaan de kostenvoordelen in het voordeel van de console werken.

Hët is voor gameontwikkelaars ook weer voordeliger om games te optimaliseren voor een console. Een GTX1060 in console kan dan presteren als een GTX1070 in een PC. Wie gaat er dan nog een gamePC kopen als je op de consoles ook nog al die exclusives hebt?

Ook al willen hardcore gamers wel €1000 betalen voor een topkaart, daar kan nVidia slechts een fractie van zijn ontwikkelkosten mee terugverdienen. En zonder voldoende vraag van bitcoinfarmers om tegen veel geld de nieuwste snellere kaarten te kopen denk ik dat ze die niet meer in hoog tempo gaan ontwikkelen. Er zijn ook steeds meer speciale kaarten voor bitcoin minen.

PC-gamen blijft gewoon wel doorgaan met de huidig ontwikkelde kaarten, maar het kan best zijn dat consoles belangrijker worden. Op consoles valt echter voor nVidia ook niet veel te verdienen, daar zitten veel lagere marges op dan PC-kaarten. Dus daar ga je ook niet heftig voor investeren in de next-gen kaart. Ik denk dat we het voorlopig gaan doen met wat er al ontwikkeld is.

Wel kan geleidelijk meer AI worden toegevoegd en dat kan toch weer tot leuke verbeteringen in de games leiden. Maar meer raw power door verkleining en op grafische effecten gerichte zaken zullen niet meer zo hard gaan, verwacht ik. Dat drijft de prijs te veel op en is onverkoopbaar voor een groter publiek.

Als een volgende console een GTX1070 gaat voeren is het helemaal doek voor de PC gaming denk ik

[Reactie gewijzigd door Elefant op 3 maart 2019 18:48]

En wie zijn die aandeelhouders?

Jij en ik.

Want verreweg de grootste beleggers zijn institutionele beleggers - jouw en mijn pensioenfonds beleggen hun miljarden reserve die ze moeten aanhouden in aandelen. En vervolgens ook de overheid (dus ook jij en ik), kijk bijvoorbeeld maar naar het aandelenpakket dat net weer in KLM-Air France is aangekocht door de Staat.
Nee. De ethische grenzen zijn het probleem. Aandeelhouders kunnen nog zo veel willen. Maar wanneer de ethiek vervaagt richting de norm die geldt binnen een samenleving dat haaks staat op onze norm, dan gaat er wat mis.

Immers is het de consument die weet dat dingen té goedkoop zijn en gemakshalve er maar niet over nadenkt waarom iets zo goedkoop kan zijn. Want waarom zou men als ze er beter van worden. En koop 'ik' het niet als klant, dan koopt iemand anders, elders op de wereld, het wel. En koop je het niet, dan heeft de arme aziaat ook geen inkomen.

Mensen geven geld te snel de schuld. Het zijn nog altijd de mensen zelf die geld bedacht hebben. Er mee handelen. En er waarde aan hechten.
Je betoog is leuk maar gaat niet op in de voorbeelden die hier genoemd worden (componenten van 200€, 300€, 400€ of 500€..). Dit soort bedragen zijn nooit “een prikkie” voor niemand, ook niet als je bovenmodaal inkomen hebt. (merk)kledingstukken kopen voor <20€ vind zou ik dan een beter voorbeeld vinden.

Bij gpu’s of mobiele telefoons van >€1.000 wordt je sowieso altijd voor een flink deel genaaid met de prijs, lage lonen landen of niet.

En om nu meteen mensen asociaal en niet intelligent te noemen lijkt me ook niet nodig.
als ze nooit voor ons goedkoop geproduceerd hadden hadden ze daar helemaal geen leven dus zij hebben ook zeer veel baat gehad van onze consumptie maatschappij.
die ontwikkelings fase begint nu ook in andere landen voor een prikkie moeten we hun ook maar geen werk aanbieden en lekker laten verhongeren. kijk naar india het gaat daar met heel veel mensen beter dan ooit puur omdat het rijke westen daar fabrieken heeft en ze banen en inkomen geeft.
er word altijd gedaan of die mensen slachtoffer zijn maar ze hebben er net zo veel baat bij anders blijven ze in ghettos en huizen van klei en gras wonen.
Als je naar 50 jaar kijkt misschien, maar daar voor zijn ook dingen gebeurd. Het zit niet zo simpel in elkaar als je denkt. Denk er nog eens over na zou ik zeggen em verdiep je in historie.
Laatste 20 jaar mogen ze niet klagen en verder terug kijken hpid je vast in het verledenm soms is het tijd om vooruit te kijken ipv alleen maar achteruit.
Jij kijkt naar de duurste kaart uit een generatie en stelt dat die duurder geworden is, maar eigenlijk is dat geen goede manier om er naar te kijken.

Stel nou eens dat de 1080 Ti nooit bestaan had. Laten we ook het bestaan van de 2080 en de 2080 Ti even vergeten. De 2070 hernoemen we nu naar 2080 en de 2060 hernoemen we naar 2070.
Opeens is het topmodel meer in lijn qua prijs met wat het al vele jaren geweest is. De prestatie is over het algemeen iets gestegen, niet bijzonder hard, maar je krijgt wel weer wat meer voor ongeveer dezelfde prijs of zelfs iets minder.

De 1080 Ti, 2080 en 2080 Ti bestaan uiteraard wel, maar ik zie dat als éxtra opties als je graag nog meer power wil en bereid bent daar meer voor neer te tellen. Wil jij niet meer betalen, dan koop je gewoon de kaart op het prijspeil dat je wel bereid bent om te betalen. De enige reden om daar niet tevreden mee te zijn is als je ego het op een of andere manier niet aankan om niet de topkaart te hebben...

Wat betreft de radeon 9800 voor 200 euro, die moet je dan gekocht hebben nadat deze in prijs gezakt is want hij kwam uit voor 350 dollar (https://www.anandtech.com/show/1077/2) en de dollarkoers is nooit zo slecht geweest dat dat 200 euro werd. Dat was in 2003. Zelf heb ik daarvoor ergens (eind 2000 of begin 2001 meen ik) een GeForce 2 GTS gekocht voor als ik me niet vergis 550 gulden. Die was volgens Anandtech 300 dollar bij launch, maar er is daarna ook nog een 400 dollar 64 MB variant en een 500 dollar Ultra variant uitgekomen. Videokaart prijzen zijn zeker gestegen, maar niet zo enorm als jij stelt. Bovendien was de markt toen ook nog alles behalve volwassen en werden er simpelweg minder indrukwekkende producten gemaakt. Wederom, als ze gewoon de duurste opties weg zouden laten, was je dan wel tevreden?
https://youtu.be/--UHIlV11wg
980Ti naar een 1080Ti 76 procent winst
1080Ti naar 2080Ti 27 procent winst

Was klaar voor 2080Ti heb nu Sli 1080Ti.
Maar voor zo stapje vooruit nee dank je!!
We vergogen de prijs met 40% want we verkopen 40% minder en zou houden we dezelfde inkomsten. Ze snappen niet dat als je de prijs met 20% verlaagt je ook meer klanten krijgt.
Natuurlijk niet - NVidia hééft een product wat 20% goedkoper is. En 30%. En 40%. Ze hebben nogal een brede range producten. Als ze hun top 20% goedkoper maken, dan verkopen ze niet 20% meer. En aan de onderkant de goedkoopste kaarten 20% goedkoper maken gaat ook niet veel extra omzet opleveren. Daar hebben ze concurrentie van de IGP's; veel valt daar niet te halen.
Er spelen meerdere factoren denk ik. Het aantal makers van grafische kaarten is afgenomen, wat de concurrentie verminderd. Anderzijds neemt de complexiteit en daarmee de ontwikkelkosten ook steeds verder toe. Vroeger was een die shrink vrij eenvoudig te realiseren, nu zitten we steeds meer tegen de grens aan van wat mogelijk is. De wet van Moore bijv. is al jaren dood en begraven, om maar wat te noemen.

Het idee dat een recente grafische kaart voor weinig te produceren is en de hoge prijzen alleen maar winstbejag en domme beslissingen zijn, lijkt me dan ook wat kortzichtig. Aan de andere kant weet ik ook niet wat de productiekosten zijn, dus is het moeilijk te beoordelen of de prijzen relatief slechter zijn.
Ik heb het over een nieuwe generatie die voor een vergelijkbaar bedrag betere prestaties neerzet.
In de midrange is het daar nog wat te vroeg voor, de 1660 Ti is pas net uit en de rest moet nog volgen. Deze 1660 Ti is overigens $20 dollar goedkoper dan de MSRP van de 1060 FE terwijl hij flink sneller is.

Dus daarmee heb ik eigenlijk twee problemen met je verhaal:
1) Er lijkt midrange momenteel weinig aan de hand te zijn; je krijgt voor ongeveer hetzelfde bedrag méér prestaties. Vergeet immers niet dat de 1060 ook zo'n 300 euro moest kosten in de eerste maanden.
2) Vroeger waren de sprongen tussen de generaties vaak niet bijzonder, zie lijstje techpowerup.
Als ik even op reviews van de buren afga, met jouw voorbeeld van nVidia x60 kaarten (waarom pak je opeens de Ti's er bij?):
GTX 260 ~€365
GTX 460 ~€200 en 32% sneller
GTX 560 ~€180 en 17% sneller
GTX 660 ~€230 en 60% sneller
GTX 760 ~€240 en 30% sneller
GTX 960 ~€220 en 11% sneller
Tot hier elke gen
Belangrijkste dat je hier vergeet is dat je nu volledig vanuit jezelf redeneert en daarbij wat variabelen uitsluit. De belangrijkste; de euro/dollar koers.

Nvidia is namelijk een Amerikaans bedrijf en stelt zijn advies prijzen op in dollars en krijgt ook betaald in dollars. Waar we vroeger tot 35% korting kregen is dat op het diepte punt uitgekomen op géén korting en krijgen we anno 2019 weer +- 9% korting. Dat heeft nogal een impact op de prijzen die wij hier zien per generatie. Wil je daadwerkelijk vaststellen of en hoeveel prijzen stijgen dan zal je echt uit moeten gaan van de MSRP in dollars.

Maar even los van het inhoudelijk steekspel over de gekozen cijfertje: Als ik je goed begrijp vind je de huidige generatie tegenvallen qua vooruitgang en/of prijs?

Midrange lijkt goed te komen, maar als we puur over RTX praten dan lijkt dat zelfs mee te vallen. In mijn geval heb ik in 2016 voor 465 euro een GTX 1070 aangeschaft. Dat prestatie niveau krijg je nu voor pak hem beet 320 euro. De RTX 2070 is natuurlijk een stuk duurder, maar ook die komt in prijs per dollar (euro) alsnog beter uit de bus dan de kaart van 2016. Dus van een achteruitgang is mijns inziens geen spraken. Neemt niet weg dat ook ik de RTX kaarten vreselijk duur vindt. Maar daar ging de discussie niet perse over.

Nvidia heeft consumenten al eerder naar een hogere prijsklasse in gedwongen, dat was via de GTX 970. De GTX 970 had eigenlijk identieke prijs per dollar aan de GTX 960, terwijl je normaal relatief meer betaald voor meer performance. Tegelijkertijd lag het niveau van de GTX 960 heel laag waardoor hij voor veel toepassingen echt tekort schoot. Resultaat is dat de GTX 970 beter leek te verkopen dan de GTX 960 (op steam), met de 1060 vs 1070 staat de goedkopere kaart met een 3x groter marktaandeel.

Dat het vervelend is dat je nu 540 euro moet neertellen voor +30% performance is verder iets dat ik kan onderschrijven. Ik verwacht eerlijk gezegd dat het in de lagere segmenten nog wel goed komt. Momenteel beleef je daar gouden tijden met de RX 580 voor <190 euro. Nvidia komt nog met meer kaarten en Navi staat ook nog voor dit jaar op de planning.

[Reactie gewijzigd door sdk1985 op 3 maart 2019 17:53]

Gedwongen? De Gtx 970 was eigenlijk te goed als je verder keek dan het geheugen verhaal. Relatief grote batches die flink overclocked konden worden en daarmee boven stock 980 uit kwamen.

Juist door die bang for bucks werd die kaart super gewild. En dat leek niet alleen zo, dat was ook zo in de steam survey.

Helaas hebben die sales cijfers icm de crypto hype ervoor gezorgd dat de 10 gen zo duur in de markt gezet werden.
Dat was precies mijn punt. Nvidia heeft het destijds heel slim gespeeld om de GTX 970 te pushen

1) Nvidia heeft de GTX 970 veel voordeliger in de markt gezet dan de GTX 670 en de kaarten daarvoor. Verschil is $329 vs $399.

2) Het prestatie gat tussen de x7 en de x6 was groter dan ooit. Het verschil tussen een GTX 660 en een GTX 670 was beperkt tot 26%. Het verschil tussen de GTX 960 ($199 ) en de GTX 970 ($329) was 67%. Dit terwijl het verschil in prijs met $229 vs $399 aanzienlijk was.

3) Nvidia heeft nooit een 960 Ti uitgebracht welke zowel het enorme gat in prijs en prestatie had kunnen opvullen. Vaak zie je tussen de $150 en $350 kaarten nog geen $30 verschillen. Hier komt het stukje dwang want voor wie de GTX 960 niet voldoende was, en dat was al snel het geval, moest naar de GTX 970.

Het resultaat hiervan is dat voor het eerst in de geschiedenis een x7 kaart een groter marktaandeel verweef op de steam survey dan een x6 kaart. Nvidia is er toen dus in geslaagd de consument meer uit te laten geven.

[Reactie gewijzigd door sdk1985 op 3 maart 2019 17:55]

Ik mis in dit verhaal wel een correctie voor inflatie. Want als je zo vet terug gaat vergelijken moet je dat wel echt mee nemen.
Kleine redeneringsfout
Volgens mij maak je 1 denkfout en dat is je het woord generatie verward met '960 vs 1060'. Een generatie slaagt op de gehele relatieve product line-up (en architectuursverandering) en niet op 1 specifiek nummer. Dus een 1050ti kan perfect 'de opvolger' (Lees, gelijkaardig in prijs maar betere prestaties) zijn van een 960.

Whats in a name?
Het gebeurd nog wel eens dat fabrikanten bij een nieuwe generatie de nummeringen van de vorige generatie niet meer aanhouden of het aantal cores/cilinderinhoud of vermogen niet meer terug te rekenen valt op de nummer van vorige de line-up. Het is een relatief gebeuren, geen absolute waarden en onderhevig aan marketing.

gamen niet duurder
Los van het feit dat de modelnummers niet meer kloppen wordt gamen niet per definitie duurder. De crypto hype heeft de prijzen wel doen stijgen maar dat was niet de schuld van de producent.

Terwijl je in 2016 bijna €400 euro moest neertellen om met een 970 met moeite 4K te gamen kan je nu nog geen 3 jaar later een iets goedkopere RTX 2060 kopen die 4K aankan op dubbel de framerate In battlefield V dan de 970 dat kon in Battlefield IV.
Eerste stukje totaal niet mee eens. Je krijgt altijd meer power per generatie als je elke kaart met zijn echte voorloper vergelijkt. Als je een gen overslaat is er wel echt een gapend gat te ontwaren.


Dat ze groter zin qua omzet geeft ze nog niet het recht de prijs met honderden euros omhoog te gooien want dat is die kaart nog steeds niet waard. Ze zijn sneller ja maar voor de rest is het een kaart die niet duurder is om te produceren en dezelfde componenten bezit alleen dan aangepast zodat ze sneller zijn en dus ook beter.


De consument is nog altijd baas en je bent als bedrijf echt dom als je denkt zoiets te kunnen maken.Ik sta hier dan dus ook niet versteld van te kijken. Kan je op je klompen aanvoelen. Kijk maar naar de high end smartphones. De duurste iPhone gaat helemaal nergens meer over. Mensen zijn niet gek. Die is dus hard gedaald in verkoop. EN nu begint Samsung ook al. Die gaan hetzelfde merken,maken dezelfde fout. Ik heb er geen medelijden mee. Als je de prijs gewoon fatsoenloijk houdt zoals altijd, dus zo rond de800 verkoop je er meer dus is je omzet ook groter want naar rato verkoop je er meer.
Eerste stukje totaal niet mee eens. Je krijgt altijd meer power per generatie als je elke kaart met zijn echte voorloper vergelijkt. Als je een gen overslaat is er wel echt een gapend gat te ontwaren.
Volgens mij zijn we het dan toch gewoon eens? Ik gaf aan dat je het pas een grote stap krijgt wanneer je een generatie overslaat. Sterker nog, wil je echt grote stappen zetten dan kun je beter een architectuur overslaan.

Verder zijn die TPU percentages soms een beetje verwarrend. Als de nieuwe kaart 100% scoort en de oude kaart 60% dan is antwoord op de vraag hoeveel sneller hij is (100/60 =) 66% . Bij 50% kun je zelfs praten over 'twee keer zo snel'.
Dat ze groter zin qua omzet geeft ze nog niet het recht de prijs met honderden euros omhoog te gooien want dat is die kaart nog steeds niet waard. Ze zijn sneller ja maar voor de rest is het een kaart die niet duurder is om te produceren en dezelfde componenten bezit alleen dan aangepast zodat ze sneller zijn en dus ook beter.


De consument is nog altijd baas en je bent als bedrijf echt dom als je denkt zoiets te kunnen maken.Ik sta hier dan dus ook niet versteld van te kijken. Kan je op je klompen aanvoelen. Kijk maar naar de high end smartphones. De duurste iPhone gaat helemaal nergens meer over. Mensen zijn niet gek. Die is dus hard gedaald in verkoop. EN nu begint Samsung ook al. Die gaan hetzelfde merken,maken dezelfde fout. Ik heb er geen medelijden mee. Als je de prijs gewoon fatsoenloijk houdt zoals altijd, dus zo rond de800 verkoop je er meer dus is je omzet ook groter want naar rato verkoop je er meer.
Ik ga niet over het beleid van Nvidia, ik stel alleen vast wat ze doen. Uiteindelijk kijk ik zelf vooral met fronsende wenkbrauwen naar de consumenten, en ik ken ze persoonlijk, die meer dan 400 euro voor diezelfde GTX 1060 6 GB hebben betaald. Uiteindelijk is het de hebberigheid die de hogere prijzen faciliteert.

In dit specifieke voorbeeld had je de GTX 1060 3 GB voor +- 225 kunnen aanschaffen en dan het restant in je broekzak kunnen houden. Dat is 425,00- 225 = 200. Die GTX 1060 3GB zijn nu nog +- 120 euro waard. Dus dan had je nu, een half jaar later, 200+120= 320 euro gehad om een kaart van te kopen. Daar koop je dus een 1660 Ti voor welke niet alleen de gewenste hoeveelheid ram heeft maar tevens een klap sneller is (bijna 2x zo snel).

Wie is hier dan fout? De consument die zich niet kan beheersen en 200 euro extra neerlegt voor een paar procent prestatie winst? Of het bedrijf die het gewoon gaat proberen voor een hogere prijs?

Momenteel zitten we in een economische 'boom' en het geld lijkt niet op te kunnen en ik zie overal de prijzen omhoog vliegen. Bij de volgende crisis wordt het ongetwijfeld weer soberder.

[Reactie gewijzigd door sdk1985 op 2 maart 2019 19:13]

De prijzen waren flink gestegen door het hele mining gebeuren. Je had als consument weinig keuze als je in die periode een videokaart wilde hebben.

Je kunt dan 2 dingen doen:
- wachten
- dieper in de buidel tasten

Wachten is echter niet altijd een oplossing. Daarnaast is het misschien ook wel €100-150 waard om meteen van je game pc te genieten dan mogelijk een jaar te wachten...

Ik heb zelf een GTX 1070 in oktober 2016 gekocht voor €435. Als ik dan zie dat een dik jaar later je dat bedrag kwijt bent voor een 1060 gaan mijn wenkbrauwen ook fronsen. Het is sneu voor de mensen die destijds geen andere keuze hadden en in verhouding veel te veel betaalden, echter hadden ze weinig keuze.

De huidige prijzen voor de RTX-serie zijn een gevolg van een groot gebrek aan concurrentie. De RTX 2080 heeft vergelijkbare prestaties van de 1080ti met een iets hogere prijs vanwege wat nieuwe functies. Wil je echt iets substantieel beters dan de vorige generatie mag je diep in de buidel tasten voor een RTX 2080ti. Zolang er geen concurrentie is die soortgelijke prestaties biedt, is er voor Nvidia geen enkele reden dit aan te passen; wil je het snelste mag je flink betalen.

Mogelijk dat Navi van AMD hier verandering in kan brengen want Nvidia zelf zal het niet (snel) doen.
Het is sneu voor de mensen die destijds geen andere keuze hadden
Laten we wel wezen: we hebben het hier over GPU's. Gaming is geen eerste levensbehoefte, en deze high-end GPU's zijn niet noodzakelijk om te gamen. Dit gaat om eye candy.
De prijzen waren flink gestegen door het hele mining gebeuren. Je had als consument weinig keuze als je in die periode een videokaart wilde hebben.

Je kunt dan 2 dingen doen:
- wachten
- dieper in de buidel tasten

Wachten is echter niet altijd een oplossing. Daarnaast is het misschien ook wel €100-150 waard om meteen van je game pc te genieten dan mogelijk een jaar te wachten...

Ik heb zelf een GTX 1070 in oktober 2016 gekocht voor €435. Als ik dan zie dat een dik jaar later je dat bedrag kwijt bent voor een 1060 gaan mijn wenkbrauwen ook fronsen. Het is sneu voor de mensen die destijds geen andere keuze hadden en in verhouding veel te veel betaalden, echter hadden ze weinig keuze.

De huidige prijzen voor de RTX-serie zijn een gevolg van een groot gebrek aan concurrentie. De RTX 2080 heeft vergelijkbare prestaties van de 1080ti met een iets hogere prijs vanwege wat nieuwe functies. Wil je echt iets substantieel beters dan de vorige generatie mag je diep in de buidel tasten voor een RTX 2080ti. Zolang er geen concurrentie is die soortgelijke prestaties biedt, is er voor Nvidia geen enkele reden dit aan te passen; wil je het snelste mag je flink betalen.

Mogelijk dat Navi van AMD hier verandering in kan brengen want Nvidia zelf zal het niet (snel) doen.
Niet dat ik het niet eens ben met je alinea over de huidige prijzen, maar waarom stap je nu over het bestaan van de GTX 1060 3GB heen die in de post waarop je reageert staat beschreven als betere optie?

Het systematisch negeren van die optie onderschrijft wat mij betreft de hebberigheid op basis waarvan Nvidia de advies prijzen heeft kunnen verhogen.

[Reactie gewijzigd door sdk1985 op 3 maart 2019 17:57]

Die variant is toch wel een stukje langzamer. Ook de 3GB geheugen is een vreemde keuze en niet echt toekomstbestendig.

Ik snap dus prima waarom die kaart genegeerd werd.
We praten over 6% en dan begrijp jij dat je voor dat verschil €425 ipv €225 gaat betalen? Dat verschil is zo klein dat we dan praten over 95 of 98 fps in GTA V. Ik begrijp dat niet. Als je er goed over na denkt begrijp jij het als het goed is ook niet.

Ook niet met het 3GB argument. In mijn post stond dat het niet future proof hoefde te zijn? Je in 2018 dat ding met 3GB aan kunnen aanschaffen en vervolgens dit weekend hem vervangen voor een 1660 Ti. Dan had je niet alleen je 6GB ram weer gehad. Maar daar stopt het niet want volgens dat systeem had je dan nu de volgende voordelen gehad:
-30 tot 40% meer fps
-20% betere prestatie per watt
-nieuwste architectuur in plaats van die uit 2016

De enige redenen om voor de GTX 1060 6GB voor 400+ euro te gaan was misinformatie (iemand heeft je het idee gegeven dat games op 3GB niet draaien).

Deze methode stond hier al beschreven :X .

[Reactie gewijzigd door sdk1985 op 3 maart 2019 18:28]

Het gaat niet om goed of fout. Mensen hebben verschillende reden om:
- niet voor de 3GB versie te gaan
- in verhouding veel meer uit te geven voor de 6GB versie
- of überhaupt een videokaart kopen in de meest ongunstige tijd

Feit is dat het voor iedereen verschillend is hoeveel hij aan een bepaald component uit wil geven en of het een goede prijs-kwaliteitverhouding heeft...
Ze proberen ons de gamers gewoon keihard te naaien met al die prijsvehogingen, ze zijn ff vergeten dat ze zo gegroeid zijn doordat wij we steunden, nee als dank verhoogden ze de prijzen en hadden ze maling aan t feit dat de mining gekte ons zonder kaarten liet, nu zijn de miners weg en nog blijven ze de prijzen verhogen. Ineens ligt t overal aan, bs, op een paar diehard fanbois na is de rest er klaar mee en wachten ze gewoon met een gpu aanschaf of gaan ze express naar de concurrent, en terecht hoop dat ze nog een veel slechter kwartaal krijgen.
Een bedrijf is ook geen liefdagings instelling.. Dus wat heeft dat steunden ermee te maken..
Er zijn gewoon mensen op de planeet die zich laten naaien door nvidia.. En dan ook nog eens van AMD verwachten dat hun degene moeten zijn om er voor te moeten zorgen dat hun de prijzen van nvidia moeten verlagen door concurrentie te moeten bieden.. Maar dezelfde mensen die het meest klagen met hun dure nvidia kaart, wel nvidia blijven slikken en kopen.. Ik denk dat je dan eens bij je zelf na moet gaan denken waar het fout gaat.
Dat is precies de crux van het hele verhaal. Nvidia zet zijn videokaarten niet in de markt voor gamers maar voor AI-toepassingen, zoals MSalters ook zegt. Een Nvidia kaart is dus gewoon een luxe en je bent totaal niet verplicht er een aan te schaffen. Zelf heb ik wel een Quadro M1000 met 4 GB in mijn laptop en daar doe ik het nu al een paar jaar mee en dat zal de komende jaren nog wel voldoende zijn. Een Nvidia videokaart schaf ik alleen aan, als het gebruik ervan me geld oplevert of tijd bespaart.

Voor mijn desktops heb ik altijd ATI videokaarten gekocht en later AMD onboard graphics gebruikt en maar één Nvidia videokaart voor het testen van de nouveau driver. Ik speelde dan ook niet de nieuwste games en gebruikte mijn computers meer voor andere doeleinden. Navi lijkt mij wel interessant om ook op mijn desktops weer moderne graphics te krijgen. En verder kijk ik uit naar de ontwikkelingen van Intel en outsider Esperanto Technologies met hun ET-Minion cores voor de komende jaren.

[Reactie gewijzigd door psychicist op 4 maart 2019 00:30]

Steunen? 8)7 Heb je aandelen gekocht?

Net als ieder gezond bedrijf zoekt zowel Nvidia als AMD naar de prijspunten die voor maximale omzet zorgen. Begin van crypto zaten ze er naast en nu zitten ze er weer naast.
Euhmm nee, heb mooi een vega 56 gekocht deze keer, prima kaart voor 2k en 3 dikke games erbij.

[Reactie gewijzigd door ChAiNsAwII op 5 maart 2019 03:21]

gewoon naar prijs kijkende zijn de classe gpu voor het geld dat je neersmijt wel fors omhoog geschoten, en zijn gevoel klopt trouwens wel dat je meer betaalt voor meer prestaties :p

normaal gaat de prijs wel iets omhoog per generatie maar kan je nog voor nagenoeg hetzelfde geld dezelfde classe kopen als we de 80ti als voorbeeld nemen

780TI ~700 euro
980TI ~650 euro
1080TI ~700 euro maar toen kwam de crypto boom
2080TI ~1300 euro

nu is de 2080TI ongeveer 2x zo snel als de 980TI maar tevens is hij ook 2x zo duur....
waar hij in het verleden misschien iets duurder was geweest maar geen 2x
al kan je bij de 2xxx kaarten het RTX argument er in smijten.

omdat de 1080TI meer een verbeterde versie was van de 980TI (tot 60% sneller maar geen nieuwe features) waar de 2080TI een ietwat snellere versie is van de 1080TI maar ook nog DXR/RTX ondersteund dmv extra core's.

misschien niet een feature waar je op zit te wachten maar hij zit er toch in en die tensor core's zullen nie gratis zijn.

[Reactie gewijzigd door anub1s17 op 2 maart 2019 16:49]

"misschien niet een feature waar je op zit te wachten maar hij zit er toch in en die tensor core's zullen nie gratis zijn."

Nee, maar bepalend voor de prijs ook niet echt, voegt maar 10-15% aan de kosten toe
1080TI ~700 euro maar toen kwam de crypto boom
Toen zaten we al midden in de crypto 'boom' echter waren toen Nvidea kaarten niet de beste keuze qua kosten en rendement, pas toen er nergens meer AMD kaarten te krijgen waren, begonnen de Nvidia kaarten interessant te worden. Vandaar dat ze nu ook op V&A worden aangeboden vanaf €500 (2e hands).
bedoelde er ook alleen mee dat de kaart op launch ~700 euro zou kosten maar kort daarna (toen de amd kaarten op waren) opeens voor 800/900/1100 kwamen te staan, iets wat nu de startprijs is.

voordat mensen gaan gillen dat hij geen 700 euro was maar 1100-1200 euro.
Ik heb destijds mijn MSI GTX 1080Ti vlak na release misschien niet voor 700, maar zeker voor minder dan 800 euro gekocht.
Ik denk dat je last hebt van het fenomeen waarbij je het idee hebt dat vroeger alles beter was. Kijk eens naar bijvoorbeeld de stap van de GTX 260 naar de GTX 460. Dat scheelde 22% op de TPU index. De 560 Ti gaf 12%. De 660 gaf 21%. De 760 gaf 20%, enz.
Waar argumenteer je nou tegen? Je zegt in andere woorden wat TheTinusNL ook zegt:
De laatste tijd gaan de prestaties nog steeds omhoog
Maar je gaat niet in op de essentie van zijn argument:
maar zo ook de prijs.
In de berichten dat mining bijna geen inpakt heeft op de verkopen reageerde ik al dat ik dat gewoon niet kon geloven. Ik kreeg toen een dikke min 1, maar ik blijf erbij dat de gpu fabrikanten gigantisch geprofiteerd hebben van deze markt en dat dit echt wel enorme inpakt gaat hebben op deze bedrijven. Er waren periodes van dat er geen enkele gpu te krijgen was en het overal uitverkocht was. Dat had je in het pre mining tijdperk nog nooit mee gemaakt.
[...]

Ik denk dat je last hebt van het fenomeen waarbij je het idee hebt dat vroeger alles beter was. Kijk eens naar bijvoorbeeld de stap van de GTX 260 naar de GTX 460. Dat scheelde 22% op de TPU index. De 560 Ti gaf 12%. De 660 gaf 21%. De 760 gaf 20%, enz.

Je krijgt alleen grote stappen wanneer je één of meerdere generaties overslaat óf van 'bracket' wisselt en dus een duurdere kaart aanschaft. Bijvoorbeeld van een GTX 560 Ti ($250) naar een GTX 660 Ti ($300) of zelfs direct naar een GTX 970 ($330).

(edit: Ik ga verder niet ontkennen dat Nvidia met RTX alles lijkt te hebben opgeschoven. De MSRP adviesprijs is flink omhoog gegaan, dat valt niet te ontkennen. Ik heb het hierboven specifiek over 'vroeger'. )
Daar zit Nvidia met de GTX 1660Ti mooi tussen met $279.- :)
https://videocardz.com/79...60-ti-listed-by-retailers
Volgens mij heb jij last van de fanboy fenomeen/kapitalist.
Wellicht handig als je dat dan ook onderbouwd want zo kan niemand er eigenlijk iets mee. Jij bent wel van mening dat je in de vorige generaties grote sprongen in prestaties zag? Ook al heb ik de reviews van techpowerup erbij gezet?
Wat betreft NVidia was de GTX 970 gewoon té goed qua prijs/kwaliteit denk ik. De 1060 was maar een superkleine upgrade, de 1070 was véél duurder, en de RTX kaarten hebben gewoon geen echte niche gevonden.
Wat betreft NVidia was de GTX 970 gewoon té goed qua prijs/kwaliteit denk ik. De 1060 was maar een superkleine upgrade, de 1070 was véél duurder, en de RTX kaarten hebben gewoon geen echte niche gevonden.
GTX1060 is ook geen opvolger van GTX970 :)
Een 1070 wel, en dat is erg veel verschil
Er zit anders maar bar weinig verschil tussen een GTX1060 en 1070 (en dan laat ik de TI versies nog maar buiten beschouwing). Ik zit hier met een GTX670 en die begint nu pas tegen zijn limieten aan te lopen.
Het trucje van NVidia is dan ook eerder evolutie dan revolutie. Vergelijk het maar met een VW Golf. ;)
Er zit anders maar bar weinig verschil tussen een GTX1060 en 1070 (en dan laat ik de TI versies nog maar buiten beschouwing). Ik zit hier met een GTX670 en die begint nu pas tegen zijn limieten aan te lopen.
Het trucje van NVidia is dan ook eerder evolutie dan revolutie. Vergelijk het maar met een VW Golf. ;)
970 werd aangegeven, en GTX1060 zou 'opvolger' zijn. (tenminste werd verschil mee gemaakt als zijnde)
hier zie je het verschil in 970 en 1070 https://gpu.userbenchmark...Nvidia-GTX-970/3609vs2577. (algemene cijfers)
Een GTX 1060 was inderdaad niet de opvolger van de GTX970, echter de GTX1070 die dat wel was, was ook minstens €100 duurder dan de GTX970 bij introductie. Deels was dat te wijten aan de cryptocurrency gekte, maar aan de andere kant gingen de producenten niet meer bij produceren om de prijs te drukken.

Echter zit men nu sowieso met de gebakken peren omdat de crypto gekte voor velen over is en dus bergen 2e hands videokaarten worden aangeboden tegen1/3 of minder van de prijs van een nieuwe kaart, een die niet significant sneller is...
Als de producenten meer waren gaan produceren om de prijs te drukken, dan zaten ze nu met niet alleen tegenvallende verkopen maar ook nog eens containers vol kaarten die zo de vuilstort in gedumpt kunnen worden. Nogal wiedes dat ze dat niet deden. Dat is het probleem met crypto: er kan opeens gigantische vraag zijn, maar je productiecapaciteit wordt bepaald tussen de 6 en 12 maanden eerder (of soms nog eerder), en als je je er op in gaat stellen dan zul je zien dat dat het moment is dat de boel inkrimpt en de vraag van een klif afstort.

Het punt is dat met een inkrimping van de koers van 60%, de cryptovraag niet met 60% afneemt maar met 100%. Ze *hebben* allemaal al meer GPUs dan ze aan kunnen zetten op basis van prijs per kilowattuur. In iets mindere mate is dat ook al zo bij een koersdaling van maar 20 of 30%.

[Reactie gewijzigd door Jasper Janssen op 2 maart 2019 21:35]

Wat is dat voor een onzin?
Als de 2080(TI) € 600,- ipv € 1200,- had gekost dan had ik ondertussen een nieuw moederbord, geheugen, Ryzen, 2080TI en UW-monitor gekocht, dus dan had ik uiteindelijk "de industrie" veel meer geld gegeven.

Maar nu blijf ik bij mijn oude systeempje, misschien nog wel een jaar, of 2, of 3, want ik ga toch geen € 1000,-+ voor een GPU uitgeven? Kijk ik ben wel gek, knettergek als ik de dokters mag geloven, maar ik ben niet gekke gerritje, en ook niet dom. (of zo rijk dat valuta voor mij niet meer interessant is).

Ik heb nog tig spellen niet uitgespeeld die prima spelen, en ik heb er nog een paar die ik sowieso nog op nightmare/deathmarch/insane moet uitspelen, en mijn laptop is binnen 30 seconden aangesloten op mijn keyboard en muis en 29" UW, en die houdt het nog wel een tijdje uit met zijn 1070.

Dus waarschijnlijk had ik al 2x geupgraded als de prijzen niet zo hoog lagen, nu doe ik het niet, en vele met mij, dus het enige wat ze bereiken (want ze maken nog steeds recordwinsten dus dat maakt niet uit) is dat ze de innovatie tegenhouden, want waarom iets programmeren als mensen het niet gaan kopen omdat hun systeem het niet trekt. Er zal vast een percentage zijn die dan tóch maar een nieuw systeem in elkaar zet, maar ook zat mensen zoals ik, die het dan gewoon niet kopen.

En met de cryptoers hebben ze nog een probleem, want er gaat vandaag of morgen er eentje zijn die geld npdig heeft, en die gaat zijn 16-160 kaarten dan iets goedkoper verkopen, dan moet pietje daar weer iets onder, en jantje daaronder, en dan koopt zion gewoon een 1080(TI) voor een habbekrats.

Hopelijk dan de 3080TI weer eens voor een normale prijs omdat nVidia ook weer nieuwe spulletjes wil gaan verkopen :Y
maar dan wordt het voor zion nog steeds een 2ehands nVidia voor weinig, of een gloedjenieuwe AMD voor veel, maar dat is een principe kwestie

[Reactie gewijzigd door zion op 3 maart 2019 04:35]

Waarom denk je dat Nvidia er baat van heeft als jij “de industrie” meer geld geeft?

En die stortvloed aan goedkope ex-mining kaarten is er al.
Omdat dat "de industrie" meer geld/motivatie geeft om te innoveren, waardoor consumenten vervolgens weer meer geprikkeld worden nieuwe hardware te kopen, en zo hou je je eigen eco-systeem in leven.
Economie 101.
@Jasper Janssen Ok, misschien niet 101, maar wel zeker hoe het werkt, maar dat gaat te ver off-topic, dus die discussie pas ik om 08:42 op zondag ochtend even voor, maar om een simpel voorbeeld te geven, op de CES2017 hadden ze het al over UW38" 3840*1600@144Hz G-Sync2 HDR schermen, nu, ruim 2 jaar later zijn ze er nog steeds niet omdat nVidia eerst G-Sync2 niet aan de praat kreeg, en daarna geen kaart had die ze aan kan sturen, ergo, de monitor fabrikanten brengen de monitor niet uit en ik koop geen niieuwe Nvidia kaart omdat de monitor er niet is.....,.

[Reactie gewijzigd door zion op 3 maart 2019 08:53]

That’s... not how that works. En dat is zeker geen 101.

Een bedrijf maakt producten om winst te maken. Niet om andere bedrijven aan verkopen te helpen.
Is dat zo? Ik zoek een leuke GTX 1080Ti maar kan er nergens een vinden voor een derde van de prijs van een nieuwe kaart ;)
Wel vanaf 500 euro, maar dat is maar 150 euro gekoper dan een ongebruikte met garantie.

[Reactie gewijzigd door Mastermind op 2 maart 2019 19:19]

Dat viel mij idd ook al op, had dezelfde gedachtengang namelijk, gewoon niet kopen, blijven ze lekker zitten met hun 16 1080TI's uit hun miningfarm, die steeds minder waard worden, gaat vanzelf de eerste minder vragen, dan de 2e, en dan gaat het balletje rollen.... :Y
Kun je beter wachten op een AMD. De AI wereld zweert bij NVidia, en de 1080Ti is daarin de topper. En waar de crypto bubble wel zo'n beetje over is, gaat AI alleen maar harder.
offtopic:
Dan koop ik gewoon niks of Navi als die presteert

Tja je hebt helemaal gelijk, nou ja, semi gelijk, want de 1080TI is daarin de topper vanwege de software omdat Tensoflow, Pytorch, Caffe, CNTK, etc. allemaal CUDA ondersteunen, en geen OpenCL.

Zoals je hieronder kunt zien duldt de Vega64 alleen de Tesla V100-SXM2 voor zich bij TensorFlow over RocM
Benchmark CIFAR10 on TensorFlow with ROCm on AMD GPUs vs CUDA9 and cuDNN7 on NVIDIA GPUs
Ook hier komt de Vega64 gewoon als 2e over de streep:
MATRIX MULTIPLICATION

Dus ja, nVidia domineert de markt absoluut, maar dat komt omdat ze nu dezelfde praktijken uitvoeren op de AI markt als we ze al eerder hebben zien doen in andere sectors, namelijk het zo moeiljk mogelijk maken ook te programmeren voor AMD, want hun GPU's kunnen het wel, maar als er geen ondersteuning voor AMD is kies je eerder voor de GPU die wel ondersteund wordt.

Overigens zag ik in de fora waar ik net aan het spitten was dat nu toch echt overal de 2070 aangewezen werd als de GPU to-go, en niet de 1080TI, dus ik denk dat de grootverbruikers niet massaal de 2e hands 1080's gaan opkopen, en dat er meer miners waren dan hobbyisten die met Deeplearning/AI aan het spelen zijn.

disclaimer: schaamteloos van Github/RocM/GPUeater overgenomen
edit:
Tiepvautjuz

[Reactie gewijzigd door zion op 3 maart 2019 04:13]

Nou "het zo moeilijk mogelijk maken" is niet echt hoe ik CUDA zou willen beschrijven. ROCm is veel complexer dan Cuda; niet zo'n issue op standaard netwerken waar iemand anders al de nodige support heeft gebouwd. Maar ik zit nu bijvoorbeeld al tegen een CUDA probleem aan te hikken waar ik de CUDA DMA controller saturate (op Turing); de overhead van ROCm is absoluut niet iets wat ik kan gebruiken.

FP16 optimalisaties? Graag, als je framework ze al voor jouw situatie ondersteunt. Ook dat is weer zoiets wat je niet zelf wil moeten bouwen, dan is je financieel voordeel van Vega ook weer weg.
Interessante toevoeging, dat wist ik helemaal niet over die AI. Thanks.
Niet heel fijn als consument helaas.
Ik tel de 1060 als opvolger omdat deze bij release iirc dezelfde msrp had. Ik meen me ook iets te herinneren dat NVidia zelf hierover iets gezegd had. :)
GTX 970 heeft nou niet een heel erg goede reputatie. Meest beruchte coil whine ooit en daarnaast ook nog het 3,5GB RAM debacle. Ik had hem binnen een jaar vervangen uit ergernis.

https://www.youtube.com/watch?v=IghcowGhRBc
GTX 970 heeft nou niet een heel erg goede reputatie. Meest beruchte coil whine ooit
Dat ligt niet aan de GPU, maar aan de spoelen die de fabrikant van de videokaart monteert.
Tja, óf ik heb geluk gehad (die kans is zeer klein, heb ik niet zo vaak ;)), of jij pech.
Ik heb nog steeds de 970 (maar ik gebruik mijn PC bijna niet meer omdat mijn laptop sneller is), maar nooit tegen die 3,5GB bug aan gelopen, en ik kon mijn PC nagenoeg niet horen, zelfs niet als ik aan het gamen was in een mini-ITX behuizing.

Ik denk zoals hierboven ook al aangegeven wordt dat mensen het gewoon zat zijn dat we zo uitgemolken worden, en ik weiger gewoon om zo absurd veel geld aan Nvidia te geven, ze verdienen wel eens genoeg, en het wordt steeds duurder, zoals ook al eerder aangegeven verdien ik ongeveer 10% meer dan toen ik mijn 970 kocht, maar de 2070 is wel 300% zo duur als ik destijds voor mijn 970 betaald heb, dat gaat er bij mij gewoon niet in. (Ja, niet bij release gekocht en met kortingscode/actie, maar dat terzijde, die acties zie ik namelijk niet voorbijkomen met de 2070)
heb hier een MSI GTX 970...., nergens last van!
Coil Whine? Nah........, heb je misschien een iets minder exemplaar?
Of misschien is het probleem helemaal niet zo groot als men doet uitschijnen? Mijn 970 heeft er namelijk ook geen last van. En ja, dan zitten we op n=2, maar zonder een fatsoenlijk onderzoek is het zeer moeilijk om te zeggen hoe groot het probleem werkelijk is.
Ik had één van de weinige reference cards van Nvidia, deze heb ik overigens verkocht. Het is ook een beetje pech geweest natuurlijk. Een groot deel had natuurlijk geen last maar bij deze kaart was het percentage dat er wel last van had erg groot, het werd ook erkend door nvidia.

https://wccftech.com/nvidia-gtx-970-coil-whine/
Ja dat is wel een beetje pech hebben ouwe.
Ik zit er zelfs aan te denken om er nog eentje te scoren voor SLI.
Dan kan je beter je geld apart zetten en een andere kaart kopen. Prestatiewinst zal minimaal zijn omdat ze het beide dan moeten doen met 3,5GB RAM.
die msi van mij is overleden helaas paarse blauwe vlekken in beeld en niets meer normaal
was ook net een maand na de garantie dus jammer joh : (
maar verders wel plezier van gehad
Ook hier geen last, een Asus Strix 970 draait al vele jaren probleemloos.
geen coilwhine en het geheugendingetje... ik had er geen last van in dagelijks gebruik.
MSI 970 hier alweer een jaar of 3 in gebruik, nooit problemen mee. En ik ga 'm ook niet vervangen op de korte termijn.
Ik draai op waterkoeling en heb er twee. Top kaarten, nog steeds en zeker voor het geld van toen.
De RTX serie heeft zeker een niche markt. In 3D rendering is de RTX serie heel interessant. Veel offline rendering gebeurd ook op videokaarten. En daar is raytracing de default.
Zo is er bij 'Octane' met een 2080Ti, een snelheids-winst tussen de 60% en 300% ten opzichte van de 1080Ti (afhankelijk van de scene grote en complexiteit). En dit is op een nog niet helemaal goed geoptimaliseerde build.
Dus ik snap dat hij overpriced is voor een game kaart, maar voor sommige niche markten is hij bijzonder interessant.

edit: De eerste voorspelling van Jules Urbach (CEO van Octane) waren zelfs nog hoger. Die had het eerst over 5 tot 8 keer zo snel als een 1080 Ti. Maar dat moeten we nog maar zien.

[Reactie gewijzigd door nr12 op 2 maart 2019 16:26]

Crypto gekte van 2017 enige besef van luchtballon kwam al snel in eerste helft 2018.

Overigens zien je het niet terug in prijzen van kaarten dus ik vraag me af welke discrete GPU en hoe ze er vanaf denken te komen elke week later moeten ze (net als bij andere bederfelijke goederen) op afschrijven en als straks nieuwe kaarten uit komen helemaal.

Ondertussen zie ik nergens 1080 Ti nieuw te koop voor zachtprijsje.
De pascal kaarten zijn uit productie gehaald. Goede aanbiedingen voor videokaarten zijn al jaren lastig te vinden. Vroeger heb ik bijvoorbeeld 140 euro voor een GTX 260 betaald nadat het snellere 216SP model de markt op kwam. pricewatch: EVGA GeForce GTX 260 896MB Daar hoefde je toen niet snel bij te zijn, dat bleef weken lang op de site staan. Ook voor de GTX 460 Hawk hoefde ik maar 165 euro neer te leggen. Tegenwoordig zijn ze vooral ineens 'op', dat wordt zo ingecalculeerd.

Echter, deze keer is die voorspelling door Nvidia niet goed gegaan want hoewel de 1080 (ti) kaarten op tijd 'op' waren is er van de 106 wel een overschot en daar zie je dan nu flink wat stuntprijzen. Ook de RX580 doet mee; ik zag vorige week nog iets van 183 euro voor een RX 580.

[Reactie gewijzigd door sdk1985 op 2 maart 2019 17:33]

Waar zag je die aanbiedingen zodra Ryzen 3 uit is in de markt voor recente gfx kaart waar de kop vanaf is.
alternate: 185,- voor RX580 8GB
Marktplaats Nieuw RX580 8GB vanaf 180,-[/]
en nog veel meer plekken: RX580

Alternate 1060 6GB 239,-
Nieuw 1060 6GB vanaf 193,-
en ook hier nog gewoon even Googlen
Ondertussen zie ik nergens 1080 Ti nieuw te koop voor zachtprijsje.
De leveranciers zouden gek zijn als ze nog iets langzamere videokaarten bleven verkopen tegen een veel lagere prijs. Dat wil Nvidia natuurlijk niet.

Maar op de 2e hands markt is er wel heel veel te vinden en normaal is dat voor velen niet de moeite, maar nu zijn de prestaties vs kosten tussen nieuw en 2e hands een heel stuk extremer geworden...
1080Ti 2x voor elk 150 euro zou ik meteen doen ook als ze uit miningoplossing komen.

Heb destijds 2x R9 290 voor eenzelfde prijs gekocht terwijl ze tweedehands voor het dubbele stonden.

Maar ik zie nergens iets waar ik warm van zou worden.
Als ik bekijk dat mijn GTX 970 nog prima mee doet, ook met de nieuwste games (Behalve Fallout 76, maar dat draait ook niet lekker op GTX 10xx en hoger, doordat Bethesda waardeloze programmeurs heeft met een aangepaste oude grafische engine ...)

Als ik de GTX 970 vergelijk met een GTX 10xx, dan ga ik geen paar honderd euro extra uitgeven voor 10-20 fps verbetering ...
Daar komt nu wel verandering in hoor ;) een GTX1660ti van 295,- draait BF5 op 90fps ultra, waar onze 970's met moeite boven de 50 komen. Volgens de benchmarks, bij mij haal ik op medium settings amper 60 stabiel.

Het was een prachtige kaart, maar merk dat hij steeds meer begint te strugglen. Met name het geheugen (3,5gb + 0,5gb traag) is niet meer toereikend genoeg.

1440p of hoger kunnen we al helemaal vergeten :P

[Reactie gewijzigd door quintox op 3 maart 2019 00:52]

Och, voorlopig draai ik nog steeds Full HD, vindt het best ...

Maar inderdaad.de nog betaalbare GTX 1660-ti heeft inderdaad een performance verbetering van 46%,
dat is in ieder geval nog te doen ...

De rest boven de GTX 970 is te duur voor de FPS verbeteringen ...
Voor mij was de doorslag Battlefield en het hebben van een 144hz monitor. Bij BF1 merkte ik al dat ik de settings enorm omlaag moest schroeven om in de buurt van de 100fps te komen, maar op BF5 staat vrijwel alles uit en haal ik met moeite 60 ( op Full HD ).

De rest vind ik ook te duur en is het me niet meer waard. Was tot voor kort aan het wachten op wat Navi ging brengen, maar de 1660ti zit qua 'bang for the buck' en stroomverbruik/temperatuur wel erg lekker. Navi zal het wellicht beter doen in dat segment, maar die is uitgesteld en gaat er wss pas in Q4 komen.

Mijn GTX970 schuift dan door naar vrouwlief die het nog moet doen met een 750ti :9
Er zijn een aantal zaken die al een tijdje samenvallen. De meeste spellen hebben niet per se het nieuwste van het nieuwste nodig, RTX is nog te nieuw, de wet van Moore loopt langzaam op zijn einde waardoor het niet echt veel goedkoper wordt, de cryptogekte is alleen vol te houden voor echt grote partijen. Ze hebben eigenlijk nog mazzel dat de economie niet in een neergang zit.

We krijgen nog steeds meer prestaties voor hetzelfde geld, alleen niet echt veel meer. We waren dat wel gewend. Voor koopjesjagers wel mooie tijden omdat je niet direct mijlenver achterloopt met de vorige generatie.
Dit heeft hoegenaamd niets te maken met de verkoop van die dingen als GPUs, Dit heeft te maken met een verregaande instorting van de vraag naar gpu compute -- om specifiek te zijn, de ineenstorting van de koers van bitcoin.
Dit heeft puur te maken met de bitcoinkoers en daarmee de koersen altcoins t.o.v. de prijs voor electra. Het is nu gewoon niet lucratief om met GPU's altcoins te minen (voor mensen die niet weten hoe het werkt: je mined een willekeurige altcoin die op dat moment het meest lucratief is en verkoopt die voor BTC).
Al die farbrikanten werken met het zelfde businessmodel, zo lang mogelijk je cashcow uitbuiten want dat scheelt je veel geld in ontwikkeling. En met het minen was het zo dat een relatief oude kaart (een R7850 of 280 of noem eens wat) vrijwel net zo goed was als een splinternieuwe generatie om te minen. Dus de vraag naar oud bleef hoog, en daarmee de prijs van de nieuwe generatie kaarten ook.
"Normaliter kreeg je bij elke nieuwe generatie meer prestaties voor een vergelijkbaar bedrag.
De laatste tijd gaan de prestaties nog steeds omhoog, maar zo ook de prijs."


Hoe kom je erbij? Als de prijs omhoog zou gaan dat wil zeggen dat we in 2019 meer zouden betalen (los van inflatie) dan in de vorige generatie kaarten? Dat is helemaal niet het geval. Erger nog, door het wegvallen van de 'cryptogekte' zijn gpu's goedkoper geworden. Niet duurder.

Als je naar de BestBuy €1000 desktop ziet van 2017-2018 krijg je nu effectief meer FPS voor uw geld.
De prestaties zijn 50% gestegen en de prijs van de build is min of meer gelijk gebleven. Vorig jaren had je voor €1000 een GTX 1060 en nu een RTX 2060 met 50% meer power.

Als je op GPU niveau gaat vergelijken is de prijs ook gelijkgebleven want de GTX 1660ti is een 30% sneller dan de GTX1060 en de nieuwste telg is zelfs iets goedkoper dan de GTX1060 bij introductie.
Misschien moet je de afname van de vraag eens naar de koers van cryptovaluta leggen. Als ik mag gokken is dat 1 van de grootste redenen voor een tegenvallende vraag.
Ook blijven games een beetje stil staan kwa graphics op een enkele uitzondering na.
Alle Nvidia kaarten zijn nog steeds heel erg duur. Daarnaast heb ik heel erg spijt dat ik een 1080 TI heb aangeschaft omdat er bijna geen games uitkomen dat ik wil spelen. Met een 1060 kon ik de standaard games die ik nu speel zoals Apex of Hearthstone ook al aan :S
Het is nu niet dat de 5 kaarten die AMD op het moment aanbiedt echt goedkoop zijn. Zolang mensen deze prijzen blijven betalen, vinden de kaartfabrikanten het wel goed.
Dat is juist het probleem. Een paar mensen maken niets uit want er zijn altijd mensen die het normaal vinden om 1500+ dollar/euro neer te tellen voor de GPU om ermee te kunnen gamen. Voor 800 euro had ik mijn pc gemaakt.. met een 1060 en 16 gb ram
Dat is juist het probleem. Een paar mensen maken niets uit want er zijn altijd mensen die het normaal vinden om 1500+ dollar/euro neer te tellen voor de GPU om ermee te kunnen gamen. Voor 800 euro had ik mijn pc gemaakt.. met een 1060 en 16 gb ram
Ach wees niet bedroeft, je kan met je Geforce GTX 1080 Ti veel meer jaren doen dan een Geforce GTX 1060, dus het valt mee, hoop dat hij goedkoop was, want anders kon je net zo goed de Geforce RTX 2080 kopen of de Radeon VII 16 GB, en de Geforce GTX 1080 Ti is meer dan 2x zo snel als de Geforce GTX 1060.

https://www.guru3d.com/ar..._vii_16_gb_review,11.html
Het is nu niet dat de 5 kaarten die AMD op het moment aanbiedt echt goedkoop zijn. Zolang mensen deze prijzen blijven betalen, vinden de kaartfabrikanten het wel goed.
Het artikel gaat er nu juist over dat er de afgelopen tijd meer kaarten worden geproduceerd dan er mensen zijn die ze voor deze prijzen kopen.
Herken dit helemaal. Ik had laatst zin om een mooie game pc te maken. Heb ik gedaan, prachtige mini itx build met 1080ti. Toen ik klaar was had ik geen idee wat ik wilde spelen. Een Ps4 pro en xbox one x zien er ook al meer dan prima uit en speelt ook nog veel lekkerder. Game pc dis maar weer verkocht.
Ik heb volgens mij onderhand een 2 k pc nu en ik denk eraan om een nintendo switch te halen omdat er geen games op de pc zijn dat me aanspreken. Witcher, dishonored, bioshock, metro heb ik allemaal uitgespeeld en verder boeien andere games me niet meer.. echt zonde
Hoe kan je een game pc met 1080ti aan boord vergelijken met een console??
Mensen die alleen maar single player spellen spelen en 30-60 fps genoeg vinden denk ik. En dan waarschijnlijk het gemak en de lamme houding op de bank op een brakke dag (na carnaval :+ )

Maw eerst goed nadenken wat je wil voordat je tot aankoop overgaat
Ik heb ook een 1080TI aangeschaft en ben er erg blij mee! Heb wel een 40" 4k monitor. Iets wat gamen veel mooier maakt: het creëert een geweldig immersive beeld: overal waar je kijkt zie je het scherm.

Gewoon dus nog E500,- extra investeren en je gaat enorm veel lol aan je 1080TI beleven!
Ik heb al een 1440 p scherm met 144 hz, overigens kan de 1080 ti niet 4 k games aan op max settings. Tenzij je 10 fps wilt
Met dat scherm wil je toch juist een 1080ti? Hoe kan je dan zeggen “een 1060 had ook volstaan” in Apex iig niet..
Dat ligt dan niet aan die 1080ti, maar aan de rest van je pc,
Heb nu me monitor 5 jaar op 4K en ik speel sinds dien elke game op 4K at max, en zit zo boven de 30 fps minumum
En dat op een ouder AMD kaartje.
Die hele comotie dat 4k niet kan is al lang niet meer van toepassing
Sorry hoor maar dan is je standaard gewoon heel laag, pc games rond de 30 fps zou ik überhaupt niet eens spelen. Zeker als je altijd al 60+ fps bent gewend (of 120hz+ schermen), dan voelt alles onder de 60 echt als een diavoorstelling aan.
Ik heb het over de top games van nu bf v bijvoorbeeld op een enkele 390x
Voorheen haalde ik boven die 60 fps dat was paar jaar terug, heb in die tijd eenmalig van videokaart gewisseld
Beetje tweaken met de settings en je speelt gewoon rond de 60 fps hoor zonder dat het er slechter uit ziet.
Eh... dat is maar net hoever je er vanaf zit.
Ik heb net een 1080Ti gekocht (tweedehands, 540 euro) en ik ben er erg tevreden over. Op 4K trekt hij alles uitstekend.

De RTX generatie is gewoon niet betaalbaar meer :-(

@Database freak Mijn 4K scherm (weliswaar 24") was maar 220 euro. Ik heb liever een grotere pixeldichtheid dan meer oppervlak. Dus dat is ook nog een optie. Ik zou geen Full HD meer kopen in deze tijden.

[Reactie gewijzigd door GekkePrutser op 2 maart 2019 16:54]

Wat een vreemde stelling.. de 1080ti is een zeer interessante kaart gebleken met de introductie van de RTX kaarten die niet interessant bleken vanwege Raytracing dat nog in een te pril stadium zit (enorme FPS loss met RT aan). Veel mensen hebben geprobeerd alsnog een 1080ti op de koop te tikken wat niet meer lukte vanwege schaarste. Je mag zeer blij zijn met je 1080ti en ik denk dat je er in Apex zeker wel plezier mee gaat hebben.
Wil wel met je ruilen, hoor. Mag je mijn 1070, hehe.
Dat had je van te voren ook wel kunnen weten..
Ja dat kon ik zeker, ben ook tenslotte helderziend |:(
Gedurende de mining gekte heeft Nvidia de prijs elasticiteit getest en - net zoals Apple met de iPhone-, hebben ze de max prijs grens van de kopers verkeerd ingeschat. Nu krijgen ze het deksel op hun neus. Ik heb 2x 980TI in SLI in custom water loop en vollopig koop ik GEEN nvidia kaarten todat ze met een meer realistische prijs komen.

P.S. ter illustratie; de Gigabyte 1080TI, watergekoeld, kostte bij de introductie Euro 898,- by alternate. 6 maanden later was dezelfde kaart meer dan euro 1.300,-
https://tweakers.net/pric...b-xtreme-edition-11g.html
https://nl.hardware.info/...force-xtreme-edition-11gb

Dezelfde kaart, maar nu de 2080TI versie kost nu Euro 1.600,- of meer
https://tweakers.net/pric...me-waterforce-wb-11g.html
Ja, ik weet het de kaart presteert meer, nieuwe technologie etc. maar 75-80% meer dan de 1080TI, nee voor mij niet, ondanks het feit dat ik het mij zou kunnen veroorloven, ik vind dit price gauging

p.s wijziging- probleem met links aangepast

[Reactie gewijzigd door Grovdna op 3 maart 2019 18:22]

Vroeger had je voor pakweg 300 euro een topkaart. Nu...een midrange op zijn best. Voor velen is dit al veel geld.
Vroeger? Wanneer was dat dan? Voor mijn Geforce 4600 betaalde ik destijds 500 euro. Voor de 5950 was dat al 600 euro... . In de tijd voor de euro misschien dan? High end GPUs zijn altijd al duur geweest. Als ik die 500 euro uit 2002 neem en corrigeer voor inflatie kom ik ook rond de 750 euro uit.

Maar ja, vroeger was natuurlijk alles beter.
je zegt het zelf 500 eu (zelfs met inflatie) was vroeger een high end kaart, nu is het een mid-range kaart geworden.
750 euro is nog steeds geen midrange kaart.
Dat valt tegen hoor, mijn guldentijdperk ti500 was toen ook al 1259 gulden, krappe 600 euro, beetje inflatie en je zit op hedendaagse prijzen.
(vroeger) was een GTX960 een topkaart van €300,-. nu heb je voor dat geld een GTX1660Ti. toch wel iets anders, maar nog even duur.
Voor 350 euro heb je een PS4 pro of Xbox one x waar je ook prima mee kan gamen.
Wat ook een verschil is is dat vroeger een videokaartgeneratie aan het eind flink goedkoper werd. Voor de koopjesjager was er dan nog wel eens voor hetzelfde budget wat leuks te behalen vielen. Nu lijken de prijzen zo gecontroleerd en gestuurd dat er nog maar weinig mazzeltjes zijn.
Dat is toch oud nieuws? Tijdens de conference call van de kwartaalcijfers van het 3e kwartaal werd dit al aangehaald door zowel NVidia als AMD. Er is een surplus dat zal duren tot zeker het 2e kwartaal van 2019.
Het stomme is alleen dat je normaal bij overschot de prijs omlaag gooit om er zo snel mogelijk van af te komen. Opslag kost immers ook geld. Bij GPU's zie je de laatste jaren het omgekeerde, daar gaat de prijs juist omhoog. Overschot of niet.
Het stomme is alleen dat je normaal bij overschot de prijs omlaag gooit om er zo snel mogelijk van af te komen. Opslag kost immers ook geld. Bij GPU's zie je de laatste jaren het omgekeerde, daar gaat de prijs juist omhoog. Overschot of niet.
Heb je wel goed in de pricewatch gekeken? Kaarten als de pricewatch: MSI GeForce GTX 1060 Gaming X 6G kwamen boven de 300 euro op de markt en zijn doorgestegen naar 400+ en zijn nu recent gezakt tot onder de 250 euro. De rx 580 is ook enorm in prijs gedaald en was vorige week voor ronde de 180 euro te vinden. Ook die kaart kwam veel duurder op de markt; rond de 300 euro pricewatch: XFX Radeon RX 580 GTS XXX Edition 8GB

[Reactie gewijzigd door sdk1985 op 2 maart 2019 16:33]

ehm een prijsverschil tussen 300 en 250 zou ik niet "enorm in prijs gedaald" noemen.
Percentage gewijs is dat ongeveer 20% “korting”.
Iets waarvoor hele volksstammen naar de mediamarkt gaan en zowat vechten om “goedkope” artikelen.
Als ik de grafiek bekijk was de gemiddelde prijs 2 jaar geleden 375 en nu 350. Die 245 is een minimum. ik ben zelf op zoek naar een nieuwe videokaart en het viel met tegen dat de 1060's nauwelijks goedkoper waren.

[Reactie gewijzigd door gast128 op 2 maart 2019 17:57]

De enige reden dat ze de 1060 recent naar de 250 EUR lieten zakken is omdat Nvidia de 1660Ti voor 300 EUR verkoopt, dan kan je moeilijk nog de GTX1060 voor 300 EUR verkopen. Ze zijn gewoon te gierig om de kaart voor onder de 200 EUR te verkopen, maar uiteindelijk zal dat wel moeten wanneer ze de 1660 en 2050 gaan uitbrengen.
De RX580 is qua prijs prima maar dat was hij al sinds de voorraden sinds november 2018 weer op orde waren.
Teken dat de markt niet gezond concurrerend is.
Precies, en dat is het vervelende. Ik dacht dat Intel ook bezig was maar daar zien we nog weinig concreets van.
Rustig aan, het is niet makkelijk om kaarten te bakken en die ook nog eens goed de markt in te zetten.

Ik heb heel veel vertrouwen in Intel, maar ik heb liever dat het wat langer duurt en dat ze met een "BANG" komen dan dat het snel gaat en dat de kaarten Candy Crush niet eens fatsoenlijk kunnen draaien ;-)
Dit is een tijdelijke overschot, als de prijzen van crypto straks weer omhoog gaan is de overschot zo weer weg.
Alleen kan je als groot bedrijf niet speculeren op een speculatieve markt.
al gaat de prijs naar 100K zal het niks uithalen, mining met GPU's is het niet meer waard
GPU mining had -- ook 2 jaar geleden -- niets met de koers van bitcoin als zodanig te maken, maar wel met de koers van een heel aantal altcoins. En die altcoins doen precies hetzelfde qua koers als bitcoin, alleen meestal more so.
De populairdere altcoins zijn nu ook met asic's te minen, will GPU mining weer terug komen moeten er een handvol factoren goed staan wat ik de komende paar jaar niet zie gebeuren
Dat hangt een beetje van de altcoin af. Sommige zijn direct op bitcoin geënt en dus goed te asiccen en anderen zijn ontworpen om alleen op GPUs te draaien. Heeft verder weinig met populariteit te maken.
prijzen bleven hoog ondanks dat de crypto-markt volledig in elkaar is gestuikt en er al te lang geen nieuwe generatie was, waardoor er geen nood was om dezelfde kaart die al 2 jaar beschikbaar was aan dezelfde prijs te kopen.
Het verbaasde mij al dat de crypto munt mijn industrie nieg genoemd is in het verhaal.
zowel AMD als Nvidia weigeren om het een aparte afzetmarkt te noemen, zelfs al waren er boardpartners die pure mining-kaarten uitbrachten zonder output, maar van hun uit zijn de chips identiek. De enige reden waarom de server en workstationmarkt apart worden bekeken omdat die drivergewijs meer ondersteuning krijgen
Het heeft niet zoveel zin om een aparte afzetmarkt op te tuigen als die weer volledig in elkaar gestort kan zijn (zoals hij dat nu is) op veel kortere termijn dan het produceren van chips.
ze zijn niet meer waard wat het vroeger waar was, dus word er minder geld in gestoken.
Wat denk je van die shit loads GPU's die nu op de 2e hands markt belanden omdat ze kwa minen al niet meer profitable zijn. Als gamer kan je nu lekker je slag slaan.
Is het wel slim om zo'n kaart te kopen die jarenlang 24 uur per dag overclocked op volle kracht heeft zitten minen?
Slim weet ik niet, maar zoals met alle 2e hands spul, je koopt het met enig risico. Uiteindelijk als jij een gpu van marktplaats haalt zul je nooit echt weten waar hij voor gebruikt is. Zo zullen kaarten die hebben staan minen misschien nog jaren prima werken en gpu's waarmee enkel games is gespeeld misschien binnen een maand stuk gaan. Het is denk ik ook maar geluk hebben. In principe slijt de electronica zelf niet. Enkel welicht de ventilatoren.
Ik heb het gevoel dat ik nog jaren zoet ben met mijn tweedehands 1060.
Mijn 1070 gaat ook nog wel een poos mee, zeker met de huidige prijzen.
Zelfs mijn 960 4gb gaat voor mij op deze manier nog jaren mee :)
En het onderschatten van de vraag zorgt voor schaarste...
Ja dat klopt want shops bestellen niets dus zitten de makers vol met onverkoopbare kaarten... (Webshops/etc kopen werkelijk alleen maar +/- 10% van wat ze mogenlijk kunnen verkopen "pre-orders")
Dit is gewoon het "bullwhip effect" waar de fabrikanten zich gek door hebben laten maken. Een kleine fluctuatie in de vraag van de consument zorgt voor een enorme fluctuatie in het aanbod aan de andere kant van de supply chain, in dit geval de fabrikanten van de videokaarten. Bij elke bedrijfskunde studie wordt dit onderwerp behandeld, je zou zeggen dat ze het aan hebben kunnen zien komen :P .

Leesvoer: https://nl.m.wikipedia.or...gereffect?wprov=sfla1qqqq

[Reactie gewijzigd door weebl op 2 maart 2019 19:29]

Natuurlijk konden ze het aan zien komen, maar dat wil niet zeggen dat het er niet is. En je verkoopcijfers doen dat gewoon ook als je het ziet aankomen.

Op dit item kan niet meer gereageerd worden.

Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee