Reacties (46)
Corrigeren we voor inflatie de prijs van een titan uit 2015 van 1050 euro, dan zou een 5090 ongeveer 1400 euro moeten kosten INCLUSIEF VAT
met een te verwachten prijs die dichterbij de 2400 euro (en mogelijk hoger) ligt...
2 de TDP is idioot, en is de hoofdreden dat ik nog met 2080ti zit.
-als stroomverbruik omhoog gaat is dat geen ECHTE prestatiewinst.
in ben misschien blijven hangen in 2000 series en daarvoor maar het topmodel gebruikte altijd 250W voor decennia (+/- 20W als je wilt muggezitften) ik heb nooit 350W van de 3000 series en 450W van de 4000 series geaccepteerd en het stroomverbruik van 575W van deze kaart is helemaal idioot.. das meer dan TWEE titan RTX in sli gebruiken.
-vooruitgang is meer prestatie bij GELIJK stroomverbruik, dat dat niet geleverd word, zie ik als nalatigheid in het r&d vlak
3 Ik zet DLSS en upscaling altijd uit, en haat het diepgrondig, ik zie "fake frames" dus als minpunt niet als pluspunt (die als dubbel nadeel luie programeerders van toekomstige spellen tot gevolg kunnen hebben)
ipv al die extra AI cores had ik liever meer cudacores en ECHTE prestatiewinst gekregen,
4 15-30% prestatiewinst in een ideale testsituatie (en maar 5-10% voor andere modellen in de 5000 series lijn) is erg aan de magere kant voor een generatie (ik verwacht 40% prestatiewinst per generatie.. wat hier dus niet geleverd word.
5 de ray tracing performance is niet om over naar huis te schrijven (we zouden toch voor een topmodel tock wel 80+ fps full ray tracing 4k ultra mogen verwachten?
maar ook ray tracing is a devils edge.. ray tracing is vooral een gimmick die programeurs werk bespaard, maar die ons de rekening presteerd, in praktijk zijn de games er niet beter door uit gaan zien vs games die nog met ouderwets handmatig leveldesign gemaakt werden.
Toegegeven als je dat handmatige werk combineerd MET raytracing zou je leuke dingen kunnen krijgen.. maar in praktijk gebeurd dat dus niet.
**gamers betalen voor deze ray trading onzin steeds hogere prijzen voor gpu, stroomverbruiken en krijgen lelijkere games met minder frames, terwijl studio's steeds meer besparen op developers en steeds minder geoptimaliseerde crap uitbrengen. ik zie daar niet het voordeel van.
Wat een bikkel kaart is dat toch2 de TDP is idioot, en is de hoofdreden dat ik nog met 2080ti zit.
Ik heb hem ook. Iedereen zei dat ik gek was -1200 euro- en toen kwamen de peper dure 30xx.
(mijn 980ti was kapot gegaan tijdens de eerste cryptogekte, en er was domweg geen enkele 1080ti te koop van het merk en type die ik wilde voor 15 maanden (was dus erg overleven) kon wel eenmaal een 1070ti kopen.. van verkeerde merk en soort.. maar je wilt niet als je een ferrari rijd naar een dafje..
en met de uitkomst van de 2080ti was die gekte nog niet geheel over, dus had ik geen keus dan voor 1600 euro het verkeerde merk en soort te kopen om iig weer iets fatsoenlijks te hebben (de look van mijn build was daarmee wel om zeep)
(gigabyte 2080ti wc, koste dus destijds 1600 euro)
er was een kort moment dat 2080ti's voor 500 euro per stuk gedumpt werden net voor de 3000 serie uitkwam maar toen die serie uiteindelijk uiitkwam brak de 2e cryptogekte uit.. die duurde tot aan de 4000 series... (wat dat betreft liever hoge prijzen dan een terugkeer naar dat kaarten helemaal niet te krijgen zijn maar daar waren consument-vriendelijkere oplossingen voor geweest)
maar het is natuurlijk wel van de gekke zat je met de 980ti voor onder 700 euro met de op een na beste kaart.. koste je dat meer dan het dubbele met de 2080ti en de 4000 series misde een propere 4080ti.. wat je naar een 4090 bracht, wat je meteen 3 ruggen at launch zou kosten..
maar wat me echt wegjoeg was dat stroomverbruik.. elke kaart die ik heb gehad in 20 jaar was 250w.. en dan opeens 450w.. wat is dat voor gekte ECHT niet.
het is dat stroomverbruik hoofdzakelijk waarom ik upgraden blijf uitstellen.. het was altijd upgraden als je dubbele prestaties voor dezelfde 250w kon krijgen.. en dat is er domweg nog niet zelfs niet 3 generaties verder.. zo erg is de markt gestagneerd.
[Reactie gewijzigd door DutchGamer1982 op 29 januari 2025 02:50]
Ja, een 2080 Ti voor 1200 euro was gek. Ik kocht me begin 2021 een 3080 voor 800, en doorheen dat jaar voor enkele vrienden en kennissen 3080's onder de 800.[...]
Wat een bikkel kaart is dat toch
Ik heb hem ook. Iedereen zei dat ik gek was -1200 euro- en toen kwamen de peper dure 30xx.
Ik zit zelf nog op de GTX 1080. Vanaf volgend jaar gebruik ik hem al 10 jaar- en nog steeds geen behoefte voor een upgrade omdat hij alles draait. De Pascal architectuur was ongekend goed.
Je kan altijd nog overstappen naar AMD. Het is geen vendor lock, reden voor spijt is er niet. Alle bedrijven krikken prijzen omhoog bij tekort aan concurrentie.
[Reactie gewijzigd door Stronk op 27 januari 2025 14:12]
Het tdp is an sich indrukwekkend, maar het valt inderdaad heel erg tegen dat de nieuwe architectuur geen hogere ipc lijkt te hebben. Sterker nog met die veel hogere bandbreedte lijkt het eerder een achteruitgang.
de prijzen van gpu's begonnen "gestoord" te worden met de 2000 serie.
de tdp van gpu's begonnen "gestoord" te worden met de 3000 serie
de titan rtx en 2080ti was dus kwa tdp de "laatste" topkaart die net als de 1080ti, 980ti, 780ti, etc.,.
en de titan, titan black, titan x, titan z en titan y..
250 wat gebruikte.
waar het de 1080ti en de titan xp waren die als laatste normale prijzen hadden.
-> ipv dat de normale prijzen na de cryptoschaarste terugkeerden heeft nvidea gewoon scalper prijzen als default ingevoerd..
ja de titan RTX was erg hoog geprijst net als dat mijn 2080ti al 1600 euro was (2016 euro inclusief inflatie)
wat vergeleken met de <700 euro van de 980ti die hij verving (915 euro inclusief inflatie) zeer pijnlijk voelde, maar ik moest wat.. ik zat al 1 maanden zonder propere gpu.
maar ik herrinner me nog de 600 euro per maand energienota's en 1.20 euro per kwh die ik op een gegeven moment betaalde (met verwarming en pc uit, waar daarvoor ik 150 per maand betaalde met die aan)
(en nog steeds betaal ik 36 cent per kwh.. fors hoger dan de 23 cent die ik begin 2016 betaalde)
**in die maanden moest ik noodgedwongen gewoon de pc uitlaten en deed me denken, misschien moet ik bij de volgende build toch wat meer op het energieverbruik letten.. en misschien iets minder prestatie..
en dan komt nvidea met gpu's met tdp's die nog idioter zijn, compleet wereldvreemd voor in wat voor energiemarkt we leven..
[Reactie gewijzigd door DutchGamer1982 op 30 januari 2025 04:54]
Wikipedia: Diminishing returns
De kosten gaan flink omhoog, maar het rendement gaat omlaag.
Vorige generatie gaat nog prima mee, je moet meerdere generaties wachten voordat je het verschil gaat zien.
Het is eerder een achteruitgang voor consumenten dan stagnatie. De enige vooruitgang zijn de aandeelprijzen.
voor 200 euro kon je nooit een nieuwe midrange kaart kopen.
midrange was de x70 serie en die koste altijd al rond de 350 euro.
een budgetkaart zoals de 960 was 200 euro in 2015, dat zou nu gecorrigeerd voor inflatie 265 euro zijn.
(de 5060 heeft een mrsp van 299 usd, wat waarschijnlijk betekend dat hij hier zo'n 349 euro zal zijn bij release)
wat nog steeds 30% teveel is, maar niet de indiote markup die een 5090 krijgt
ook is vram verhoudingsgewijs veel meer toegenomen bij de lowend modellen. (x6 vs maar x2.4 in 10 jaar tijd)
een midrange 970 van 350 euro, zou nu gecorrigeerd voor inflatie 463 euro zijn.
de 5070 heeft een mrsp van 549usd, wat betekend dat hij hier ws zo'n 639 euro zal kosten.
-> wat bijna 40% te hoog is gecorrigeerd voor inflatie.
ik kan je wel adviseren de nieuwe kaarten van intel in de gaten te houden.. die lijken in jouw prijsklasse wel leuk te worden.
[Reactie gewijzigd door DutchGamer1982 op 29 januari 2025 01:14]
[Reactie gewijzigd door LA-384 op 28 januari 2025 06:41]
de R7 370, was een rebranded R9 270 en die is een rebranded HD7870
(zelfde chip en prestaties, is gewoon nieuwe naam voor zelfde ding min of meer)
de 7870 was toen hij uitkwam in 2012 vergelijkbaar met een 670 in dat tijdperk een midrangekaart in prestaties.
(wat zich ook vertaalde met een prijskaartje van rond de 400euro voor de 670 en 350 euro voor de 7870)
tegen de tijd dat hij gerebrand werd als R9 270 in 2013.. was hij kwa prestaties gelijk aan een gtx 760
een budgetkaart dus.
-> dit toonde zich ook in de prijs van 230 euro voor de 760, en 180 euro voor de 270
tegen de tijd dat de derde rebrand als R7 370 uitkwam in 2015 was hij zelfs niet langer geschikt als budgetkaart. (hij presteerde zelfs lager dan de gtx 950, (en ik heb de 50 series zelf altijd als "kantoorwerk cpu" gezien.. voor budget is de 60 serie.
-> wat zich ook toonde in de prijs.. van 150 euro voor zowel de 950 als 370
***
noem me een elitist maar er is geen enkel moment dat de r7 370 (als die rehash) een midrangekaart was.. hij was zelfs feitelijk altijd ongeschikt als budgetkaart.
[Reactie gewijzigd door DutchGamer1982 op 29 januari 2025 01:02]
De kaart zat rond de 850 ipv 450 voor een 1070, die veel eerder uit kwam. Had je dat geld in je zak gehouden en later de 1070 verkocht en die 400 euro die je over had er weer bij gelegd dan had je veel meer performance gekregen. Dus ook de 1080 ti heeft helaas de markt niet verslagen.
[Reactie gewijzigd door Gamebuster op 24 januari 2025 09:54]
- Ik weet dat het gruwelijk duur is, dus ik ga het niet kopen (en niemand in mijn kringen), dus ik heb niets aan de kennis
- Er komt een aggregaat bij elke videokaart geleverd, echt knap vind ik het niet.
Het zal zeker een mooie output kunnen leveren, maar voor mij is de [kwaliteit]/[prijs + verbruik] verhouding zo scheef dat ik niet eens de moeite neem om te informeren.
De performance vind ik weinig bijzonder te noemen met hoeveel stroom hij verbruikt. En met kunstgrepen als upscaling en framegen heb ik sowieso al niets, dus wat er voor mij over blijft is een te dure kaart die teveel verbruikt en niet de verbeteringen van een nieuwe generatie laat zien waar ik op hoopte.
Het is ook wel overdreven veel, al die verloren frames zie je toch niet door de beperkende factor van de refreshrate van je beeldscherm.
Op dit item kan niet meer gereageerd worden.