Sorry maar dat is complete onzin.
5 jaar geleden is de 2080 ti bijvoorbeeld, die een 1300 euro toen kostte (ik negeer eventjes de absurde prijzen van een bepaald moment), wat met inflatie een 1600-1700 nu is.
De 4070 super zou een 670 euro kosten.
https://www.techpowerup.c...-founders-edition/31.html
De 4070 super is een 40-50% sneller dan een 2080 TI , kost minder dan de helft en verbruikt 60-70watt minder. Dat is dus wel degelijk verooitgang over die jaren. Je bent veel beter nu af iets te kopen dan toen.
Lekker selectief joh, de 1080 Ti waar ik het over had volledig negerend en in plaats daar van naar de volgende generatie gaan waarvan ik al zei dat die op iets geheel anders gericht was
De 2080 Ti was qua prijsstelling de vervanging van de Titan X(p) en Xp, want de Titan RTX zetten ze even op het
dubbele van z'n voorganger. Vanwege de RT cores dachten ze dat ze daar flink mee konden cashen. Zal hier zometeen even op terug komen

Echter is dat
altijd het geval geweest bij CPU's en bij GPU's nooit, tot een jaar of 4 geleden. Maar vooral zijn ze niet zoals GPU's zo'n beetje verdubbeld in prijs. De perf/$ is er bij CPU's op vooruit gegaan, alsmede de perf/W (en perf/mm, wat een deel van de perf/$ is).
Je vergeet inflatie : 780 toen is 1050 nu.
Een 1080 ti is een 80-90% trager dan een 4070 nu die een 600 euro kost.
Voor 900 euro heb je een 4070 ti die 100+% sneller is en en voor 1200 zal die 4080 super uitkomen die nog een pak sneller daarboven is. Die 4070 ti verbuikt trouwens evenveel of minder dan een 1080ti en dan begin ik nog niet over DLSS en dergelijk waar je de performance enkele malen beter kan maken tov een 1080 ti.
Ah, één van de magische woorden voor "we gooien de prijzen absurd veel omhoog terwijl de consument toch niet meer te besteden heeft", naast "corona" en "oorlog in Oekraïne".
Please excuse my french, maar: bullshit. Zullen we even een reisje door de tijd maken? En ik ben te lui om ze allemaal op te zoeken; ik doe ook Dollars, want Euro prijzen waren niet altijd voorhanden bij release reviews én dan kunnen we koersen even buiten beschouwing laten. 6800 Ultra: $499. 8800 GTX: $599. GTX 280: $649. GTX 480/580: $499. GTX 680 (GK104): $499, maar de grote chip van die generatie was de GTX 780 Ti: $699. 980 Ti: $649. 1080 Ti: $699. En dan de 2080 Ti, die ze flink duurder maakten omdat ze de Titan RTX als cashcow in wilden zetten met die absurde prijs. Maar om dan ineens het Titan
prijs segment leeg te laten wilden ze ook niet, want dat verkocht ook gewoon...dus dan maar de chip die tot dan toe $699 gekost zou moeten hebben, meer in rekening brengen voor de RT cores.
Daarmee heb ik even de periode van 2004 tot 2016 gedekt. De inflatie in Dollars in de VS van 2017 tot nu voor $699 is $876, hooguit een 4070 Ti dus. Daarmee krijg je een fors kleinere klasse chip dan voorheen - met de 4070 Ti S wordt de grootte van de chip in elk geval vergelijkbaar, maar dat ding is ook gigantisch gecastreerd. De inflatie van 2006 tot 2017 komt uit op $850 - die prijzen waren dus
gedaald ten opzichte van inflatie, niet gestegen.
Niets van dit alles verklaart waarom een 3080 (een zwaar gecastreerde chip die voorheen niet eens een *70 genoemd zou worden) al $799 moest kosten en alles daarboven 4 cijfers. En nu kost een 4080 zelfs al 4 cijfers. De prijzen zijn vér boven de inflatie uitgestegen.
Een 4070 Ti verbruikt overigens meer dan een 1080 Ti, die laatste zit tussen de Super en de Ti in, de perf/W winst is zo'n 70% zoals ik al zei. Maar dan over een periode van 6 jaar, waar de 1080 Ti dat over 15 maanden deed. DLSS ga ik verder niet op in, daar heb ik mijn mening al over gegeven. Als we dat mee moeten gaan tellen, moeten we de driver "optimalisaties" van ATI en Nvidia 15+ jaar geleden ook maar gewoon accepteren, je haalt er toch meer performance uit met de NES textures?

Neen reviewers kraakten het vooral af, en veel gebruikers praate dat na als "fake frames" , dat zie je elke keer terugkomen in reviews en commentaren. Kijk gewoon naar al de opmerkingen die ik kreeg louter omdat ik durfde te zeggen dat dit ook bij een review hoort.
DLSS 1.0 absoluut, maar dat was ook dikke bagger, net als FSR1. DLSS 2.0 was vrijwel iedere reviewer behoorlijk lovend over; sommige meer dan anderen, maar niemand die het écht afkraakte. HUB waren waarschijnlijk het meest negatief, maar zelfs zij hadden het gewoon over de nadelen van de techniek - die weldegelijk aanwezig zijn.
Waar wel veel reviewers kritiek op hebben is Frame Generation en ook dat is wat mij betreft 100% terecht. Het wordt als "meer performance" geadverteerd, maar dat is ronduit onzin. Er wordt niets gerenderd, dus het presteert niet beter. Je krijgt meer frames te
zien, maar er worden er even veel gerenderd. Tegelijkertijd heeft Nvidia het niet over de input lag die er bij komt kijken, waar reviewers wél op inhaakten.
Overigens denk ik niet dat iemand op jou reageerde omdat je DLSS graag in reviews wil zien; maar vooral omdat je zegt dat de hardware reviews zonder DLSS nutteloos zijn. Dat is simpelweg niet waar en ronduit respectloos naar de reviewers toe. DLSS heeft z'n toepassingen, maar is geen universele techniek die ook niet altijd even goed presteert (qua performance winst maar vooral ook qua beeldkwaliteit), dus het moet dan ook per game getest worden. Maar als je in een game ook maar ergens DLSS resultaten hebt, dan gaan die over de hele lineup waar zijn: als DLSS in een specifieke game 50% winst geeft op een 3080, dan geeft het in die game ook op een 4090 50% winst zolang je GPU-bound bent, dus de waarde voor de
hardware review is nihil. DLSS is een nagenoeg fixed-cost feature die niet sneller is op een 4090 dan op een 2070; sterker nog, die laatste haalt er waarschijnlijk méér uit doordat je waarschijnlijk GPU limited bent.
Ze waren nooit negatief, ze waren kritisch over de nadelen. En terecht, want die zijn er en dat is de taak van een objectieve reviewer - maar Tim geeft daar ook precies aan wat ik zei: de beeldkwaliteit is niet consistent. Ook te zien in de RDR clip, waar uitgerekend op het moment dat hij "even better at times" zegt, de verlichtte wagon achterin last van shimmering heeft
En nogmaals, zelfs HUB heeft nog nooit een vergelijking gedaan waarbij de native render getweakt is voor maximale beeldkwaliteit - "ultra" settings zijn vaak helemaal niet het beste qua beeldkwaliteit. Dat is juist mijn hele punt: het is en blijft subjectief. Als een game SMAA ondersteunt, gooi ik TAA meteen uit en ga ik "omlaag" naar SMAA, want dat geeft naar mijn mening juist een mooier resultaat omdat er minder vaseline over het scherm gesmeerd wordt. Met name fijn detail dat met TAA al kan shimmeren (en wat met DLSS soms gefixt wordt, maar soms ook nog steeds shimmert!) doet SMAA veel beter

Dlss en FSR zijn dat ook gewoon : technieken om je een betere spel ervaring te geven. Daar onderscheid tussen maken is onzin. Dat men vroeger keuzes maakte tussen hogere resolutie zonder AA of lagere met is niet verschillend dan wat je nu doet met DLSS en FSR.
Echter had AA (ik ga er van uit dat je het dan over MSAA hebt) een variabele impact, afhankelijk van de GPU. DLSS is nagenoeg fixed-cost. Toen AA en AF ook nagenoeg fixed-cost werden op GPU's, zag je dat ook niet meer in reviews. Kwaliteit van AF verschilde toen ook nog per GPU generatie, ook dat is nu niet aan de orde. DLSS geeft hetzelfde resultaat qua beeldkwaliteit op een 2060 als op een 4090
Ik zie echt niet in waar de waarde van DLSS in een hardware review zit; dat jij wil zien hoe een Nvidia GPU met DLSS presteert tegen over zonder DLSS of tegenover een AMD/Intel GPU betekent mijns inziens dat je naar performance reviews voor die game moet kijken, niet de GPU's.
Met nieuwere versies van dlss is dat grotendeels opgelost , maak ook aub ondertussen tussen wat allemaal in dlss of fsr zit, ghosting valt vooral voor bij frame interpolatie, niet bij alles wat dlss kan en doet.
Kleine persoonlijke randopmerking: als je mij over DLSS ziet praten zal ik het nooit en te nimmer over FG of RR hebben. DLSS is de upscaling techniek, dus ik had het hier niet over FG.
DLSS 3.5 met RR bijvoorbeeld IS gewoon beter dan native omdat raytracing perfect doen zo goed als onmogelijk is zal je altijd bepaalde issues krijgen die opgelost kunnen worden met iets als DLSS.
RR is een heel ander verhaal, want dat vangt een deel van het denoiser werk op. Echter zou ook dat minder noodzakelijk moeten zijn dan het is, als Nvidia sinds Turing daadwerkelijk geinnoveerd had en hun RT performance (per RT core, per clock) omhoog was gegaan. Wederom: volgens Nvidia zou een 4090 zo'n 12 keer sneller moeten zijn dan een 2080 Ti in RT. Maar doordat hun architectuur niet is veranderd en er wel meer RT cores zijn maar niet aangestuurd kunnen worden, komt dat er bij lange na niet uit. Zelfs RR (waar ik veel minder problemen mee heb, omdat het ook veel minder artefacten produceert) is een pleister op de wonde die het gebrek aan vooruitgang is. Die 12 keer zuig ik overigens niet uit m'n duim; volgens Nvidia (!

) zijn de RT cores in Ampère twee keer zo snel als voorheen, en in Ada wederom twee keer zo snel. Ergo, in Ada zouden ze 4 keer zo snel moeten zijn; er zijn er ook 128 in plaats van 68 en ze draaien op dik 60% hogere kloksnelheden. Reken dat allemaal door en je gaat net over de 12x heen

Ik heb een 4090 en al DLSS gebruikt , genoeg games die zelf sene 4090 op de knieen krijgt als je wat gaat pushen qua graphics.
Maar dat ligt vooral aan het feit dat jouw 4090 grotendeels stil ligt. Op enig gegeven moment is er hooguit 30% van jouw GPU daadwerkelijk aan het rekenen, puur omdat Nvidia het allemaal niet aangestuurd krijgt. Geheel ander onderwerp
[Reactie gewijzigd door Werelds op 22 juli 2024 13:32]